Microsoft constate une autre forte augmentation de la modération Xbox et des mesures de sécurité

Microsoft constate une autre forte augmentation de la modération Xbox et des mesures de sécurité

Microsoft a publié son dernier Rapport de transparence Xbox, détaillant les mesures d’application prises pour assurer la sécurité de la communauté en ligne Xbox. Le rapport complet, au format PDF, montre que de janvier à juin 2023, Microsoft a émis un total de 19,56 millions de mesures de modération et de sécurité. C’est près de deux fois plus que les 10,19 millions de mises en application effectuées entre juillet et décembre 2022.

rapport de transparence Xbox

Comme dans les rapports précédents, la grande majorité des mesures prises ont été qualifiées de « proactives », ce qui signifie que la technologie de Microsoft pourrait bloquer le contenu incriminé avant qu’il ne puisse atteindre les joueurs Xbox. Dans le résumé du rapport de Microsoft, il est indiqué :

Pour mieux mesurer notre succès, nous incluons désormais un nouvel ensemble de données couvrant notre travail dans cet espace appelé « Toxicité évitée ». Au cours de cette dernière période, plus de 4,7 millions de contenus ont été bloqués avant d’atteindre les joueurs, y compris une augmentation de 135 000 (+39 % par rapport à la période précédente) des images grâce aux investissements dans l’utilisation du nouveau modèle de base Turing Bletchley v3.

La grande majorité des sanctions émises au cours des six derniers mois étaient dues à des tricheries ou à de faux comptes Xbox.

Microsoft a ajouté de nouvelles fonctionnalités et affiné son système de contrôle Xbox au cours de l’année écoulée. En juin, la société a annoncé un nouveau système conçu pour permettre aux joueurs Xbox d’enregistrer plus facilement ce qu’elle considère comme des conversations vocales offensantes et de les envoyer au centre de sécurité de l’entreprise. équipe.

En août, Microsoft a annoncé une refonte du système Xbox Enforcement Strike. Il ajoute des avertissements aux joueurs Xbox lorsqu’ils sont signalés pour violation du système de sécurité et de modération de l’entreprise. Si un joueur reçoit suffisamment d’avertissements sur son compte, il pourrait faire face à des suspensions prolongées pouvant aller jusqu’à un an sur le service Xbox. Aujourd’hui, Microsoft a déclaré :

Les premières informations indiquent que la majorité des acteurs ne violent pas les normes communautaires après avoir été mis en application et s’engagent positivement avec la communauté.

Microsoft a également lancé des kits d’outils de sécurité pour les jeux Xbox pour le Japon et Singapour afin de fournir aux parents plus d’informations et de conseils pour assurer la sécurité de leurs enfants lorsqu’ils jouent à des jeux en ligne sur le service Xbox.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *