L’Ofcom affirme que les moteurs de recherche agissent comme des passerelles d’automutilation

L’Ofcom affirme que les moteurs de recherche agissent comme des passerelles d’automutilation

Depuis le lancement de ChatGPT, il y a eu un grand changement vers la sécurité du contenu. L’autocensure de ChatGPT et d’autres chatbots n’est pas vraiment une réalité lorsqu’il s’agit de moteurs de recherche, mais l’Ofcom souligne désormais l’un des dangers : celui d’un accès facile aux contenus d’automutilation.

Dans une nouvelle étude pour l’Ofcom réalisée par le Network Contagion Research Institute (NCRI), les principaux moteurs de recherche, notamment Google, Bing, DuckDuckGo, Yahoo ! et AOL, peuvent servir de passerelle vers des contenus qui glorifient ou célèbrent l’automutilation. comprend des pages Web, des images et des vidéos.

Dans le cadre de l’étude, le CNRI a saisi des requêtes courantes sur l’automutilation et des termes énigmatiques utilisés par les communautés en ligne pour cacher le véritable sens. Sur la base de 37 000 résultats de recherche, il a été constaté que les contenus préjudiciables d’automutilation sont répandus, que les recherches d’images sont particulièrement risquées et que les termes de recherche énigmatiques révèlent des contenus plus préjudiciables.

Commentant les conclusions, Almudena Lara, directrice du développement des politiques de sécurité en ligne à l’Ofcom, a déclaré :

« Les moteurs de recherche sont souvent le point de départ de l’expérience en ligne des internautes, et nous craignons qu’ils puissent servir de passerelles en un clic vers des contenus d’automutilation gravement nuisibles.

Les services de recherche doivent comprendre leurs risques potentiels et l’efficacité de leurs mesures de protection – en particulier pour assurer la sécurité des enfants en ligne – avant notre vaste consultation prévue au printemps.

Une mise en garde majeure dans cette étude est que les chercheurs n’ont pas utilisé de paramètres de recherche sécurisés et de flou d’image. Si les parents ont mis en place des filtres appropriés, des éléments tels que la recherche sécurisée devraient être activés par défaut sans possibilité de les désactiver, offrant ainsi une certaine protection aux enfants.

L’Ofcom est l’organisme chargé de l’application de la loi sur la sécurité en ligne récemment adoptée au Royaume-Uni. Il demandera aux moteurs de recherche de prendre des mesures pour réduire les risques que les enfants trouvent des contenus préjudiciables tels que la promotion de l’automutilation, le suicide et les troubles de l’alimentation. Une consultation est prévue au printemps.

Source : Ofcom

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *