L’IA prouve que c’est un mauvais substitut aux vérificateurs de contenu humain pendant le verrouillage

[ad_1]

La propagation du nouveau coronavirus dans le monde a été rapide et sans précédent. En réponse, les entreprises technologiques se sont efforcées de s’assurer que leurs services sont toujours disponibles pour leurs utilisateurs, tout en faisant la transition de milliers de leurs employés vers le télétravail. Cependant, en raison de problèmes de confidentialité et de sécurité, les sociétés de médias sociaux n’ont pas été en mesure de faire passer tous leurs modérateurs de contenu au travail à distance. En conséquence, ils sont devenus plus dépendants de l’intelligence artificielle pour prendre des décisions de modération de contenu. Facebook et YouTube l’ont admis dans leurs annonces publiques des deux derniers mois, et Twitter semble adopter une approche similaire. Cette nouvelle dépendance soutenue envers l’IA en raison de la crise des coronavirus est préoccupante car elle a des conséquences importantes et continues sur les droits à la liberté d’expression des utilisateurs en ligne.

L’utilisation généralisée de l’IA pour la modération du contenu est troublante car, dans de nombreux cas, ces outils automatisés se sont révélés inexacts. Cela est dû en partie au manque de diversité dans les échantillons d’apprentissage sur lesquels les modèles algorithmiques sont formés. De plus, la parole humaine est fluide et l’intention est importante. Cela rend difficile la formation d’un algorithme pour détecter les nuances de la parole, comme le ferait un humain. En outre, le contexte est important lors de la modération du contenu. Les chercheurs ont documenté des cas dans lesquels des outils automatisés de modération de contenu sur des plateformes telles que YouTube ont classé par erreur des vidéos publiées par des ONG documentant des violations des droits de l’homme par Daech en Syrie en tant que contenu extrémiste et les ont supprimés. Il était bien documenté avant même la pandémie actuelle: sans un humain dans la boucle, ces outils sont souvent incapables de comprendre avec précision et de prendre des décisions sur les cas liés à la parole dans différentes langues, communautés, régions, contextes et cultures. L’utilisation de la modération de contenu uniquement IA aggrave le problème.

Les plates-formes Internet ont reconnu les risques que la dépendance à l’IA pose à la parole en ligne au cours de cette période et ont averti les utilisateurs qu’ils devraient s’attendre à plus d’erreurs liées à la modération du contenu, en particulier en ce qui concerne les «faux positifs», c’est-à-dire le contenu supprimé ou empêché d’être partagé en dépit de ne pas violer la politique d’une plateforme. Ces déclarations, cependant, entrent en conflit avec les défenses de certaines plates-formes de leurs outils automatisés, qui selon eux ne suppriment le contenu que s’ils sont hautement convaincus que le contenu viole les politiques de la plate-forme. Par exemple, le système automatisé de Facebook a menacé d’interdire aux organisateurs d’un groupe travaillant à la couture de masques sur la plate-forme de commenter ou de publier. Le système a également signalé que le groupe pourrait être supprimé complètement. Plus problématique encore, le système automatisé de YouTube n’a pas été en mesure de détecter et de supprimer un nombre important de vidéos faisant la publicité de masques faciaux trop chers et de vaccins et cures frauduleux. Ces erreurs liées à l’IA soulignent l’importance de garder un humain dans la boucle lors de la prise de décisions liées au contenu.

Au cours de la transition actuelle vers une modération automatisée accrue, des plateformes comme Twitter et Facebook ont ​​également indiqué qu’elles trieraient et hiérarchiseraient les suppressions de certaines catégories de contenu, y compris la désinformation et la désinformation liées au COVID-19. Facebook a également spécifiquement indiqué qu’il accordera la priorité au retrait du contenu qui pourrait constituer une menace ou un préjudice imminent pour les utilisateurs, tels que le contenu lié à la sécurité des enfants, au suicide et à l’automutilation, et au terrorisme, et que l’examen humain de ces catégories hautement prioritaires de le contenu a été transféré à certains employés à temps plein. Cependant, Facebook a partagé qu’en raison de cette approche de priorisation, les rapports dans d’autres catégories de contenu qui ne sont pas examinés dans les 48 heures suivant leur signalement sont automatiquement fermés, ce qui signifie que le contenu est laissé de côté. Cela pourrait entraîner une quantité importante de contenu nuisible restant sur la plate-forme.

VB Transform 2020 Online – 15-17 juillet. Rejoignez les principaux dirigeants de l’IA: inscrivez-vous au livestream gratuit.

En plus d’étendre l’utilisation de l’IA pour modérer le contenu, certaines entreprises ont également réagi aux contraintes de capacité en annulant leurs processus d’appel, aggravant la menace à la liberté d’expression. Facebook, par exemple, ne permet plus aux utilisateurs de faire appel des décisions de modération. Au contraire, les utilisateurs peuvent désormais indiquer qu’ils ne sont pas d’accord avec une décision, et Facebook recueille simplement ces données pour une analyse future. YouTube et Twitter offrent toujours des processus d’appel, bien que YouTube ait partagé que compte tenu des contraintes de ressources, les utilisateurs verront des retards. Les processus d’appel en temps opportun constituent un mécanisme vital pour les utilisateurs d’obtenir réparation lorsque leur contenu est supprimé par erreur, et étant donné qu’il a été dit aux utilisateurs de s’attendre à plus d’erreurs au cours de cette période, l’absence d’un processus de recours significatif est un coup dur pour les utilisateurs. droits d’expression.

En outre, au cours de cette période, des sociétés telles que Facebook ont ​​décidé de s’appuyer davantage sur des outils automatisés pour filtrer et examiner les publicités, ce qui s’est avéré difficile car les entreprises ont introduit des politiques pour empêcher les annonceurs et les vendeurs de profiter des craintes du public liées à la pandémie et de vendre de faux articles. Par exemple, CNBC a trouvé sur Google des publicités frauduleuses pour des masques faciaux qui promettaient une protection contre le virus et a déclaré qu’elles étaient «approuvées par le gouvernement pour bloquer jusqu’à 95% des virus et bactéries en suspension dans l’air. Stock limité. » Cela soulève des questions quant à savoir si ces outils automatisés sont suffisamment robustes pour capturer le contenu nuisible et quelles sont les conséquences des publicités nuisibles glissant à travers les mailles du filet.

Les questions de gouvernance du contenu en ligne et d’expression libre en ligne n’ont jamais été aussi importantes. Des milliards de personnes sont désormais confinées à leur domicile et dépendent d’Internet pour se connecter avec d’autres et accéder à des informations vitales. Des erreurs de modération causées par des outils automatisés peuvent entraîner la suppression d’informations non contraignantes, faisant autorité ou importantes, empêchant ainsi les utilisateurs de s’exprimer et d’accéder à des informations légitimes en cas de crise. En outre, comme le volume d’informations disponibles en ligne a augmenté au cours de cette période, il en est de même pour la quantité de désinformation et de désinformation. Cela a amplifié le besoin d’une modération responsable et efficace qui peut identifier et supprimer le contenu nuisible.

La prolifération de COVID-19 a déclenché une crise et les entreprises technologiques, comme le reste d’entre nous, ont dû s’adapter et réagir rapidement sans préavis. Mais il y a des leçons que nous pouvons tirer de ce qui se passe en ce moment. Les décideurs politiques et les entreprises ont constamment présenté les outils automatisés comme une solution miracle aux problèmes de gouvernance du contenu en ligne, malgré le recul des groupes de la société civile. Les entreprises s’appuyant davantage sur la prise de décision algorithmique pendant cette période, ces groupes de la société civile devraient travailler à documenter des exemples spécifiques des limites de ces outils automatisés afin de comprendre la nécessité d’une implication accrue des humains à l’avenir.

En outre, les entreprises devraient utiliser ce temps pour identifier les meilleures pratiques et les échecs dans l’espace de gouvernance du contenu et pour élaborer un plan de réponse aux crises respectant les droits pour les crises futures. Il est compréhensible qu’il y aura des lacunes regrettables dans les recours et les ressources disponibles pour les utilisateurs pendant cette période sans précédent. Mais les entreprises doivent veiller à ce que ces réponses d’urgence soient limitées à la durée de cette crise de santé publique et ne deviennent pas la norme.

Spandana Singh est analyste des politiques et se concentre sur les problèmes d’IA et de plate-forme au New America’s Open Technology Institute.



[ad_2]