Les entreprises, les utilisateurs et les experts défendent la grande technologie contre les poursuites en matière d’algorithmes
Jeudi, un groupe diversifié d’individus et d’organisations a défendu le bouclier de responsabilité de Big Tech dans une affaire cruciale de la Cour suprême impliquant des algorithmes YouTube. Ce groupe comprenait des entreprises, des internautes, des universitaires et des experts des droits de l’homme, dont certains ont fait valoir que la suppression des protections légales fédérales pour les moteurs de recommandation alimentés par l’IA aurait un impact majeur sur l’Internet ouvert.
Parmi ceux qui pesaient sur le terrain figuraient de grandes entreprises technologiques comme Meta, Twitter et Microsoft, ainsi que certains des critiques les plus virulents de Big Tech, notamment Yelp et l’Electronic Frontier Foundation. De plus, Reddit et un groupe de modérateurs bénévoles de Reddit ont également participé à l’affaire.
Ce qui s’est passé. La controverse a commencé avec l’affaire de la Cour suprême Gonzalez c. Google et porte sur la question de savoir si Google peut être tenu responsable de recommander du contenu pro-ISIS aux utilisateurs via son algorithme YouTube.
Google a déclaré que l’article 230 du Communications Decency Act les protégeait de tels litiges. Cependant, les plaignants dans l’affaire, des membres de la famille d’une victime tuée lors d’une attaque de l’Etat islamique à Paris en 2015, soutiennent que l’algorithme de recommandation de YouTube peut être tenu responsable en vertu d’une loi antiterroriste américaine.
Le dépôt disait :
“L’ensemble de la plate-forme Reddit est construit autour des utilisateurs qui “recommandent” du contenu pour le bénéfice des autres en prenant des mesures telles que le vote positif et l’épinglage de contenu. Il ne devrait y avoir aucun doute sur les conséquences de la demande des pétitionnaires dans cette affaire : leur théorie augmenterait considérablement le potentiel des internautes à être poursuivis pour leurs interactions en ligne.
Yelp intervient. Yelp, une entreprise ayant des antécédents de conflit avec Google, a fait valoir que son modèle commercial repose sur la fourniture d’avis précis et non frauduleux à ses utilisateurs. Ils ont également déclaré qu’une décision tenant les algorithmes de recommandation pour responsables pourrait avoir de graves répercussions sur les opérations de Yelp, les obligeant à cesser de trier les avis, y compris ceux qui sont faux ou manipulateurs.
Yelp a écrit;
« Si Yelp ne pouvait pas analyser et recommander des avis sans en assumer la responsabilité, les coûts liés à la soumission d’avis frauduleux disparaîtraient. Si Yelp affichait chaque avis soumis… les propriétaires d’entreprise pourraient soumettre des centaines d’avis positifs pour leur entreprise avec peu d’efforts ou un risque d’amende.
L’implication de Meta. La société mère de Facebook, Meta, a déclaré dans son argumentation juridique que si la Cour suprême devait modifier son interprétation de l’article 230 pour protéger la capacité des plateformes à supprimer du contenu mais pas à recommander du contenu, cela soulèverait des questions importantes sur ce que signifie recommander quelque chose en ligne.
Les représentants de Meta ont déclaré :
“Si le simple fait d’afficher du contenu tiers dans le flux d’un utilisateur est considéré comme” recommandé”, alors de nombreux services seront potentiellement responsables de la quasi-totalité du contenu tiers qu’ils hébergent, car presque toutes les décisions concernant la commande, la sélection, l’organisation et l’affichage le contenu de tiers pourrait être interprété comme ‘recommandant’ ce contenu”.
Les défenseurs des droits humains interviennent. Le Stern Center for Business and Human Rights de l’Université de New York a déclaré qu’il serait extrêmement difficile de créer une règle ciblant spécifiquement les recommandations algorithmiques de responsabilité et pourrait entraîner la suppression ou la perte d’une quantité importante de discours précieux, en particulier les discours de groupes marginalisés ou minoritaires. .
Parce que nous nous soucions. L’issue de cette affaire pourrait avoir des implications importantes sur le fonctionnement des entreprises technologiques. Si le tribunal décide que les entreprises peuvent être tenues responsables du contenu recommandé par leurs algorithmes, cela pourrait changer la façon dont les entreprises conçoivent et exploitent leurs systèmes de recommandation.
Cela pourrait conduire à une curation de contenu plus prudente et à une réduction de la quantité de contenu recommandée aux utilisateurs. En outre, cela pourrait également entraîner des frais juridiques plus élevés et une incertitude pour ces entreprises.