Les entreprises, les utilisateurs et les experts défendent les grandes technologies contre les poursuites en matière d’algorithmes

Jeudi, un groupe diversifié d’individus et d’organisations a défendu le bouclier de responsabilité de Big Tech dans une affaire cruciale devant la Cour suprême concernant les algorithmes de YouTube. Ce groupe comprenait des entreprises, des internautes, des universitaires et des experts des droits de l’homme, certains affirmant que la suppression des protections légales fédérales pour les moteurs de recommandation basés sur l’IA aurait un impact majeur sur l’Internet ouvert.

Parmi ceux qui pesaient à la Cour figuraient de grandes entreprises technologiques telles que Meta, Twitter et Microsoft, ainsi que certains des critiques les plus virulents de Big Tech, notamment Yelp et l’Electronic Frontier Foundation. De plus, Reddit et un groupe de modérateurs bénévoles de Reddit ont également participé à l’affaire.

Qu’est-il arrivé. La controverse a commencé avec l’affaire de la Cour suprême Gonzalez contre Google et s’articule autour de la question de savoir si Google peut être tenu responsable de recommander du contenu pro-ISIS aux utilisateurs via son algorithme YouTube.

Google a affirmé que l’article 230 du Communications Decency Act les protégeait de tels litiges. Cependant, les plaignants dans l’affaire, les membres de la famille d’une victime tuée lors d’une attaque de l’Etat islamique en 2015 à Paris, soutiennent que l’algorithme de recommandation de YouTube peut être tenu responsable en vertu d’une loi antiterroriste américaine.

Le dossier disait :

« L’ensemble de la plate-forme Reddit est construit autour des utilisateurs qui « recommandent » du contenu pour le bénéfice des autres en prenant des mesures telles que le vote positif et l’épinglage de contenu. Il ne faut pas se tromper sur les conséquences de l’affirmation des pétitionnaires dans cette affaire : leur théorie augmenterait considérablement le potentiel des internautes à être poursuivis pour leurs interactions en ligne. »

Yelp intervient. Yelp, une entreprise ayant des antécédents de conflit avec Google, a fait valoir que son modèle commercial repose sur la fourniture d’avis précis et non frauduleux à ses utilisateurs. Ils ont également déclaré qu’une décision qui rendrait responsables les algorithmes de recommandation pourrait gravement affecter les opérations de Yelp en les forçant à cesser de trier les avis, y compris ceux qui sont faux ou manipulateurs.

Yelp a écrit;

« Si Yelp ne pouvait pas analyser et recommander des avis sans engager sa responsabilité, ces coûts de soumission d’avis frauduleux disparaîtraient. Si Yelp devait afficher chaque avis soumis… les propriétaires d’entreprise pourraient soumettre des centaines d’avis positifs pour leur propre entreprise avec peu d’efforts ou un risque de pénalité.

L’implication de Meta. La société mère de Facebook, Meta, a déclaré dans ses arguments juridiques que si la Cour suprême devait modifier l’interprétation de l’article 230 pour protéger la capacité des plateformes à supprimer du contenu mais pas à recommander du contenu, cela soulèverait des questions importantes sur la signification de recommander quelque chose en ligne.

Les représentants de Meta ont déclaré :

« Si le simple fait d’afficher du contenu tiers dans le flux d’un utilisateur est considéré comme le » recommandant « , alors de nombreux services seront potentiellement responsables de la quasi-totalité du contenu tiers qu’ils hébergent, car presque toutes les décisions concernant la manière de trier, sélectionner, organiser, et afficher du contenu tiers pourrait être interprété comme une « recommandation » de ce contenu. »

Les défenseurs des droits de l’homme interviennent. Le Stern Center for Business and Human Rights de l’Université de New York a déclaré qu’il serait extrêmement difficile de créer une règle ciblant spécifiquement les recommandations algorithmiques de responsabilité, et que cela pourrait entraîner la suppression ou la perte d’une quantité importante de discours précieux, en particulier issus de groupes marginalisés ou minoritaires.

Pourquoi nous nous soucions. L’issue de cette affaire pourrait avoir des implications importantes sur le fonctionnement des entreprises technologiques. Si le tribunal décidait que les entreprises peuvent être tenues responsables du contenu recommandé par leurs algorithmes, cela pourrait changer la façon dont les entreprises conçoivent et exploitent leurs systèmes de recommandation.

Cela pourrait conduire à une curation de contenu plus prudente et à une réduction de la quantité de contenu recommandée aux utilisateurs. En outre, cela pourrait également entraîner une augmentation des frais juridiques et de l’incertitude pour ces entreprises.


Newsletter

Rejoignez notre newsletter pour des astuces chaque semaine