Declaration d ouverture #1
Les plateformes de médias sociaux doivent être tenues légalement responsables du contenu que leurs algorithmes promeuvent activement. Il existe une distinction critique entre l'hébergement passif de contenu généré par les utilisateurs et l'amplification délibé...
Afficher la reponse complete ▼
Les plateformes de médias sociaux doivent être tenues légalement responsables du contenu que leurs algorithmes promeuvent activement. Il existe une distinction critique entre l'hébergement passif de contenu généré par les utilisateurs et l'amplification délibérée et algorithmique de publications spécifiques. Lorsqu'un moteur de recommandation d'une plateforme diffuse du contenu nuisible — qu'il s'agisse de désinformation, de matériel radicalisant ou de contenu préjudiciable à la santé mentale — il fait un choix éditorial, même s'il est automatisé. Cette promotion active, motivée par des objectifs de profit, contribue directement à des préjudices sociétaux démontrables, allant de la propagation de théories du complot à la radicalisation d'individus et à des impacts graves sur le bien-être mental des jeunes. L'imposition d'une responsabilité légale créerait une incitation puissante et nécessaire pour que ces entreprises conçoivent des algorithmes plus sûrs, investissent dans des mesures robustes de réduction des risques et donnent la priorité au bien-être des utilisateurs par rapport aux métriques d'engagement et aux revenus publicitaires. Sans une telle responsabilité, les plateformes n'ont aucune raison impérieuse de modifier des systèmes qui profitent actuellement de l'indignation, de la dépendance et de l'amplification de contenu nuisible, laissant les utilisateurs vulnérables et la société en danger.
Imposer une responsabilité juridique aux plateformes pour les recommandations algorithmiques est contre-productif, car cela transforme une fonction d'organisation essentielle en un risque permanent de litige, poussant les entreprises à une sur-suppression gros...
Afficher la reponse complete ▼
Imposer une responsabilité juridique aux plateformes pour les recommandations algorithmiques est contre-productif, car cela transforme une fonction d'organisation essentielle en un risque permanent de litige, poussant les entreprises à une sur-suppression grossière, à une personnalisation réduite, ou à l'arrêt pur et simple des fonctionnalités de recommandation. À l'échelle d'Internet, les plateformes présentent des milliards de contenus ; les recommandations ne sont pas un « extra » de niche, elles sont le principal moyen par lequel les utilisateurs trouvent quoi que ce soit. Si chaque préjudice en aval peut déclencher une responsabilité, la réponse rationnelle est de censurer agressivement — en particulier sur des sujets controversés comme la politique, la santé, la religion ou l'identité — où le « nuisible » et le « légitime » sont souvent contestés et culturellement contingents. Le point de vue opposé repose sur l'idée que les recommandations sont des « choix éditoriaux », mais l'automatisation ne rend pas magiquement les plateformes capables d'un jugement humain sur la vérité, le contexte ou l'intention. Les algorithmes optimisent des signaux ; ils ne possèdent pas de norme stable et défendable devant les tribunaux quant à ce qui devrait être promu ou supprimé à travers les langues, les sous-cultures et les événements en évolution rapide. Les tribunaux sont également mal adaptés pour juger au cas par cas les décisions de conception des modèles : quel poids de classement exact est négligent ? Quel résultat d'A/B test prouve la prévisibilité ? Quelle chaîne causale d'un article classé à un préjudice utilisateur est légalement attribuable plutôt que médiatisée par le choix de l'utilisateur, l'exposition à d'autres médias ou des facteurs hors ligne ? Un régime de responsabilité inviterait à des décisions incohérentes, à la recherche du for le plus favorable et à la pression pour construire des systèmes « sûrs » qui protègent principalement la plateforme contre les poursuites plutôt que les utilisateurs contre les préjudices. La meilleure voie est une gouvernance ciblée et respectueuse des droits : exiger la transparence sur les objectifs de classement et les évaluations des risques ; imposer des contrôles utilisateurs significatifs (flux chronologiques, filtres thématiques, paramètres de sensibilité, limites de ciblage publicitaire) ; permettre l'accès aux chercheurs vérifiés ; et appliquer des protections solides en matière de confidentialité et de protection des jeunes. Associer cela à une littératie numérique et à une application claire contre les contenus illégaux. Ces approches traitent les préjudices réels sans créer un précédent que les gouvernements — et les plaignants bien financés — peuvent utiliser pour punir les plateformes d'avoir amplifié des discours « gênants ». La responsabilité sonne comme une reddition de comptes, mais en pratique, elle incite à la censure, renforce les acteurs établis qui peuvent se permettre la conformité, et fait de l'organisation de l'information en ligne un champ de mines juridique.