LQDN : https://www.laquadrature.net/fr/regulation_decentralisation
Arthur : https://www.laquadrature.net/fr/neutralite_geants
Benjamin : https://www.laquadrature.net/fr/intermediaires_elephant_souris
Laurent : https://www.laquadrature.net/2018/10/16/un-tiers-mediaire/ et https://blogs.mediapart.fr/laurent-chemla/blog/100121/la-chute-2
Résumé :
- Quelles obligations pour les géants, les grandes plateformes (pas que les GAFAM, cf. ci-dessous) ? Statut d'hébergeur, donc irresponsables (s'ils censurent uniquement ce qui est manifestement illégal, c'est-à-dire quasiment tout de nos jours…) alors qu'ils hiérarchisent les contenus, pratiquent une censure privée selon leurs règles (genre le nu sur FB) et monétisent les contenus ? Ce n'est pas logique (t'es irresponsable si t'as pas de rôle actif, sinon tu dois rendre des comptes sur la censure excédentaire à la loi que tu pratiques, sur la hiérarchisation que tu opères et qui déforme la réalité). Statut d'éditeur ? Rendre autrui responsable de mes propos le conduira à me censurer pour avoir la paix. Concilier les deux = idée d'un troisième régime / statut juridique (LQDN le nomme « afficheur », Laurent « fournisseur de liberté d'expression ») ;
- Géant : tout acteur qui dispose d'un pouvoir de contrainte via les conséquences négatives qu'engendrerait ton départ de chez lui. Soit un acteur y renonce (en se fédérant, etc.), soit il doit devenir neutre (pas de hiérarchisation, pas de censure privée, etc.) ;
- Pour LQDN, il faut mettre un terme à l'économie de l'attention (qui a intérêt à jouer sur les émotions, qui capture nos données persos, etc.) via un plus grand nombre d'acteurs. Cela permettra de ramener le problème à une échelle gérable par des humains (socialisation, proximité, modération locale, etc. qui limitent les dérives) et donc par la justice. Pour ce faire, il faut retirer les lois qui imposent aux hébergeurs de filtrer "au préalable" (terro, pédo, droit d'auteur, etc.) et imposer l'interopérabilité ;
- À l'interopérabilité, Laurent préfère le droit d'accéder à nos données avec l'outil qu'on veut, même si c'est hébergé chez FB. Ça permet d'amorcer la transition en se mettant les politiciens de notre côté (aucun d'eux n'ira contre les acteurs économiques : volonté de se partager le pouvoir sur la plèbe, pouvoir économique, emplois, etc.) et en se donnant le temps de construire une alternative crédible. La portabilité des données du RGPD est une blague ;
- Pour Benjamin, on peut identifier les acteurs dominants par une analyse du marché (local, global, sectoriel ‒ email, accès à l'info, distribution de l'info, réseau social ‒, etc.) comme on le fait dans tant d'autres domaines. Une décision d'un acteur est-elle incontournable (centralité de l'acteur) ? Concerne-t-elle un large pan de la population (taille de l'acteur) ? La hiérarchie des contenus a-t-elle une finalité lucrative (FB, qui monétise le contenu de ses utilisateurs, laisse monter la haine parce que ça crée de l'engagement, donc des revenus pub) ? Quel est le modèle économique (pub donc prédation des données persos) ? Ces critères, cumulatifs, permettent de définir un rôle actif. Si un acteur est passif, alors il est sous le statut d'hébergeur, logique (ce qui n'empêche pas de traiter le propos présumé illégal par la méthode du point suivant, plus rapide que la justice). S'il est actif, c'est soit qu'il est sorti de la neutralité du statut d'hébergeur, donc il a des responsabilités (dont justifier une censure abusive et assumer l'absence de censure d'un contenu illégal). Soit on considère qu'il est normal qu'il censure selon ses règles et appréciation (retour au problème du statut d'éditeur du premier point), soit on refuse une censure privée (surtout vu l'impact, cf. définition d'un acteur dominant), et l'acteur est tenu à la stricte neutralité (donc pas de hiérarchisation, etc.) donc on l'a bien contrôlé, y'a un apport par rapport à maintenant, et on passe au point suivant ;
- Laurent rappelle que les géants seront ravis de censurer "pour le compte" des politiciens : main dans la main pour dominer le reste de la société. Donc le statut d'éditeur leur plaît bien. Pour Benjamin et Laurent, il vaudrait mieux passer du régime actuel "irresponsable si censeur / filtrage préalable" (et donc responsable s'il faillit à censurer) à "responsable s'il censure" (à tort). Médiation (notice-and-notice) entre l'auteur et ceux qui signalent son contenu. Ceci dit, comment protéger un auteur contre un signalement systématique et massif, donc abusif ? Ce verrou est absolument indispensable à mes yeux, mais si on limite à un signalement et/ou qu'on considère que le propos est légal et ne peut plus faire l'objet d'un signalement après une seule médiation, rien dit que cette dernière contenait l'argumentaire le plus abouti. À l'issue de cette médiation, si l'auteur maintient ses propos : go justice (donc l'intermédiaire reste neutre). En parallèle (et en bonus dans le modèle de Laurent), la plateforme choisit de maintenir le contenu de son utilisateur en ligne ou non. Si elle fait le choix d'un retrait / masquage dudit contenu, elle perd sa neutralité (donc elle engage sa responsabilité), donc go justice. (Dans les deux cas, ça serait un parquet spécialisé, comme le proposait la loi Avia, et une procédure simplifiée, un signalement automatisé, etc.) ;
- Plus 20 ans de cogitation, pas de solution magique.