Rien de neuf sous le soleil mais profitons-en pour creuser le sujet.
Le quotidien Afternposten est le plus gros journal norvégien, et son rédacteur en chef Espen Egil Hansen a décidé vendredi de s’attaquer en Une au fondateur de Facebook, Mark Zuckerberg. Aftenposten est en colère contre le réseau social américain, qui a exigé du quotidien qu’il retire de sa page Facebook une publication qu’il avait faite de la célébrissime photographie dite « de la petite fille brûlée au napalm », prise en 1972 par Nick Ut, pour Associated Press.
La photographie faisait partie d’une collection de sept clichés réunis par l’auteur norvégien Tom Egeland pour illustrer les photos qui sont réputées avoir changé le cours de l’histoire. [...] Mais Facebook, lui, n’a retenu de l’image historique que la toute petite zone, certes centrale, où apparaît le sexe imberbe de la jeune fille, dont l’état le plus naturel qui soit s’oppose à la cruauté des armes fabriquées par l’Homme. Les algorithmes ont analysé l’image, et livré leur conclusion. Pornographie infantile. Dit autrement, pédophilie. Résultat : censure.
En elle-même, la censure de la petite fille au napalm n’est qu’anecdotique, et elle est hélas le fruit d’une politique pudibonde trop souvent subie par des internautes et des médias, largement documentée, par exemple lorsqu’il s’agit volontairement ou non de censurer des campagnes de prévention du cancer du sein, de bloquer la diffusion de photos de femmes qui allaitent leur enfant, ou encore d’interdire l’Origine du Monde de Courbet. Souvent, Facebook revient sur ces décisions après un examen plus humain, et surtout plus réfléchi.
Oui, enfin Facebook revient surtout sur ses décisions quand la société civile hurle trop fort et que ces cris risquent de compromettre le business ! Comme c'est d'ailleurs le cas dans cette affaire, voir http://www.liberation.fr/futurs/2016/09/09/facebook-revient-sur-sa-dec .
[...] « Même si nous reconnaissons que cette photo est iconique, il est difficile de créer une distinction pour autoriser la photographie d’un enfant nu dans un certain cas, et pas dans d’autres », tente de plaider un porte-parole de Facebook interrogé par le Guardian.
Hé oui, l'intelligence artificielle, ça n'existe pas encore. Ça reste de la recherche de motifs évoluée, donc faillible.
Or cette censure, due encore une fois à la psychose anti-nudité qui envahit le monde sous le poids des plateformes de culture américaine, n’est que la partie visible d’une censure plus profonde, qui peut être aussi politique et parfois très difficile à critiquer. Quand le réseau social interdit à des « groupes islamistes » de diffuser de la propagande, tout le monde ou presque applaudit des deux mains. Mais ce faisant il leur interdit aussi, de fait, de faire connaître photos ou vidéos de civils tués sous les bombes de la coalition occidentale, parmi lesquels existent aussi probablement des petites filles apeurées. La censure est toujours un choix qui a des conséquences. Toute la question est de savoir si une plateforme privée aussi incontournable que Facebook peut rester celle qui choisit les critères de cette censure (fût-ce de manière faussement neutre et automatisée), et oriente donc ces conséquences.
Très juste.
Le problème est très bien posé par Benjamin Bayart, sur son twitter ( https://twitter.com/bayartb/status/774299948611436544 ) :
-
Facebook veut jouer sur les deux tableaux : ne pas être considéré comme un éditeur mais plutôt comme un intermédiaire technique tout en ayant le droit de censurer comme bon lui semble, en dehors de toute réglementation. Pour comprendre en quoi c'est absurde, il faut comprendre la différence entre le statut d'éditeur et celui d'intermédiaire technique :
- L'éditeur, en sa qualité de décideur du contenu publié sur son média, est responsable de ce qui y est publié. Donc il est responsable de la publication de propos diffamatoires, d'injures, de calomnies, d'infractions au droit d'auteur, d'appel à la haine, etc, etc. Donc, il doit en assumer le coût, y compris au pénal (donc la sanction genre amende ou prison, porte sur les dirigeants, pas comme au civil ;) ), au même titre que l'auteur des infractions. En échange, il a le droit de censurer ce que bon lui semble puisqu'il est chez lui, il fait donc ce qu'il veut.
- L'intermédiaire technique, lui, n'est responsable de rien puisqu'il ne décide pas du contenu qui est diffusé. Il doit supprimer les contenus après signalement et uniquement s'ils sont manifestement illégaux (genre un appel à la haine manifeste ou du pedoporn explicite). En échange, il n'est pas co-responsable des infractions commises par d'autres et il n'a pas à les assumer. Contrepartie, il ne peut pas censurer comme bon lui semble, de son plein grès. S'il censure, alors il décide du contenu. S'il décide du contenu, il est éditeur, il fait un choix éditorial, il n'est pas neutre.
- Facebook se défendra probablement de faire de la censure par algorithme donc que la société n'est pas une éditrice puisqu'il n'y a pas de choix humain. Déjà, ce n'est pas toujours des choix algorithmiques qui se cachent derrière Facebook (voir http://www.lefigaro.fr/secteur/high-tech/2016/08/30/32001-20160830ARTFIG00174-facebook-remplace-ses-editeurs-humains-par-des-algorithmes.php , par exemple ). Ensuite, l'algorithme ne s'est pas inventé ni implémenté tout seul et il ne s'agit pas d'une intelligence artificielle autonome donc il y a une volonté humaine de classer les contenus selon tels et tels critères et de décider lesquels sont publiés ou non, à qui, et de quelle manière. Enfin, l'utilisation d'un algorithme ne dédouane pas Facebook de ses responsabilités : toute législation prévoit explicitement que je suis responsable des machines que je possède, qui sont sous mon contrôle et ma surveillance. C'est dans le Code civil français et ça a même jailli durant les débats sur le projet de loi relatif à la liberté de la création, à l'architecture et au patrimoine (voir http://www.nextinpact.com/news/98295-loi-creation-copie-privee-etendue-plus-largement-encore-au-cloud.htm ).
- Il en découle que Facebook abuse du statut d'intermédiaire technique : Facebook veut avoir le droit de censure privée sans avoir la responsabilité éditoriale dans son ensemble. Sauf qu'un-e juge aura beaucoup de difficultés à affirmer cela et à condamner Facebook pour cela. Car abuser de ce statut, ce n'est pas un délit, il n'y a pas trop de sanctions prévues ou alors par des biais extrêmement indirects, extrêmement détournés. Genre qu'un-e juge affirme que Facebook est un éditeur, ça serait trop lourd d'un coup pour les dirigeants vu tout ce qu'il y a déjà comme contenus litigieux sur Facebook. Peine disproportionnée / pas raisonnable. Donc aucun-e juge ne jouera à ça.
- Il en découle que les CGU de Facebook l'emporteraient sur les régulations nationales voire supranationales (genre européennes). Donc, nous sommes dans des cas caractérisés de censure privée hors de contrôle.
- « Oui, mais on s'en fout, Facebook ce n'est pas Internet, les gens publient leurs contenus ailleurs, chez eux de préférence, et basta ! Tous les exemples de censure privée documentés devraient faire réagir ! ». Oui, mais :
- « Théorème de la grenouille : si tu laisses le mal s'installer, la masse des gens ne s'en rend pas compte. » (source : https://twitter.com/AdrienneCharmet/status/774307807394955264 ).
- De plus, les exemples, il faut avoir le temps et les compétences pour les éplucher et les comprendre donc ils parlent à quelques militant-e-s, pas à tous les utilisateur-rices de Facebook.
- La question est : acceptons-nous que des gens perdent leurs droits et libertés (expression, vie privée, etc.) simplement parce qu'ils-elles n'ont pas les compétences et/ou le temps et/ou même l'envie de comprendre le problème et surtout, d'implémenter les solutions que l'on connaît qui, il faut bien le reconnaître, ne sont pas simple d'utilisation et demandent un effort mental ? Est-ce que ces citoyen-ne-s sont des citoyen-ne-s insignifiants, de seconde zone, soumis à l'arbitraire d'une grosse société commerciale ? Un peu comme si l'on disait que les droits des travailleur-euse-s étaient réservés aux syndiqué-e-s qui prennent le temps de tout analyser, éplucher et comprendre les abus de certaines sociétés commerciales et qui feraient le choix de bosser uniquement dans des sociétés éthiques (si ça existe). Ou comme si l'on disait que la pluralité des médias (en posant l'hypothèse qu'elle existe concrètement) suffit et que l'on ne fixait aucun régime de responsabilité des éditeurs.
Normalement, c'est dans la loi que l'on protège les faibles des puissants et que l'on organise la vie en société et que l'on fixe les libertés et leurs limites… Il serait temps que les parlements se bougent sur la question de la censure privée au lieu de réguler les gros silos du web en utilisant uniquement le droit de la consommation et celui de la fiscalité ?