Je suis persuadée que la plupart des réseaux sociaux seraient ravis de déléguer ce travail à un logiciel. C’est ce qu’ils aimeraient nous faire penser, que tout ce contenu est pris en charge par des algorithmes. Mais il y a un grand nombre de décisions basées sur la morale, qu’il est difficile de déléguer aux ordinateurs. Par exemple : un algorithme peut identifier une svastika [croix gammée], mais il lui est difficile de savoir si la personne qui le poste est un néonazi (ce qui impliquerait son retrait) ou un survivant de l’holocauste (ce qui impliquerait qu’elle demeure). Ce genre de choix nécessite encore des humains.
[...]
En outre, les entreprises qui les recrutent veulent elles aussi rester anonymes, les modérateurs ne savent pas qui sont leurs employeurs. Ils ne travaillent pas directement pour les grandes entreprises. Ce sont des entreprises factices, avec des noms génériques, qui agissent comme intermédiaires entre les grosses boîtes, comme Facebook ou Google, et les modérateurs. Ils travaillent depuis leur maison, la plupart du temps. Ces tâches sont sous-traitées aux Philippines, en Europe de l’Est, mais la plupart des interviews que nous avons pu faire étaient avec des Américains. C’est une forme de travail très peu réglementé et mal payé.
[...]
Il s’est rappelé que l’une de ses tâches a été de retirer les photos et vidéos d’Oussama Ben Laden. Pas une image spécifique de Ben Laden mort, mais tout ce qui pouvait le représenter. Nous avons pensé qu’il s’agissait là d’une demande très étrange, qui ne s’apparente pas à un choix moral. Il n’y a rien de violent ou de pornographique dans une vidéo de Ben Laden, c’est évidemment une décision politique. Il s’est avéré qu’un grand nombre d’entre eux a reçu des requêtes similaires de leurs entreprises, consistant à enlever des éléments en lien avec des décisions politiques, qui n’avaient rien à voir avec la morale.
Via https://www.laquadrature.net/fr/censure-antiraciste-Facebook