J'ai jamais compris cette histoire de faux positifs.
Si j'ai une machine qui trie les fruits pour sélectionner des pommes vertes, je peux avoir un système basé sur la couleur. Je me retrouve avec ceux qui sont verts. J'ai plein de faux positifs: plein de poires dans ma sélection.
Je peux aussi sélectionner basé sur la forme. Je me retrouve avec ceux qui sont ronds. J'ai plein de faux positifs: plein d'oranges dans ma sélection.
Mais en combinant les deux, j'élimine à la fois les poires et les oranges. Et le taux de faux positifs d'une méthode en particulier n'est pas important.
Une application réelle d'une recherche de terroriste via la surveillance automatique ne va jamais abandonner totalement les méthodes traditionnelles. Les réduire peut-être, mais pas les abandonner toutes. Pour savoir qui sont les terroristes, la procédure sera de demander quels sont les individus qui ont un score suffisamment élevé dans les deux procédures, et le nombre de faux positifs sera fortement réduis.
Mieux, les faux positifs de la méthode traditionnelle seront eux aussi réduit.
D'abord, un humain est peut-être un chouïa plus difficile à cerner qu'un fruit : ce n'est pas tellement ma taille ni mon régime alimentaire ni mes lectures ni mon appartenance à un parti politique qui permettent de savoir qui je suis et de me fixer une étiquette « terroriste » (ou une autre étiquette, d'ailleurs). Il va falloir aligner de nombreux critères pour que la méthode soit pertinente dans ce qu'elle remonte. Déjà qu'il y a des faux-positifs en virologie et en médecine en général…
Ensuite, tout ensemble de critères a ses limites. Une pomme n'est pas absolument ronde ni absolument verte. Il existe des nuances de formes de pommes et de couleurs qui tendent au vert et qui peuvent être la couleur d'une pomme. Donc, tu vas prévoir une marge d'appréciation… qui est une marge d'erreur… Tu obtiendras donc des faux positifs dans ton tri de fruits.
Dans le cas du terrorisme, il n'y a même pas de définition légale de ce que c'est. Du coup, une recherche manuelle ou automatique (la différence entre les deux, c'est le pouvoir de nuisance plus grand de la capacité de traitement informatisée) peut se faire uniquement sur des critères qui relèvent du fait du prince : je ne pense pas avoir la même définition de ce qu'est une atteinte à l'ordre public ou de ce qui relève des intérêts stratégiques de la Nation que Valls, Cazeneuve ou Collomb.
On en revient au flou inhérent de tout processus de détection d'une intention. Quand tu commences à faire une tambouille qui mélange ce qu'a lu une personne, ce qu'elle a écrit, ce qu'elle a acheté, qui elle fréquente, etc., tu obtiens des faux positifs. C'est tellement flou et détaché de la personne que c'est évident. Ce n'est pas parce que j'ai lu les manifestes d'Action directe, que j'ai écrit que c'est une organisation de la société qui me tente bien, et que j'ai acheté des produits ménagers qui permettent également de confectionner une bombe que je suis un terroriste d'extrême-gauche : je suis peut-être juste quelqu'un qui va nettoyer sa piaule en étant un peu plus cultivé. Tu peux remplacer « manifestes d'Action Directe » par « vidéos de propagande de l'État islamique », ça ne change rien, tu n'acquiers pas un semblant de début de commencement de certitude que je suis un terroriste. Et, en attendant, le pouvoir nous a fliqué et a conservé des infos sur nous.
Une application réelle d'une recherche de terroriste via la surveillance automatique ne va jamais abandonner totalement les méthodes traditionnelles.
Oui, c'est bien le problème. Il faudra aller vérifier la sortie de l'algorithme… Ce qui est impossible humainement et financièrement… Donc on flique tout le monde pour un résultat nul… Enfin, non, pas nul, car après un acte, ça permettra de se rassurer en tentant d'attacher son auteur à une mouvance, un groupe, une filière, etc. Impression de contrôle parfaite pour couvrir le temps médiatique.