5571 links
  • GuiGui's Show

  • Home
  • Login
  • RSS Feed
  • Tag cloud
  • Picture wall
  • Daily
Links per page: 20 50 100
◄Older
page 71 / 279
Newer►
  • Étienne Klein : Éthique et philosophie des sciences, le rôle des scientifiques ? [EN DIRECT] - Thinkerview

    • Vocabulaire : l'énergie renouvelable n'existe pas. On ne produit pas d'énergie (à partir de rien). On ne consomme pas d'énergie. On la transforme. La quantité d'énergie se conserve, elle ne se renouvelle pas. L'orateur semble considérer qu'affirmer qu'une énergie a une source renouvelable est valide. Je pense pas : le soleil a un début et une fin estimée, il n'aura probablement pas de remplaçant. La force motrice du vent ou de l'eau se répète, mais elle ne se régénère pas et il y aura peut-être une fin ;

    • Comparaison entre prise de décision et physique quantique. Avant une prise de décision, on est dans l'état A+B, superposition de deux mondes possibles, de deux états possibles du système. Décider, c'est casser cette somme, cette indétermination, afin d'obtenir soit A, soit B. Le juste milieu pour contenter tout le monde n'est pas une solution, car, alors, on ne testera pas l'hypothèse de départ (si l'on nuance A avec B, on n'aura pas toutes les propriétés attendues du choix A, donc on n'aura pas tester le choix A). Parfois, pour décider, il faut se référer à des valeurs, à des dogmes, donc le choix devient arbitraire ;

    • On n'explique plus comment les idées deviennent des connaissances. Comment a-t-on su que la terre est ronde ? Quels arguments ont été utilisés des deux côtés ? Avoir des connaissances ne suffit pas, car ceux qui les contestent ont des arguments. Si l'on ne sait pas présenter les arguments de notre connaissance et son histoire, on échouera à convaincre. Imposer un fait, une connaissance, ça ne fonctionne pas. Face aux nouvelles découvertes très pointues, avons-nous encore la compréhension / la maîtrise de nos connaissances ? ;

    • Le débat liberté contre sécurité est absurde : si l'on aime la liberté, alors on aime (pas on tolère) les risques qui lui sont inhérents. Il ne faut pas confondre diminuer un risque et diminuer l'anxiété. Les lois sécuritaires tentent de diminuer l'anxiété de la société avec des mesures qui apportent un gain nul ou très faible en sécurité ;

    • Vocabulaire : l'expression « intelligence artificielle » est-elle une mauvaise traduction ? En anglais, « intelligence », c'est l'information, le renseignement (comme dans CIA), pas l'intelligence française qui inclut émotion, empathie, etc. Si l'IA, c'est la compréhension artificielle du renseignement, traiter massivement de l'information, alors ce n'est pas nouveau, les ordinateurs ayant toujours été des machines à manipuler l'information ;

    • Nucléaire. Migrer vers le tout-nucléaire afin de débuter la transition énergétique (lutter contre le CO2 des centrales à charbon, en gros) n'est pas possible : il faudrait un nombre conséquent de réacteurs (ce qui réduirait la sécurité par la prise de distance avec une centrale et qui nécessiterait plus de contrôles, etc.) et une quantité importante de combustible. Il faudrait également probablement utiliser de l'uranium 238 afin que la réaction soit plus pêchue, etc. L'usage du thorium dégage des produits de fission qui crachent pas mal de rayonnements gamma de haute énergie ;

    • Théorie unifiée / du tout. Unifier, dans une même représentation mathématique, la description des 4 interactions fondamentales (gravitation, les forces nucléaires et la force électromagnétique). À quoi reconnaîtra-t-on quelle est une théorie du tout, qu'elle oublie rien ? Comment la démarquer d'une théorie concurrente ? Comment la tester ?
    Wed Apr 15 12:12:59 2020 - permalink -
    - https://videos.thinkerview.com/w/qbE5ZdFXVGXgdhXRHKu4xD
  • Usul : la gauche est-elle le « camp du bien » ? - YouTube

    Résumé : une morale est relative à un contexte temporel éco-socio-culturel. Transformer de nécessaires usages communs à un instant T en morale, c'est leur octroyer de la légitimité après-coup afin de définir qui est dans le camp du bien et de justifier l'immobilisme. Droite comme gauche se réclament de valeurs et tout le monde prêche le bien et l'intérêt général, donc en faire grief seulement à la gauche (camp du bien, bien-pensance, etc.) n'est pas sérieux. Vouloir changer des choses / de système, c'est être immoral, il faut affronter la morale de l'époque qui a l'avantage de pré-exister donc d'être enracinée. Il faut remplacer la morale par la raison (arguments, mesures, etc.), sinon on obtient un non-débat valeurs contre valeurs, morale contre morale. L'organisation de la vie en commun doit rester neutre aux valeurs et elle doit créer le cadre qui permet à plusieurs morales de co-exister. Pourtant, on continue à vouloir insuffler de la morale partout (économie, politiciens, école) car ça permet de nier la défaillance d'un système pour la remplacer par la faillite morale des méchants individus. Il m'apparaît très difficile d'avoir en tout temps un argumentaire basé sur la raison (on n'a pas de chiffres sur tout, on se questionne uniquement en fonction de la morale actuelle, tout ne se démontre pas par des chiffres, etc.).


    • Une morale est liée à un contexte temporel éco-socio-culturel (Montaigne), donc elle est relative : on peut trouver immoral les homosexuels et la nudité tout en applaudissant une guerre. En France, la morale la plus répandue est celle issue du christianisme ;

    • Pour constituer un bloc, une société humaine a besoin d'usages, de traditions et de mensonges communs (Montaigne, Durkheim). Transformer cela en morale en lui donnant un côté immuable, c'est justifier, après-coup, les pratiques afin de définir qui est dans le camp du bien. La morale fait donc souvent l'apologie de ce qui est déjà en place ;

    • Gauche comme droite se réclament de valeurs, ce qui invalide le raisonnement "la gauche se réclame dans le camp du bien, de la bien-pensance, etc.", car la droite le fait aussi. Quand il s'agit de faire accepter ses idées, tout le monde prêche le bien et l'intérêt général. Le partage des richesses par l'impôt, par exemple, peut être dénoncé comme étant immoral par la droite, car il entre en conflit avec les valeurs travail, mérite et justice (il est injuste de prendre son gain à quelqu'un qui a réussi à la sueur de son front). À l'inverse, la gauche lui confère les valeurs justice (une réussite est jamais individuelle, tu utilises des savoirs, des outils, des matières premières d'autrui, donc il faut redistribuer le gain) et vertu (l'accroissement des inégalités ne sont pas saines car ça attise le rejet de l'autre) ;

    • Du coup, vouloir changer des choses / de système, c'est être immoral, ce que la gauche a souvent été (remise en cause du roi divin, remise en cause de Dieu sur l'homosexualité, la pillule, etc.). La droite, moins (les années frics, par exemple). Il faut alors faire front à la morale dominante. Quand Badinter disserte devant l'Assemblée sur la fin de la peine de mort, il expose qu'elle va à l'encontre des idées de Jésus (qui peut juger un homme sinon Dieu ?) et de celles de la République ;

    • Mais, cela conduit un non-débat valeurs contre valeurs, morale contre morale. Il faut remplacer la morale par la raison, ne pas respecter aveuglément des valeurs. Les valeurs dispersent, la raison peut créer du consensus. La politique (organisation de la vie de la cité) doit rester neutre aux valeurs. Elle doit créer le cadre qui permet à plusieurs morales de co-exister, ne jamais dire quel mode de vie est le bon.

      • Je suis sceptique. Il me semble difficile d'avoir, en tout temps, un argumentaire basé sur la raison. On questionne notre environnement avec nos valeurs, il n'y a pas d'objectivité, donc il y a des choses qu'on ne voit pas / remet pas en question. On ne mesure pas tout (exemple : la fraude fiscale et la corruption), notamment, car les recherches portent sur les sujets jugés moraux par l'époque. Il n'est pas facile de démontrer, de manière univoque, la causalité "hausse des inégalités = explosion du groupe", par exemple, car cette explosion peut avoir plusieurs causes. Utiliser exclusivement la raison, c'est aussi se refuser de décider tant qu'on n'a pas connaissance de tous les éléments… ce qui revient à ne pas décider (une décision, c'est toujours dans l'incertitude). D'ailleurs, les arguments raisonnés de Badinter contre la peine de mort cités dans la vidéo sont difficilement démontrables : une personne est-elle intégralement coupable jusqu'au bout de ses ongles, la justice est-elle infaillible, la peur de la mort est-elle vraiment dissuasive ? Seul le deuxième point s'illustre avec des chiffres (nombre d'erreurs judiciaires). Il ne suffit pas de montrer qu'il reste des infractions pour démontrer le troisième point. Quand au premier, il s'agit d'un débat philosophique… ;
    • Pourtant, on continue à vouloir moraliser l'économie (2008), les politiciens (2017), d'enseigner la morale à l'école, etc. C'est une entourloupe. Cela consiste à individualiser afin de ne pas remettre en cause un système : l'école n'est pas en manque de moyens, le programme scolaire n'est pas en cause, la hausse des inégalités non plus, le contrôle social de l'école n'y est pour rien, non, le vrai problème, c'est le manque de morale des élèves (irrespect de l'autorité, irrespect de la valeur travail, etc.). Distiller de la morale évite de penser à un nouveau système. Pourtant, les politiciens, de droite comme de gauche (Méluche) continuer de parler de morale, de morale républicaine et de vertu (faire ce qui est bien pour autrui).
    Wed Apr 15 10:32:07 2020 - permalink -
    - https://www.youtube.com/watch?v=tm7LuDPS7OU
  • Usul. Développement personnel : pensez positif - YouTube

    Résumé : énième critique du développement personnel. Vrai besoin face au violent marché de l'emploi, à l'exclusion, à l'absence de sens dans ce que nous faisons, à l'impuissance générale, à l'individualisme rampant qui nous rend vulnérable. Le dév personnel nous invite à trouver la solution en nous, à prendre soin de nous, à survivre, à trouver le bonheur contre autrui, comme si notre vie dépendait seulement de nous (ce qui renforce le problème initial), à changer notre regard sur les choses, à nous auto-persuader que tout va bien, tout est bien. C'est une Injonction permanente au bonheur… qui nous rend plus vulnérables encore. Plus question de s'organiser collectivement pour être plus fort face à nos oppresseurs / problèmes. Plus question de changer ce qui ne va pas, mais d'accepter les choses comme si elles étaient immuables. Évidemment, comme dans tout domaine, les arnaqueurs en profitent pour vendre livres et coaching. À quoi bon travailler sur soi afin de se conformer aux attentes d'un monde qu'on sait être injuste et cynique ? Je pense que le dév perso draine des concepts sains, mais c'est vrai qu'on pourrait les retrouver en philo, psycho, etc., mais moins clé en main.



    Je note que la critique du développement personnel est d'actualité. Ici Usul au début de l'année 2019. Siné mensuel traite le sujet dans son édition de janvier 2020. J'en ai aussi lu ailleurs.

    • Le développement personnel répond à de vrais besoins. Nous sommes mis sous pression par un marché de l'emploi avec brimades et objectifs de moins en moins tenable dans lequel nous faisons des choses qui n'ont pas de sens à nos yeux. Il faut être performant. Nous pouvons être des exclus sociaux pour plein de raisons (handicap, pauvreté, origine, sexe, non-conformiste, etc.). L'individualisme, l'atomisation de la société fait qu'il n'y a plus de collectifs significatifs pour se construire une identité, pour fonctionner et pour trouver des solutions collectives afin de faire face aux problèmes dont la violence de l'emploi salarié, l'exclusion sociale, la catastrophe climatique, etc. On se sent impuissant / vulnérable face au monde. Tout cela peut créer une vulnérabilité psychologique ;

    • Alors on essaye de trouver la solution en nous, de faire ce que l'on peut pour soi, de prendre soin de soi. C'est une forme de survivalisme intellectuel, de résilience. On essaye de vouloir le bonheur malgré autrui et contre autrui. On essaye de gérer autrui. On essaye de se changer soi-même plutôt que de changer ce qui ne va pas dans le monde. Comme si notre vie dépendait de nous et pas également du bon vouloir d'autrui (collègues, patron, État, etc.). On accentue ainsi le repli sur soi, l'individualisme, et donc, le problème initial… Plus question de s'organiser collectivement pour être plus fort face à nos oppresseurs et/ou nos problèmes communs ;

    • Il faudrait tout voir positivement. Il faudrait s'auto-persuader que tout va bien, que c'est notre regard qui est défectueux. Une faiblesse en toi / difficulté ? C'est une opportunité. Il faut aller de l'avant. Il faut se lancer des défis. C'est une injonction permanente au bonheur. Cela va forcément amplifier ton mal-être puisque si tu ne parviens pas au bonheur malgré la formule magique d'un livre / coach, c'est que c'est toi le problème… Heureusement que nos ancêtres se sont battus pour des droits, qu'ils n'ont pas accepté (toutes) les injustices de leur époque, parce que sinon… ;

    • À quoi bon travailler sur soi afin de se conformer aux attentes d'un monde qu'on sait être injuste et cynique ? Ne faudrait-il pas se battre contre le monde plutôt que contre soi ?

    • Le système détruit des gens, mais c'est pour mieux leur proposer des solutions payantes : livres, coachs, psy, thérapies, etc. En 2018 et les années précédentes, 10 à 20 % des signalements annuels auprès de Miviludes concernent les coachs… On peut aussi voir ça sous un angle """"positif"""" : des gens finalement tout aussi paumés que les autres essayent très sincèrement de proposer des """"solutions"""" à leur niveau et se font payer pour cela ;

    • Pour avoir lu quelques livres de développement personnel, je veux nuancer : il y a aussi des choses intéressantes. Apprendre à se connaître soi-même / identifier les croyances qui nous limitent (elles ont une cause interne et externe, elles ne se corrigent pas d'un claquement de doigt contrairement à ce qu'écrivent les gourous, mais c'est déjà bien de les identifier). Apprendre à faire la différence entre les faits et l'interprétation d'autrui (une insulte, c'est une interprétation, par exemple). Apprendre à exprimer ses besoins et à ne pas gueuler sur les gens (que tu gueules ou non, ils ne feront pas ce que tu veux). Comprendre que leur propre importance est ce qui anime les gens et qu'il faut jouer sur ça pour les faire bouger. Certains livres posent même la question de ce qu'est une vie réussie à tes yeux (c'est vraiment un emploi, une maison, un gosse, etc.) ? C’est vrai aussi qu'on peut apprendre la majorité de ces choses dans d'autres matières bien établies (philosophie, psychologie, etc.), le dév personnel en offre un format clé en main.
    Tue Apr 14 22:38:05 2020 - permalink -
    - https://www.youtube.com/watch?v=6aWaC4HUJJ8
  • Marxisme : et si, finalement, vous étiez communiste? - YouTube

    Résumé : l'humain produit la richesse par son travail. Le capitalisme fait de l'humain une marchandise. L'humain produit plus de valeur que celle de sa rétribution. La différence, la plus-value, ne lui sera pas payée mais accaparée par l'acheteur de la force de travail, le capitaliste. Il y a donc accumulation de capital par une minorité de personnes. La manière d'exercer le travail (emploi) façonne les gens et les relations entre eux, donc la société. Cette structuration produit les idées dominantes : ce n'est pas la société qui forme le capitalisme, mais l'inverse. Cela signifie qu'un raisonnement au cas par cas, "bon ou mauvais patron", est hors sujet : même le bon patron est dans l'incapacité de redistribuer l'intégralité de la plus-value, sinon il n'y a plus de capitalisme. Le capitalisme produit exploitation, globalisation et impérialisme, même si le gentil patron ne le souhaite pas. Le capitalisme n'est pas un système stable : il est traversé par des crises régulières inhérentes à sa contradiction : pour augmenter les gains, il faut virer l'humain… qui produit la valeur. L'histoire est écrite par les peuples, il n'y a pas de grands hommes (rois, empereurs). Les idées sont produites par les conditions de vie (quantité de temps libre, pauvreté, infériorité, etc.). Les malheurs des humains trouvent leur origine dans les faits (économiques, historiques), pas dans l'abstrait et les représentations mentales. Le communisme, c'est produire les richesses utiles à la société sans artifices et sans exploitation, tout en restant un groupe. Cette production devient donc un projet commun.



    Le communisme fait peur depuis que des régimes autoritaires se sont réclamés de lui. On mélange la chute de ses régimes à celui du communisme.
    Alors on évite de prononcer son nom et celui de son premier théoricien. On ne sait même plus ce que communisme signifie.

    Principes de l'analyse marxiste :

    • La valeur d'un bien, c'est le temps de travail cumulé nécessaire à sa confection. C'est le travail, l'humain, qui produit la richesse. On peut produire sans capital en récupérant des matières premières naturelles. C'est le travail qui transforme des ressources en des biens / service ;

    • L'humain est une marchandise : il vend sa force de travail. Il a la particularité de produire plus de valeur que celle de sa rétribution pour survivre. La différence, la plus-value n'est pas payée au travailleur mais elle est accaparée par l'acheteur de la force de travail. Il y a donc accumulation du capital par une minorité plutôt que redistribution. Quand les travailleurs réclament de travailler moins ou une hausse de leur salaire, ils réclament leur dû et on ne leur donnera jamais la totalité de la plus-value, sinon il n'y a plus de capitalisme ;

    • L'économie est politique (organisation d'une société). Elle n'est pas isolée, avec ses règles qui seraient prétendument naturelles. Le travail et la manière de l'exercer (emploi) façonnent les gens et le lien entre eux, donc la société (somme des relations des individus). La circulation des idées ne suffit pas, la structure des rapports entre les individus est importante, car elle porte des pratiques qui, elles-même, forment des idées qui deviendront (ou non) celles dominantes. Changer les idées dominantes = changer la structure. Ce n'est pas la méchante Europe ou le méchant Macron qui saignent les hôpitaux, l'école, le salarié, etc., mais bien le capitalisme comme mode de production qui produit un type de société c'est-à-dire un type de relations entre individus (exemple simpliste : tu ne formes pas la même société quand tu considéres un humain comme une marchandise que quand tu le considères comme un égal) ;

    • Un raisonnement au cas par cas "bon ou mauvais" patron n'est pas le sujet. Même s'il ignore qu'il accapare la plus-value, même s'il traite bien ses salariés, il veut rentabiliser, faire du bénéfice, donc ses salariés doivent travailler plus, avec moins de coûts salariaux, etc. Il est en incapacité de redistribuer l'intégralité de la plus-value. D'où la globalisation (le dumping social réduit les coûts) et le pillage du monde (comme l'Afrique) pour des matières premières qu'on nomme impérialisme, qui est l'une des excroissances, le paroxysme du capitalisme. Le capitalisme produit ceci, que le patron gentil le veule ou non ;

    • Il n'y a pas de stabilité, pas de système stable. Tout bouge. En oubliant ce fait, les capitalistes sont aveugles aux crises régulières (surproduction qui entraîne crise financière, etc.) qui naissent de la contradiction du capitalisme : pour augmenter les gains du capitalisme, il faut virer l'humain… qui produit la valeur ;

    • L'histoire est populaire. Il n'y a pas de grands hommes (rois, empereur, etc.). Les peuples font l'histoire. Les actions changent le monde. Les idées ne mènent pas le monde, elles sont produites par les conditions humaines (de vie, de production). C'est le matérialisme historique de Marx. Exemple simpliste : tu ne développes pas les mêmes idées quand tu es rentier, donc que tu peux réfléchir à l'état du monde, que ton temps libre est accaparé et que t'es accablé par tes conditions de vie (pauvreté, infériorité, etc.). Les malheurs des humains trouvent donc leur origine dans des faits économiques (l'inégalité née de la relation différenciée patron / salarié au système production), dans l'histoire, etc. donc on peut procéder à une analyse scientifique. Il y a rien d'abstrait, aucune représentation mentale ;

    • Communisme ? Produire les richesses utiles à la société, sans artifices et sans exploitation de l'humain. Par exemple, dans la vision marxiste, le travail occupe une petite part d'une journée, le reste sera pour le développement personnel de l'individu et de la société (culture, arts, sciences, politique, etc.), c'est-à-dire vivre. Refus que l'individu soit traité séparément, comme quand les zadistes de NDDL refusent d'acheter individuellement les terres au motif qu'ils forment un groupe, un projet collectif / commun.

    Pour en savoir plus, Le Capital (œuvre de Marx / Engels) version manga est un bon point d'entrée. Mon avis et mes notes de lecture sont disponibles.

    Tue Apr 14 19:02:15 2020 - permalink -
    - https://www.youtube.com/watch?v=_CjabcYJvu8
  • Gauche/droite : revoyons les bases, par Usul - YouTube

    Résumé : gauche / droite = égalité / liberté ? La droite échoue pourtant sur la liberté (ordre, sécurité, exploitation, etc.) et réclame aussi égalité / solidarité / fraternité pour les bourgeois. La gauche échoue sur l'égalité (héritage, propriété et impôts timidement encadrées) et réclame aussi la liberté (émancipation, auto-organisation, etc.). Droite et gauche partagent des valeurs et un même fait amène une confrontation de valeurs opposées. Droite et gauche font éclater des tabous et défient les valeurs établies. Donc les valeurs ne sont pas le bon discriminant. Droite / gauche = pragmatisme / idéalisme ? La droite aussi est idéaliste (pas besoin de réguler, la liberté est absolue, etc.) et la gauche aussi est pragmatique (des déterminismes minent notre libre arbitre, réduire les inégalités afin de ne pas se taper dessus). En revanche, la droite pense qu'il y a des forces au-dessus de l'organisation des hommes (Dieu, le roi, le marché économique, l'ordre naturel, la tradition) et qu'il faut simplement adapter la société à ces puissances en limitant le champ d'action du politique (moins de règles) là où la gauche pense que tout doit être organisé par les hommes, que l'organisation va changer la vie des hommes et que la recherche en commun de nouvelles règles va produire une meilleure société.


    À droite, on n'aime pas trop partager, on préfère assumer tout simplement qu'on est radin. À gauche, on est tellement gentil, on voudrait tout partager, surtout l'argent des riches.

    Macron dit :

    La droite, c'est une famille politique française, pour laquelle le plus important, c'est la liberté. Et, la gauche, c'est une famille politique française qui a son histoire aussi, pour laquelle le plus important, c'est sans doute l'égalité. Que les gens aient les mêmes droits. À droite, c'est que les gens soient libres. Y'en a qui vont réussir, d'autre non. Tant pis. À gauche, c'est que les gens soient égaux, mais ils ne sont pas forcément libres.

    Gauche / droite, c'est un clivage égalité / liberté ? Vraiment ?

    La droite c'est la liberté ?! De qui ?! L'ordre (+ de prisons, réprimer les mouvements sociaux, + de flics) réclamé par la droite, c'est la liberté ?! Refuser des droits (avortement, pacse, etc.), c'est la liberté ?! L'exploitation qui née du salariat, c'est la liberté ?! Le flicage des chômeurs réclamé par la droite, c'est la liberté ?! La droite semble défendre la seule liberté du bourgeois de tout acheter et de faire bosser les autres et rien d'autre.

    À côté de ça, le socialisme, ce serait d'arriver à l'égalité totale en contraignant tout le monde (donc aboutir à une absence de liberté). Le stalinisme a été brutal. C'est bien une preuve, ça, non ? La gauche veut des normes, un principe de précaution, un code du travail, etc. Des trucs contraignants et chiants. N'est-ce pas une deuxième preuve ?

    C'est oublier que la liberté existe dans le socialisme : celle de mener sa vie, de s'auto-organiser, de s'émanciper (du patron, du sachant, etc.). Ce n'est pas dans la vidéo, mais, à l'inverse, le socialisme a aussi des velléités de surveiller et de réprimer (loi surveillance 2015, lois relative à l'État d'urgence 2015-2017, etc. Ce n'est pas dans la vidéo, mais la gauche se vautre sur l'égalité quand elle avalise les héritages, la propriété et les impôts en les encadrant maladroitement (sans redistribution juste), par exemple.

    Je rappelle (ce n'est pas dans la vidéo) que la droite en appelle aussi à la solidarité et à la fraternité pour mutualiser les pertes (liées au covid-19, à une crise financière, etc.) et les trucs coûteux (la protection sociale est arrivée en 1937 aux USA sous l'impulsion des riches qui voulaient réduire le coût du travail créant ainsi les charges salariales ponctionnées par l'État) . La droite en appelle aussi à l'égalité (de traitement, des chances, etc.) comme quand les mutuelles demandent une garantie de non-concurrence à l'État.

    Sans compter que, ce n'est pas dans la vidéo), de quel bord est une valeur ? La prétendue valeur travail est-elle de droite ou de gauche ? La droite veut s'en débarrasser par l'emploi (donc l'exploitation) et par la rente (capitaux, immobilier, etc.). La gauche veut aussi s'en débarrasser en le limitant la production au minimum nécessaire à la société, en limitant sa pénibilité, etc. et par la rente (artistique, mais pas que).



    (Tout ce bloc n'est pas dans la vidéo).

    La différence droite / gauche, ça ne peut pas être les valeurs. On vient de voir qu'une même valeur (liberté ou égalité) peut être brandie par la droite et par la gauche.

    De plus, un même fait, le partage des richesses par l'impôt, par exemple, peut être dénoncé comme étant immoral par la droite, car il entre en conflit avec les valeurs travail, mérite et justice (il est injuste de prendre son gain à quelqu'un qui a réussi à la sueur de son front). À l'inverse, la gauche y voit les valeurs justice (une réussite est jamais individuelle, tu utilises des savoirs, des outils, des matières premières d'autrui, donc il faut redistribuer le gain) et vertu (l'accroissement des inégalités ne sont pas saines car ça attise le rejet de l'autre). Sur un même sujet, des valeurs s'affrontent et on ne peut pas trancher : quelle valeur est la plus importante ? C'est un choix personnel.

    La différence, c'est peut-être que la gauche fait éclater des tabous, défie les valeurs existantes (avortement, fin de la peine de mort, mariage pour tous) alors que la droite prospère sur des valeurs établies (propriété, emploi, famille, patrie, etc.) ? Aux premières heures de la république, ce qui deviendra la droite luttait pour la restauration de la monarchie, par exemple.

    Je ne pense pas que ce soit le bon discriminant. La droite a aussi fait éclater des tabous : l'autonomie (dont le paroxysme est l'individualisme) contre la famille, la réussite décomplexée, le gain décomplexé en échange d'une (prétendue) responsabilité.



    (Tout ce bloc n'est pas dans la vidéo).

    Peut-être que la droite c'est le pragmatisme et la gauche l'idéalisme ? Non plus.

    La droite est aussi ses idéaliste : il n'y a pas besoin de réguler la vie en société, tout va fonctionner tout seul comme par magie ; la liberté est absolue (t'aime pas ton patron ? change-en, qu'est-ce que tu attends ?!).

    La gauche est aussi pragmatique : réduire les inégalités afin d'éviter de se taper dessus ; plein de déterminismes éco-sociaux-culturels minent notre libre arbitre.



    Alors, quelle est la différence fondamentale entre la droite et la gauche sur tout sujet ? Ce qu'est la politique, sa place, ses limites et le pouvoir du politicien.

    La gauche s'en fait la plus haute idée, celle selon laquelle l'organisation des hommes va changer leur vie, que si l'on se met à plusieurs pour se chercher de nouvelles règles, on peut faire une meilleure société, ou, au moins, une société plus adaptée aux besoins qu'elle voit émerger. Les besoins matériels, mais aussi humains, tel que l'égalité qui est conçue comme une demande sociale qui, si elle n'est pas contentée, risque de faire exploser tout le groupe (la montée de la misère entraîne un repli sur soi donc le rejet de l'autre, testée en 1929 et actuellement).

    La droite pense qu'il y a un ordre naturel des choses qu'il ne faut pas toucher sinon on va tout détraquer, nous autres, petites merdes. Il y a donc des forces au-dessus du politique : Dieu, le roi de droit divin, la tradition, l'ordre naturel ((cette parenthèse n'est pas dans la vidéo) la compétition est naturelle, il y a des gens intelligents et des cons / des faibles et des forts, la femme est génétiquement inférieure à l'homme, l'handicapé est un rébus condamné à la sélection natuelle, etc.), le marché économique, etc. Il faut seulement adapter la société à ces puissances supérieures en limitant le champ d'action politique (moins de règles, moins d'État pour les appliquer), afin que les forces (Dieu, le Marché) ne s'énervent pas. Mais, ce n'est pas dans la vidéo, ça n'empêche pas la droite d'aimer la loi et la régulation administrative quand ça sert les forces supérieures.



    ÉDIT DU 19/04/2020 À 16 H 35 : suite à la publication de ce shaarli, j'ai échangé avec Johndescs, et je me suis dis que y'a des éléments intéressants à rapporter en public. J'ai mis ça dans cet autre shaarli. FIN DE L'ÉDIT DU 19/04/2020.

    Tue Apr 14 17:00:53 2020 - permalink -
    - https://www.youtube.com/watch?v=sVJpvO-ywjE
  • Dix ans, quinze ans, etc.

    En juin / août, cela fera dix ans que ce domaine (guiguishow.info) et son blog existent (ce shaarli a 7 ans). Auparavant, j'avais d'autres sites web persos qui sont tombés dans l'oubli.

    Cela fait quinze ans que j'utilise GNU/Linux et du logiciel libre. Tout tremblant avec un LiveCD Kaella puis dual boot winwin / Fedora/Ubuntu/Debian afin de jouer aux jeux vidéos dernier cri puis bascule totale perso + taff et amour pour Debian stable, le tout parsemé de quelques contributions aux logiciels libres (rapports de bug, patchs, bouts de code mis sous licence libre, financement, etc.).

    Cela fait quinze ans que j'essaye d'expliquer, à nos élus et au plus grand nombre, les dangers de certaines législations autour d'Internet, mais pas que. DADVSI, ça ne nous rajeunit pas.

    Allez, dans quelques années, quelques autres dates symboliques passeront le compteur de la décennie. :)

    Mon Apr 13 16:14:21 2020 - permalink -
    - http://shaarli.guiguishow.info/?nkXlog
  • Contre la sonorisation des magasins

    Résumé : dégageons, par la loi, la sonorisation (rappels des promotions, radio / musique, etc.) des magasins ! Même quand on n'est pas sensible au bruit, une fois qu'on y a pris goût, il est difficile de revenir en arrière et de ne pas considérer la sonorisation comme une agression (cessons d'avoir peur des mots). Rêvassons dans les magasins ! Cessons de reprocher aux magasins qui n'agressent pas auditivement leurs clients d'être des appâts pour bobo-pigeons afin de les faire consommer plus, car c'est inexact au regard de l'histoire de la sonorisation de ces lieux et c'est de la rhétorique "tous les choix sont pourris donc autant rien changer". Cette interdiction permettrait l'accès aux magasins à des gens qui en sont exclus pour raison médicale.



    Depuis plus de six mois, je fréquente un magasin alimentaire dans lequel il n'y a pas de sonorisation (radio / musique, rappels des promotions, messages entre personnels ‒ « X pour la caisse Y, merci »). Depuis le même laps de temps, je fréquente également un marché couvert.

    C'est une évidence, mais il faut le dire, l'écrire, le répéter : que ça fait du bien ! Ne pas entendre les spots publicitaires hurleurs sur la dernière promotion du moment ni la musique, quelle tranquillité, quel plaisir (relatif, hein, c'pas non plus le plus grand orgasme de ma vie) ! Pourtant, je ne suis pas une personne sensible au bruit, je suis même quelqu'un de plutôt bruyant (ceux qui bossent dans le même bureau savent).

    Je vis la sonorisation des magasins de la grande distribution comme une agression. Je réfléchis, je compare des produits, ou je suis perdu dans mes pensées, et là, vlam, message avec un volume sonore plus important que le fond habituel. Ça gâche la réflexion, les rêves, etc. !

    Ceci dit, la grande distribution n'est pas la seule blâmable. L'animateur engagé pour l'anniversaire de l'inauguration du marché couvert, c'était bien pareil : il me gonflait sévèrement ! Le bruit de fond d'un marché couvert (ça résonne) est épuisant sur le long terme (pour les gens qui y travaillent toute la journée ‒ si, 6 h - 13 h, ça fait une journée ‒), mais n'est pas dérangeant le temps des courses. En revanche, une voix dont l'intensité sonore fluctue et dénote avec le reste, ça l'est. J'en conviens, ce combat-là, contre cet type d'animation ponctuelle, est voué à l'échec.

    En salle de pause, un collègue a émis l'idée que le silence dans les magasins bio ou dans les rayonnages « bien-être » de certains magasins de la grande distribution, c'est un tour de passe-passe pour te faire dépenser plus : on te choie, on fait mine de te respecter, etc. afin que t'achètes des produits vendus plus chers. Il dénonçait, en sus, une forme d'élitisme.

    J'étais mitigé sur le lien "absence de musique et de rappels audio de promos = dépenser plus". On rappelle que les spots pubs et la musique, c'est comme le rayonnage, les senteurs et l'éclairage, c'est travaillé par la grande distribution afin de faire consommer plus. Bien sûr, il y a une part de mensonge : quand un marketeux annonce à un client qu'il va tripler ses ventes s'il suit sa méthode magique, c'est faux, le client ne triplera pas, mais son chiffre d'affaires augmentera quand même. Pour revenir au sujet, mes maigres cours d'économie me rappelant qu'un effet volume rapporte parfois plus qu'une grande marge sur quelques ventes, il m'apparaît difficile de conclure quel profil de consommation a, au final, rapporté plus d'argent.

    Du coup, je ne valide pas l'aspect "agresser auditivement les clients = ne pas les agresser = hausse du chiffre d'affaires", car, en plus d'être contestable, ça produit un raisonnement de la forme "tous les choix sont pourris donc autant rien changer" alors qu'en pratique, mes oreilles et mon cerveau prennent plus de plaisir (relatif, bien entendu) dans un magasin dénué d'agression sonore.

    J'étais convaincu par l'aspect élitiste, mais je n'arrive pas à la même conclusion. Oui, je déplore qu'il faille, in fine, payer plus cher des produits afin de ne pas se faire agresser. Par défaut, personne devrait se faire agresser. Mais, pour revenir au point précédent, ce n'est pas en reprochant aux magasins qui n'agressent plus de ne pas agresser que cela adviendra.

    Si l'on vise une égalité totale, qui, de surcroît, ouvrirait la porte des magasins à des gens qui en sont aujourd'hui exclus, il y a deux solutions : soit distribuer de l'argent magique afin que tout le monde puisse consommer dans des petites structures respectueuses de l'humain, soit interdire l'agression sonore dans les magasins. Dans les deux cas, ça passe par une loi. Je sais que pour beaucoup, c'est un gros mot, mais c'est bien là qu'on définit une bonne partie des règles de la vie en commun.

    En ce qui me concerne : j'y suis très favorable.

    Mon Apr 13 15:50:01 2020 - permalink -
    - http://shaarli.guiguishow.info/?H42Xog
  • Procès Fillon et image de la femme dans notre société

    Quand j'ai lu les articles du Canard enchaîné (4 mars 2020) et de Marianne (article 1, article 2) à propos du procès du couple Fillon, un truc m'a marqué.

    Les réponses de Pénélope Fillon bouclent : « C'est mon mari qui décidait de […] », « c’était mon mari qui s’en occupait », « les détails administratifs, c'était mon mari », « pour les congés, il faut voir avec mon mari », « [ NDLR : les rapports écrits, ] je les ai donnés à mon mari, je ne sais pas ce qu'il en a fait ensuite ». Elle a écrit « des petits rapports », des « petites revues de presse », « de petits résumés ». Elle a voulu « minimiser [ NDLR : son implication auprès de la presse anglaise ] »… Elle a toujours voulu « se cacher », « rester au fond de la salle ». François Fillon déclare lui demander « d’être attentive à ce que les dossiers avancent. C’est très important. Cela ne nécessite pas une grande intelligence… ».

    Ce qui me frappe, c'est la mauvaise image que cette femme a d'elle-même et de son travail pourtant présenté comme stratégique par son mari et la défense du couple.

    Ce qui me marque, c'est l'image que cela donne à voir de la femme dans notre société. Une femme sans « grande intelligence » qui ne sait rien dont la vie est totalement organisée par son mari. La femme qui permet à son mari d'exister dans l'espace public, comme le décrit la blogueuse Emma (paragraphe sur la charge émotionnelle). Le plus réconfortant que j'ai lu, c'est la phrase suivante : « Penelope passait une grande partie de son temps à me rappeler ce que je n’avais pas fait et ce que j’avais laissé derrière ». Elle met en lumière une toute petite partie du travail social que les femmes assument en silence et gratuitement. Mais c'est bien insuffisant pour compenser sur la balance.

    Je ne suis pas naïf. Évidemment qu'il s'agit d'une stratégie de défense : faire porter le chapeau à François Fillon d'un maximum de choses et dédouaner madame afin de réduire sa peine. L'un des avocats du couple a même plaidé que le parquet a fait de Pénélope Fillon une « femme fictive ». Évidemment qu'il s'agit aussi d'une stratégie médiatique : François Fillon pourra ainsi se plaindre qu'il s'est fait abattre par des lâches qui ont utilisé sa femme plutôt que de l'attaquer droit dans les yeux. Il a déjà déclaré cela dans un discours joliment remis en forme par Khaled Freak.

    Mais, je pense qu'il n'y a pas que ça, je pense qu'il y a de la sincérité. On rappellera la présence des cathos intégristes de Sens commun, le mouvement né de la frange la plus dure de la Manif' pour tous dans la campagne de François Fillon.

    Cette représentation de l'image d'une femme m'attriste.

    Évidemment, si l'aspect fictif de l'emploi de Pénélope Fillon est confirmé par le tribunal, il faudra que les deux membres du couple Fillon soient condamnés (en proportion des responsabilités de chacun, etc.) et que l'intégralité des salaires de Pénélope Fillon dans le public (au moins 800 k€ et plus si l'on tient compte des disparités en fonction des périodes et si l'on compte les indemnités de licenciement) soit remboursée. Tout ce que j'ai écrit ci-dessus ne change pas cette évidence.

    Sun Apr 12 20:24:40 2020 - permalink -
    - http://shaarli.guiguishow.info/?OtKy5w
  • Généralisation de DoH : quelles conséquences pour un parc informatique professionnel ?

    Résumé : l'utilisation de DNS over HTTPS (DoH) se généralise et on lit beaucoup d'idioties. Je vais essayer de faire moins pire. Je déplore le "tout sur HTTP" dont il est l'énième illustration. Je déplore l'énième réponse technique qu'il tente d'apporter au problème social et politique qu'est la censure. Comme toute parade à la censure, DoH va la pousser plus loin (par IP, par nom en clair dans une connexion chiffré dit SNI), ce qui peut renforcer la centralisation des contenus chez quelques acteurs économiques. DoH s'occupe uniquement de la résolution des noms, donc la vie privée continuera à fuiter, notamment dans les adresses IP de destination et les connexions chiffrées (SNI ; encrypted-SNI est très expérimental), y compris dans la connexion au service DoH (le SNI y apparaît), donc, comme avec toute protection, ne te sens pas excessivement protégé. Par leur nature même, et comme tout service DNS externe, les services DoH publics cassent les vues DNS / split DNS / domaines privés / racines alternatives / TLD alternatifs. Pour un gestionnaire de parc informatique, DoH fait perdre le bénéfice d'une configuration centralisée au niveau du système d'exploitation de la résolution des noms et demande plus (+) de boulot : se tenir informer sur l'usage de DoH par les applications du parc, apprendre à diagnostiquer un service DoH (des outils sont disponibles, mais pas encore empaquetés dans Debian) ; désactiver ou configurer DoH dans chaque logiciel qui l'utilise afin que que la vie privée des utilisateurs ne fuite pas vers un service DoH externe (Mozilla propose CloudFlare par défaut) et afin de rétablir le fonctionnement des vues DNS si besoin ; baisser le TTL lors de migrations (et se préparer à une migration forcée imprévue car DoH = double lame).



    DoH, c'est DNS over HTTPS. Pour ceux et celles qui veulent approfondir koikeC : version texte et version vidéo.

    Fin février, Mozilla a annoncé qu'après une période de test, elle active DoH par défaut dans Firefox pour les utilisateurs localisés aux États-Unis Source. L'activation par défaut va viendre pour la France. Pas d'annonce des concurrents, mais ils suivront, car le segment marketing « protection de la vie privée » est juteux.

    Depuis l'annonce de Mozilla, je vois des imbéciles recommander d'activer DoH partout sans prise de recul (le mimétisme de l'humain me désole). Mes arguments contre une généralisation à outrance de DoH sont les suivants :

    • Le "tout sur HTTP" est dangereux pour la liberté de création / d'entreprise. On a eu l'échange de fichiers sur HTTP, puis le mail sur HTTP (webmail), puis la discussion instantanée sur HTTP (FB Messager ou Mattermost ou…) puis… Cela rend plus compliqué le développement de nouveaux protocoles réseaux (genre SCTP), car, puisque tout est sur HTTP, nombre de Fournisseurs d'Accès à Internet et d'administrateurs systèmes et réseaux font de la merde en bloquant / altérant le fonctionnement des autres protocoles ;

      • Si l'on veut prétendument protéger sa vie privée (DoH n'y suffit pas, non) avec du DNS prétendument sécurisé, on utilise DoT (DNS over TLS, du DNS chiffré) au lieu de DoH. Cela présente les mêmes avantages et inconvénients que DoH sauf que DoT sera bloqué sur les réseaux malpropres.
    • D'une manière générale (hors DoH), je n'aime pas donner une réponse technique à un problème politique. À ce sujet, je recommande vivement la lecture du livre Pour tout résoudre, cliquez ici. L'aberration du solutionnisme technologique (mes notes). La censure sur Internet est l'un des signes qu'une société humaine va mal. Cela dépasse Internet. Si tu ne peux pas avoir confiance en ton fournisseur d'accès à Internet (FAI), il y a un gros problème. Si tu ne peux pas avoir confiance en ton employeur (pour la connexion à Internet de ton taff), il y a un gros problème. Si tu ne peux pas avoir confiance en ton État, il y a un gros problème. Je préfère d'autres solutions que DoH : augmenter le nombre de FAI de confiance, augmenter la force du prolo face aux patrons (syndicats et/ou coopératives et/ou salaire à vie, etc.), et interdire la censure dans la loi. En gros, je préfère des solutions actives, où l'on se bouge pour nos convictions. Oui, cette réaction est celle d'un bobo eurocentré, mais j'affirme que DoH ne va pas changer la vie des Chinois ou des citoyens des pays en « -stan » : ils ont un problème démocratique plus large que la censure sur Internet. Mais peut-être que DoH n'est pas conçu pour répondre à ce besoin de démocratie et que j'exagère ? On peut aussi voir DoH comme une possibilité, une garantie effective contre la censure, mais alors il ne faut pas le généraliser, mais savoir qu'elle existe et l'utiliser avec parcimonie ;

    • DoH (comme DoT), au motif de lutter contre la censure, va la repousser plus loin, notamment vers de la censure par adresse IP (des services DoH et/ou des contenus). Rien de neuf ni de spécifique à DoH : toute technique de protection de la vie privée / liberté / sécurité déclenche l'apparition de sa parade et l'on retombe sur le vieux débat "bombe nucléaire" (fallait-il l'inventer ou l'interdire ?). Le seul moyen facilement utilisable par le commun des mortels pour contrer une censure par IP est de publier plusieurs contenus derrière une même adresse IP afin que le coût de la censure soit trop élevé : si pour flinguer un serveur DoH, il faut aussi censurer 385 autres services, par exemple, la censure n'aura pas lieu. Le nombre d'acteurs économiques capables de proposer / vendre ce type de service est faible. Cela va donc centraliser encore plus la publication des contenus Internet entre les mains de quelques multinationales. En tout cas, certains y pensent (lire ESNI ci-dessous). Faut-il vraiment aller sur ce terrain ? Si la censure se renforce, il n'y aura pas beaucoup d'humains capables de la contourner, et ça me pose un problème. ÉDIT DU 10/08/2020 À 16 H 55 : la censure poussée plus loin n'est plus uniquement une hypothèse de pensée : Premières observations publiques d'une censure basée sur TLS Encrypted SNI.FIN DE L'ÉDIT DU 10/08/2020 ;

    • Lors de l'établissement d'une connexion chiffrée, le client (navigateur web, gestionnaire d'emails, etc.) indique, en clair, sans chiffrement, le domaine avec lequel il veut discuter. C'est le champ « Server Name Indication » dans TLS. Cela permet d'avoir plusieurs contenus hébergés derrière une même adresse IP accessibles de manière chiffrée, car le client indique à qui il veut parler, donc le serveur peut répondre en présentant le « bon » certificat x509, celui de la ressource demandée. Il est parfaitement possible de censurer des connexions en se basant sur le champ SNI (exemple avec Netfilter, le pare-feu de Linux). DoH peut rien contre ça.
      • Encrypted SNI (ESNI) résout ce problème, mais, même s'il est déjà présent dans Firefox, il est en cours de normalisation, donc sujet à des modifications majeures impromptues (le formalisme retenu a rien à voir entre la première version du brouillon et l'actuelle), et il fonctionne uniquement pour les très rares sites web qui l'ont mis en place à des fins de test (et vu le nombre d'acteurs qui utilisent encore la version 1.0 de TLS, sa généralisation va prendre du temps ‒ ESNI requiert la version 1.3 de TLS ‒). En attendant, utiliser DoH est, au mieux, un joli jouet inutile pour geek, au pire dangereux s'il est utilisé avec trop d'assurance dans un contexte risqué (lanceur d'alerte, dictature, etc.). Rien de spécifique à DoH, toute technique de protection a ses limites, mais ce n'est pas rappelé dans les écrits qui préconisent d'activer DoH fissa en promettant une protection magique de la vie privée ;

      • Même si l'on active ESNI dans Mozilla Firefox, que l'on valide sa bonne activation avec le testeur de CloudFlare, que l'on configure la paramètre « network.trr.bootstrapAddress » de Firefox, le nom du service DoH utilisé fuite toujours dans le SNI de la connexion TLS au service DoH. C'est normal puisque ESNI repose (actuellement) sur le DNS. On a un problème de poule et d'œuf : il faut aller chercher, dans le DNS, la tambouille pour remplir le contenu du champ ESNI, oui, mais il faut ESNI pour consulter le DNS. Dans certains cas (dictacture), ce SNI peut suffire à te faire vivre un mauvais quart d'heure, au même titre qu'utiliser TOR, même pour consulter un site web officiel des autorités du pays, est considéré comme un acte dissident. Prudence, donc ;

      • Plus haut, j'écris sur le risque de centraliser les contenus chez peu d'acteurs. À la fin de l'introduction du document de travail d'ESNI, on lit « The design in this document takes a different approach: it assumes that private origins will co-locate with or hide behind a provider (CDN, app server, etc.) which is able to activate encrypted SNI, by encrypting the entire ClientHello (ECHO), for all of the domains it hosts. As a result, the use of ECHO to protect the SNI does not indicate that the client is attempting to reach a private origin, but only that it is going to a particular service provider, which the observer could already tell from the IP address. ». Pas de parano, ESNI pourra être utilisé de manière décentralisée avec DoT / DoH, mais cette introduction indique quand même la cible, le monde envisagé, ce qui n'est pas anodin.



    Mon avis n'a pas d'importance, DoH existe, il sera utilisé, donc le gestionnaire d'un parc informatique doit s'y adapter (il faut gérer la merde générée et imposée par autrui, comme d'hab). Qu'est-ce que DoH change, qu'est-ce qu'on en retient, qu'est-ce qu'il faut adapter ? Je me base sur ce que je connais, c'est-à-dire un parc informatique français de plusieurs centaines de machines sans modèle de menace spécifique géré par quelques clampins en sous-effectif.

    Un logiciel comme un navigateur web avec DoH activé n'utilise plus le service DNS configuré sur le système d'exploitation que ce soit manuellement (/etc/resolv.conf) ou en utilisant DHCP. Ce qui signifie que l'on pourra constater une différence de comportement entre un logiciel, un navigateur web, d'une part et un autre logiciel d'autre part, notamment les outils de diagnostic (ping, dig, host, nslookup). L'un pourra dire "ce nom n'existe pas" pendant que l'autre dira "chez moi, ça marche".

    • Solutions : le savoir et être vigilant, s'équiper d'outils de diagnostic DoH (qui ne sont pas encore empaquetés dans les systèmes) afin de compléter dig/host/nslookup, utiliser DoH dans les outils de diag (curl --doh-url, par exemple), etc.

    Une conséquence du point précédent (utilisation, par défaut, d'un service DNS différent de celui voulu par le gestionnaire du parc) est qu'avec DoH, sur une infrastructure qui mélange serveur DNS qui fait autorité et serveur DNS récursif, la mise en cache des noms DNS se fera désormais côté service DoH, et non plus du côté du service DNS interne au parc. Les utilisateurs dépendent de cette mise en cache. La préconisation évidente est d'abaisser le délai de mise en cache avant une migration. Chez nous, je le préconise depuis deux ans, mais nous le faisons peu à l'heure actuelle. Il faudra s'y mettre. En soi, rien de neuf, nous sommes déjà censés travailler ainsi car, sinon, lors d'une migration, on perd d'or-et-déjà les utilisateurs qui ne sont pas connectés à notre réseau c'est-à-dire ceux qui utilisent d'autres services DNS et les machines qui ont un cache local + renvoi vers nos récursifs DNS (Ubuntu a dnsmasq / systemd par défaut, par exemple). DoH augmentera le nombre d'utilisateurs impactés.

    • Inutile de désactiver DoH pour contrer cela : travailler selon les règles de l'art (migrations planifiées, abaissement du TTL, etc.) suffit, sauf en cas de migration forcée imprévue (gros incident, etc.).

    Certaines organisations fonctionnent avec des vues DNS (aussi nommées « split DNS ») : quand on est connecté au réseau interne, un nom se résout différemment de quand on est à l'extérieur. Comme il est peu probable que l'organisation ait envie d'installer un récursif DoH interne dans l'immédiat (ça apporte rien aux employés puisqu'ils doivent à nouveau faire confiance à leur employeur), cela signifie qu'avec DoH, ce mécanisme de vue DNS ne fonctionnera plus. Là encore, rien de spécifique à DoH : tout service DNS externe a le même comportement.

    • Plutôt que de désactiver DoH, on peut renoncer aux vues DNS (elles sont une mauvaise idée) ou regarder si l'application permet de ne pas utiliser DoH pour certains domaines. Mozilla Firefox permet cela avec son paramètre « network.trr.excluded-domains ». Évidemment, ce n'est pas pratique si l'on a un domaine par client, par exemple (la liste devient alors fluctuante donc difficilement maintenable). En revanche, si l'on installe un service DoH interne et si les noms internes se résolvent en adresses IP privées, il faudra changer la valeur de « network.trr.allow-rfc1918 » pour « true »).

    • On notera que tout ce qui est racine DNS alternative (exemple : OpenNIC) ou TLD alternatif (exemple : .42) ne fonctionnera plus si le service DoH utilisé ne les reconnaît pas comme légitimes. Même chose, évidemment, pour tout domaine non publié pour lequel le récursif DNS du parc a été configuré en mode « forward » (exemple : ceux du RIE, Réseau Interministériel de l’État ‒ fiche technique ici ‒).

    • On notera, qu'à l'heure actuelle, le paramétrage par défaut mis en place par Mozilla n'est pas violent : si la résolution DoH échoue, une résolution en utilisant le service DNS configuré sur le système sera effectuée. Cela permet la continuité de fonctionnement des vues DNS, sauf celles dans lesquelles un même nom est associé à une adresse IP (ou autre info) interne et une externe (car alors, la réponse DoH sera reconnue comme valide / légitime, ce qu'elle est, d'un point de vue technique). On notera que cette reprise sur panne (fallback) balance des noms censés rester privés au service DoH utilisé. Notons que cette reprise sur panne va donner l'illusion que tout fonctionne comme avant, que DoH a rien changé, et tout tombera en panne quand Mozilla (ou un autre éditeur) décidera de ne plus fallback.

    À l'heure actuelle, il existe peu de services DoH (publics comme privés / internes). Par défaut, Mozilla Firefox utilise CloudFlare DNS. Cela pose un problème de respect de la vie privée et de concentration des activités numériques sur un petit nombre d'acteurs économiques, d'absence d'un contrat et de garantie de fonctionnement, d'ajout d'une dépendance externe, etc. Plutôt que de désactiver DoH, on peut aussi chercher des services DoH éthiques de confiance (mais la question d'absence de contrat et de garantie de fonctionnement revient) ou installer le sien (à plusieurs, sinon ça a aucun intérêt puisque ça revient à faire confiance au service DNS local) . Dans les trois cas, il faut configurer chaque application qui utilise DoH.

    Ce qui ressort des points qui précèdent, c'est qu'avec des applications qui utilisent DoH par défaut, le gestionnaire d'un parc informatique perd la maîtrise de son infrastructure : les requêtes DNS ne passent plus par son service DNS interne. Sur ce point, Stéphane Bortzmeyer se trompe. Afin d'illustrer que DoH change rien, il évoque les logiciels qui effectuent déjà, sans DoH, des résolutions DNS sans utiliser le paramétrage du système, c'est-à-dire les logiciels malveillants et les logiciels merdiques, en gros. Or, DoH va concerner les usages légitimes et les rendre plus compliqués à diagnostiquer. On passe de "l'exception était pénible à diagnostiquer" à "le commun, notre taff quotidien, devient pénible à diagnostiquer".

    • S'il veut reprendre la maîtrise, le gestionnaire de parc ne doit plus se contenter de configurer un serveur DHCP (et Radvd / DHCPv6), mais aussi chaque application utilisant DoH (Mozilla Firefox, mais aussi l'application bidule, mais aussi l'application truc), alors que nous avons plein d'applications que nous ne configurons pas (ce qui nous rend vulnérable au changement de la conf' par défaut, éternel débat entre implicite et explicite…). On perd en factorisation et l'on gagne en complexité de gestion du parc (se tenir informer du comportement de chaque logiciel, plus (+) de GPO / code dans notre outil de gestion des configurations, etc.). Au fond, rien de neuf, c'est une sorte de prolongement, au niveau logiciel, de la pratique BYOD aux machines gérées (et ça pose les mêmes questions : on autorise ou non ? quelques limites fixe-t-on ?).



    Au final, faut-il désactiver DoH sur un parc informatique ? Je n'en suis pas convaincu, sauf à avoir une démarche militante « le tout sur HTTP est merdique » (ce qui va être mon cas à titre perso + continuer à utiliser DoT). Ça dépend du parc.

    • Dans le mien, les utilisateurs utilisent beaucoup nos services depuis l'extérieur (avec ou sans VPN, en fonction de la publicité d'une ressource), sur des machines que nous ne gérons pas. En conséquence, nous devons déjà faire ce qu'il faut pour que des services DNS externes, y compris ceux des FAI français, fonctionnent (abaisser le TTL lors d'une migration, par exemple).

    • Sur les machines que nous gérons :
      • Désactiver DoH dans chaque application qui en fait usage ou configurer DoH (choisir un autre service DoH, permettre l'usage des vues, etc.), ça revient environ au même : il faut faire une manip' de configuration dans les deux cas. Désactiver DoH apporte en sus la certitude de ne pas avoir oublié un paramètre et de ne pas avoir à y revenir ;

      • Faut-il apprendre à diagnostiquer l'intermédiaire supplémentaire que constitue un service DoH ou désactiver DoH et donc avoir un comportement différent entre une utilisation interne et externe de nos services ? Ça dépend du nombre de services accessibles depuis l'extérieur et la fréquence de leur utilisation ;

      • En fonction des architectures, on peut très bien ne pas utiliser DoH pour le domaine DNS de l'organisation, comme ça le gestionnaire du parc s'évite du boulot, tout en laissant un service DoH externe activé pour le reste (activités pros et persos des employés), ce qui tend à préserver la vie privée (au sens large) de l'employé (mais uniquement à destination de services mutualisés sinon flicage par adresse IP destination, donc le gain est très relatif). mais on dépend alors d'un énième prestataire extérieur avec lequel on n'a pas signé de contrat…
    Sun Apr 12 18:00:54 2020 - permalink -
    - http://shaarli.guiguishow.info/?ce9G8Q
  • Faut-il généraliser l'usage du moteur de recherche Qwant dans l'administration française sous l'impulsion de la direction interministérielle du numérique ?

    Résumé : non, il ne faut pas généraliser le moteur de recherche Qwant. Il est immature techniquement. Les résultats retournés n'ont pas la pertinence de ceux de Google, donc le généraliser maintenant va dégoûter les citoyens lambda des alternatives à Google. Qwant sous-traite à Microsoft, ce qui n'est pas grave pour débuter (il faut faire un peu de mousse pour obtenir la thune et attirer les compétences), mais Qwant n'est pas transparent sur la proportion que représente la sous-traitance, quitte à caviarder les résultats de son moteur de recherche et à mettre la pression sur des journalistes afin de servir son propos, ce qui fait douter de la confiance qu'on peut lui accorder. Qwant moucharde un bout de la vie privée de ses utilisateurs à Microsoft (compte-tenu de l'architecture technique des administrations, il s'agit d'un morceau conséquent). Je passe mon tour sur le management brutal, car il y en a aussi dans tout un tas de structures, mêmes associatives / alternatives. Même s'il devenait un énorme succès, Qwant n'est pas LA solution : on ne remplace pas un géant par un autre et la liberté d'accès à l'information ne peut pas être garanti par un seul acteur. Plutôt que de généraliser Qwant, il faut apprendre à tout citoyen à chercher indépendamment de tout moteur, à se construire une toile d'informateurs et financer le développement d'un moteur de recherche alternatif qui serait libre et décentralisé (nos tentatives ont échoué). On peut aussi généraliser Qwant auprès de gens connaisseurs, consentants et motivés, car cela contribuera à l'améliorer. La crédibilité de la direction interministérielle du numérique est remise en question, sauf si l'on part bille en tête qu'elle a été mandatée afin de permettre à Qwant d'obtenir une masse critique d'utilisateurs afin que l'engagement (blabla et thune) de l'État puisse être tenu.



    En mars 2020, la direction interministérielle du numérique (DINUM, ex-DINSIC), un bidule rattaché au premier sinistre, a rendu publique sa note demandant l'utilisation par défaut du moteur de recherche Qwant sur tous les terminaux fournis aux agents des ministères. Si jamais elle disparaît, la machine à remonter le temps du web en a une copie.

    Ne sachant pas si nous sommes concernés, notre directeur des systèmes d'information nous a demandé notre avis ("faut-il généraliser Qwant chez nos agents ?"). Je ne suis pas naïf : quand un chef demande l'avis de ses sous-fifres, c'est que le sujet ne comporte pas d'enjeux. C'est l'une des constantes de l'univers. Quand il y a des enjeux, aucun chef demande l'avis des grouillots ou sinon, il n'en tient pas compte. Comme les consultations publiques (consultation sur la loi pour une République numérique, consultations ARCEP, consultation sur l'épandage de pesticides, consultations CNIL, etc.). Mais le sous-fifre / citoyen a pu s'exprimer, alors il en est reconnaissant au grand chef à plumes. Après tout, rien est plus important pour quelqu'un que sa propre importance. La servitude est volontaire.

    Ci-dessous, l'avis que j'ai émis comme un gentil toutou, expurgé des bouts qui ont rien à faire en public (« je suis d'accord avec X », « pour le projet Y, on pourrait utiliser Z », etc.). J'y ai aussi ajouté un peu de pédagogie et de mise en scène.



    La note contient un mensonge : en mars 2020, Qwant n'a pas vraiment d'indexeur. Ce ne sont pas des machines de Qwant qui parcourent le web, analysent les pages, les ordonnent et en restituent une synthèse sous forme de pages de résultats. Enfin, pas tout. La majorité est déléguée à Microsoft et à d'autres sociétés commerciales. Sources :

    • Mon utilisation courante de Qwant depuis 1 an et demi montre des pages de résultats strictement identiques à celles de Bing, le moteur de recherche de Microsoft, dans une proportion qui dépasse le hasard ;

    • Dans le journal de mon site web, je vois les articles demandés par les robots de Qwant (en me basant sur le User-agent et en vérifiant que l'IP est bien l'une de celles attribuées à Qwant afin d'esquiver les faussaires). J'en prends "au hasard" (sans démarche particulière, donc ça reste du hasard humain, donc du hasard factice). J'exclus les pages trop génériques (mon avis sur plusieurs films, article qui traite de plusieurs sujets, etc.) afin que mes essais soient plus favorables à Qwant. Je lance une recherche dans Qwant avec « site:shaarli.guiguishow.info + un ou plusieurs mots clés du titre et/ou du contenu de l'article ». Je ne vois pas l'article dans les résultats, sauf deux fois. Je lance la même recherche sur Bing : hooo les mêmes résultats que ceux de Qwant (absence ou présence de mon article). J'effectue la même démarche pour Google Search : les articles demandés à mon serveur web apparaissent bien dans les résultats de mes recherches. J'ai fait 15 essais par moteur de recherche. 5 avec des articles demandés par Qwant / Google depuis le 1er avril ; 5 avec des articles demandés en mars, 5 avec des articles demandés en janvier. Qwant m'a sorti deux résultats attendus (sur 15)… mais Bing présentait les mêmes résultats… Google Search a échoué 0 fois. Démonstration semble être faite que le parcours du web effectué par Qwant n'est pas utilisé à ce jour pour produire les résultats ;

    • La communauté l'a démontré. Dernier exemple en date à ma connaissance ;

    • La presse (d'autres journaux ont écrit à ce sujet, mais je les utilise ci-dessous pour illustrer d'autres points).

    Pour moi, l'utilisation de Bing par Qwant n'est pas censée être gênante, car le simple fait que Qwant soit un intermédiaire entre Microsoft et les utilisateurs protège la vie privée de ces derniers. En théorie. Au moment de publier ce shaarli (donc après avoir écrit la phrase précédente à mes collègues en étant plus affirmatif encore), je me rends compte que je me suis trompé : Qwant communique à Microsoft une partie significative de l'adresse IP de l'utilisateur ainsi que la marque et le modèle de son navigateur web (« User-agent »).

    Quand on réfléchit à une généralisation à l'administration française, on se souvient que, souvent, chaque agent dispose d'une adresse IP publique. Donc, Microsoft est en mesure de lier une recherche à une administration. Si une recherche vient d'une IP « 193.50.161.XXX », alors l'agent travaille au ministère de l'éducation nationale. Si elle vient de « 130.79.0.XXX », l'agent travaille dans l'enseignement supérieur et la recherche à Strasbourg. Si elle vient de « 193.17.19.XXX », l'agent travaille au ministère de l'économie. Tout cela est public. On est donc pas dans le même cas qu'une adresse IP de téléphonie mobile ou à celles du réseau d'un fournisseur d'accès à Internet qui sont associables à des centaines / milliers d'abonnés.

    Je savais qu'un mouchardage était techniquement possible, mais pas que Qwant le faisait sous couvert de respecter ma vie privée (c'est dans le slogan)… Comment puis-je avoir confiance après ça ? Comment être sûr que Qwant ne brade pas ma vie privée ? Comme d'habitude avec les services numériques en ligne, je ne peux pas, et Qwant en a un peu profité. Pourquoi « un peu » ? Je ne reconnais pas la légitimité des bonnes excuses techniques dégainées par Qwant, "lutte contre la fraude aux pubs + il faut connaître le matériel de l'utilisateur afin d'augmenter la pertinence des réponses et d'afficher la pub comme il faut" (+ celle que Qwant ne donne pas : il faut géolocaliser afin d'augmenter la pertinence des réponses), mais je reconnais aussi que si l'on veut obtenir la même expérience utilisateur que Google, il faut en partie en passer par là (sauf l'aspect pub) ou accepter que l'utilisateur moyen n'adoptera pas Qwant.

    Produire un moteur de recherche nécessite de la thune donc de la visibilité, des gens compétents qu'il faut attirer, du travail. Se reposer sur Microsoft Bing dans un premier temps permet d'acquérir tout cela, de commencer à construire une alternative en bricolant des trucs pour exciter les financiers et les décideurs. Ce n'est pas déconnant. C'est du même tonneau que Free qui utilise le réseau GSM d'Orange afin de se lancer sur le marché de la téléphonie mobile ou les fournisseurs d'accès à Internet associatifs qui utilisent l'infrastructure de FDN, le plus ancien d'entre eux (et les bas prix de l'opérateur Internet Cogent), pour se lancer. Je voudrais bien qu'on fasse autrement (financement participatif, bidouilles dans un garage, etc.) mais, avant Qwant, environ rien avait émergé (j'y reviens plus bas). Si ma vie privée ne fuitait pas (voir ci-dessus), Qwant m'irait bien, y compris ses imperfections et ses gros ratés récents.

    En revanche, je trouve inadmissible la dénégation récurrente de Qwant dans la presse et auprès du public, et surtout, le caviardage des résultats de recherche afin de masquer leur utilisation massive de Bing. Exemple toujours valable fin 2019 : dans les résultats de la recherche avec le mot clé « whatsmyip », les x.x.x.x dans les résultats sont ajoutés par Qwant afin de masquer l'adresse IP de l'indexeur de Bing, démontrant ainsi que c'est bien ce dernier qui a indexé la page affichée par Qwant. Si Qwant me ment sur ça, comment puis-je avoir confiance ? Comment m'assurer que Qwant ne porte pas atteinte à ma liberté d'accès à l'information en bricolant les pages de résultats ?

    Du coup, la crédibilité de l'audit interministériel, et donc de la DINUM, en prend un coup quand elle écrit « Cédric O a annoncé que l’Etat privilégierait [… les] moteurs de recherche qui respectent […] la vie privée. Parmi ceux-ci il semble pertinent de configurer […] un moteur […] disposant également de son propre indexeur. Qwant réunit, à ce jour, l’ensemble de ces qualités, dont les aspects techniques ont été vérifiés par un audit interministériel ». Mais l'État a blablaté sur la souveraineté numérique (qui est importante) et la Caisse des Dépôts et Consignations a investi dans Qwant, donc l'État ne peut probablement pas échouer à nouveau, comme sur le cloud souverain, ce qui peut expliquer la marche en avant de la DINUM.

    Cela me rappelle que, de prétendus messieurs sérieux encravatés en haut lieu qui me disent que tout est OK, je m'en fiche, je veux pouvoir vérifier par moi-même. Un peu comme la loi Cazeneuve anti-terrorisme de 2014 qui laisse une personnalité désignée par la CNIL vérifier la légitimité des blocages demandés par la police (article 6-1 de la LCEN). Toute vérification / certification / labellisation qui repose sur une seule personne / entité est insuffisante. Cet audit gouvernemental de Qwant en est un très bon exemple.



    Ceci étant dit, faut-il généraliser Qwant au sein de l'administration française ? J'y suis défavorable. Même pas à cause des éléments sus-cités. Ça fait plus d'un an et demi que j'utilise en même temps les moteurs de recherche StartPage, DuckDuckGo, Qwant et Searx. Qwant est l'un de ceux qui me fournissent les résultats les moins pertinents toutes thématiques confondues. Si je connais le sujet de ma recherche et qu'il est franco-français, ça va encore. Mais si je ne connais pas le sujet, Qwant me trouve rien de pertinent. Il n'y a même pas la découverte de résultats surprenants / points de vue différents qui est la conséquence de sortir de la bulle Google Search (Google te traque / profile / analyse tellement, qu'il t'affiche des résultats conformes à ce que tu penses, sans essayer de t'ouvrir l'esprit). L'intérêt pratique d'utiliser Qwant est nul.

    Qwant me semble être inutilisable par M. ToutLeMonde. Forcer l'usage de Qwant à l'heure actuelle est le meilleur moyen de dégoûter les gens des alternatives à Google Search. Je pense que Qwant est encore dans un stade où il faut le faire utiliser par une masse croissante de gens conscients, volontaires qui ont un peu de temps à "perdre" à chaque recherche. Cela permettra à Qwant de s'améliorer (il faut forcément du public pour ce faire) avant une éventuelle généralisation.

    D'un autre côté, l'Assemblée nationale, France Télévisions, le ministère des armées et d'autres utilisent Qwant depuis 2018, donc peut-être que c'est moi qui ne sais pas utiliser Qwant…



    Je suis mitigé quant à la nécessité qui semble être faite de descendre en flammes Qwant à propos du management brutal qui y règne, des antécédents et de la personnalité de son chef, etc. C'est la réalité, d'après, au moins, Next Inpact, Mediapart et le Canard enchaîné (article Concurrencer Google ? Qwant ça veut pas… publié le 7 août 2019), et c'est moche. Mais. On fait tous de la merde et il y a des cons partout (quel que soit le sens et la gravité que l'on donne à ce mot). Dans nos emplois, dans nos familles, dans nos amis, dans les associations, à titre personnel, etc. Pourtant, on ne quitte pas tous ces milieux-là. Du coup, discriminer Qwant sur ça, ouais, boarf, non ?

    Google maltraite aussi ses employés, notamment les précaires sous-payés qui écoutent les utilisateurs de Google Assistant / Home afin d'améliorer la compréhension vocale de Google Home ou ceux qui améliorent la compréhension sémantique des requêtes adressées à Google Search. Non, la "magie" de Google (ou Amazon ou Facebook ou Twitter ou…) ce n'est pas de l'intelligence artificielle, mais bien de l'humain maltraité (sources : plein de journaux + série documentaire Les travailleurs du clic + livre En attendant les robots et les travaux d'Antonio Casilli d'une manière générale).

    Pour un domaine donné (fournisseur d'énergie, fournisseur Internet, bouffe bio, semences libres, logiciel libre, etc.), aucune alternative ni aucune personne correspond à l'intégralité des valeurs d'une personne (démocratie, pas de blabla mais se sortir les doigts, respect de l'humain, indépendance, intelligence, etc.). Si tu restes sur une ligne dure de recherche de l'initiative parfaite, tu finis seul chez toi. T'as la paix, mais tu fais rien avancer. Source : ma vie actuelle.

    Pour Qwant, les questions sont : combien de temps leur donne-t-on pour redresser la barre, jusqu'où peuvent-ils aller, etc. Qwant ou pas Qwant, je ne sais pas comment faire ça, je ne sais même pas s'il y a un absolu. Il était nécessaire que la presse parle de ce qui se passe chez Qwant, comme ça l'était pour la coopérative Kokopelli, mais je ne pense pas que ça puisse justifier de ne pas utiliser Qwant… ou alors il faut couper la tête de tout un tas d'autres sociétés commerciales / associations / projets.



    Sur le fond, il y a de vrais enjeux : démantèlement du monopole Google, liberté d'accès à l'information, etc. Mais peu d'alternatives sérieuses. Ça a déjà été identifié par l'ARCEP (l'autorité de contrôle des télécoms) dans son rapport de 2018 sur les terminaux. Qwant ne pourra pas être une solution à tous ces enjeux, d'où sa généralisation est une mauvaise réponse à un vrai problème.

    L'intention de la note de la DINUM est positive, mais pas la manière de faire. Dire que, puisqu'il n'y a pas d'alternative, on va utiliser le poids de la puissance publique pour financer et donner de l'audience à un nouveau bidule en construction, ce n'est pas nouveau et ce n'est pas déconnant… s'il y a des garanties publiquement vérifiables (sur la technique, sur le management brutal, sur…), ce qui ne semble pas être le cas (voir ci-dessus).

    De même, sauf à réfléchir sous le seul prisme de l'argent (la Caisse des Dépôts et des Consignations a investi dans Qwant), réserver l'initiative à Qwant est problématique : ça revient à désigner un élu. La note aurait dû laisser le jeu ouvert : rappel de la problématique, de son importance, rappel des (méta-)moteurs existants, demande d'en choisir un dans le lot en fonction des catégories de public, etc.

    Enfin, si c'est pour remplacer un géant (Google), par un autre (Qwant ?), ça ne m'intéresse pas. Tout géant trahira. Tout géant fera de la merde. Tout géant chiera sur ses utilisateurs. Pas par dessein malveillant, juste parce qu'il aura la puissance économique pour le faire sans en subir de conséquences. Je préfère des petites structures et des solutions décentralisées, ça limite mécaniquement les effets tyranniques. C'est ça, conceptuellement, Internet.

    Et, à ce sujet, on est au point mort. C'est ça, qu'il faudrait financer. On a le méta-moteur SearX (instance de La Quadrature du Net), mais il s'agit d'un intermédiaire entre l'internaute et plusieurs moteurs de recherche, qui, de surcroît, ne fonctionne plus vraiment (quand Google et les autres bloquent SearX pour le motif « trop de recherches depuis une même adresse », SearX perd temporairement les résultats des moteurs concernés… c'est ce qui a tué l'instance SearX de Framasoft, or, il faut être suffisamment nombreux et d'horizons variés pour que la démarche ait un intérêt). On a un moteur de recherche complet et décentralisé en logiciel libre, Yacy, mais les résultats affichés ne sont pas pertinents.



    D'où, en attendant un miracle, je pense qu'il y a un besoin de formation. Apprendre à chercher. Apprendre à ne plus dépendre d'un quelconque moteur de recherche.

    • Accéder différemment à l'information plutôt que via des géants (BFM TV, Facebook, Google, etc., même combat) qui la hiérarchisent et affichent ce qu'ils ont bien envie. Utiliser les flux RSS et/ou se constituer une liste de sites web spécialisés et de gens sérieux dans la communauté shaarli ou sur le réseau social alternatif Mastodon, c'est très bien ;

    • Utiliser les bons outils. Si tu veux la définition d'un mot, inutile d'utiliser un moteur de recherche, utilise un dico en ligne. Si tu veux un contenu encyclopédique, idem, utilise directement la recherche d'une encyclopédie en ligne. Si tu veux un itinéraire, utilise directement un outil cartographique en ligne. Si tu veux une actualité, cherche directement dans la presse. Etc. Ainsi, un moteur de recherche en saura moins sur toi.
      • Pour que ce soit pratique, tous ces sites peuvent être ajoutés dans la barre de recherche du navigateur web. Lors d'une recherche depuis cette barre, il suffit de choisir sur quel site chercher.
    • Être patient. Des fois, les résultats d'une recherche sur un moteur alternatif à Google Search semblent inintéressants, mais ils offrent une autre vision du monde, une autre analyse. S'enrichir de ça est positif.

    Au passage, je suis sceptique sur l'utilisation de plusieurs moteurs de recherche (StartPage, Searx, Qwant, DuckDuckGo, etc.) simultanément comme je le fais depuis plus d'un an et demi. Au début, ça paraît sain. Au début, tu cloisonnes genre je cherchais des infos locales (date/lieu de tel événement, horaires de tel magasin, etc.) uniquement sur Qwant. Et très vite, quand tu trouves aucun résultat pertinent, tu passes au moteur de recherche suivant. Donc, au final, au lieu d'avoir un moteur de recherche qui sait tout de toi, tu en as 3-4…



    Du coup, plutôt que de généraliser Qwant, je préfère proposer la voie suivante : apprendre à chercher + financer un moteur de recherche libre et décentralisé (genre Yacy) >= utiliser des moteurs de recherche alternatifs (Startpage > Searx > DuckDuckGo / Qwant) > utiliser Google Search.

    Sat Apr 11 15:30:21 2020 - permalink -
    - http://shaarli.guiguishow.info/?WM7JdQ
  • Être enseignant vacataire à l'université ? Nope nope nope

    Résumé : donner des cours de sécurité informatique à l'université ? D'un côté, opportunité de faire mieux que les minables cours de sécu existants orientés bullshit abstrait et sécurité par la paperasse et les gros chèques. De l'autre : forcer des gens à apprendre contre leur gré donc mission vouée à l'échec, emploi précaire de bouche-trou (contrat annuel, salaire moindre et absence de statut pour un même travail, donc inégalités entre personnes) rémunéré en retard dont les universités raffolent ces dernières années afin de réparer la merde (juste milieu entre ceux qui veulent un système d'éducation public, ceux qui n'en veulent pas et ceux qui veulent moins de prétendus branleurs de fonctionnaires) et de permettre aux responsables de la saignée des vrais profs (citoyens et politiciens) d'échapper à leurs responsabilités, cumul d'emploi (alors qu'il y a des sans-emploi), etc. Ça donne envie, hein ?



    Il y a plus de six mois, on m'a proposé de donner des cours de sécurité informatique à l'université afin de remplacer un enseignant qui a quitté le navire.

    Je te cache pas que j'ai eu les yeux qui brillent. J'avais carte blanche ou, a minima, l'opportunité d'avoir un cours de sécurité informatique tel que je le conçois : évoquer des choses concrètes (modèle de menace, types de chiffrement, pièges habituels de la sécurité comme les générateurs pseudo-aléatoires et la vulnérabilité des extrémités d'une communication, etc.) et pratiquer (du nmap, du mitmproxy, du ettercap, du OpenSSL, du Netfilter, comment traiter des requêtes CERT, comment réagir à des phishings, TLS, etc.). Adieu abstractions, chiffre de César et méthodos barbantes. Bref, un cours sans bullshit.

    • Attention : je suis pour les méthodologies, car, lors d'un incident de sécurité, c'est important d'avoir un cadre afin de ne pas paniquer, de ne pas sur-réagir, de ne pas effacer involontairement des traces, de ne pas déployer une solution pire que le mal, etc. C'est comme les formations aux premiers soins : ça semble bidon vu de loin, mais ça évite de paniquer, donc de rester figé sur place le jour J.

    • En revanche, je suis contre ce que je nomme la sécurité administrative, c'est-à-dire remplir trois tonnes de paperasses et signer à l'aveugle de gros chèques à des prestataires hors sol pour des certifications / labels et des boîtiers magiques censés résoudre tous les problèmes, le tout afin de montrer aux chefs (et éventuellement à l'assurance et à l'expert judiciaire) que j'ai bien fait de la (prétendue) sécurité. La sécurité informatique, c'est avant tout des réflexions et des parades techniques. C'est une problématique transversale, des actions à conduire à chaque étape d'un projet informatique, à chaque évolution d'une infrastructure. C'est une remise en question permanente. C'est un état d'esprit, une volonté.

    Puis j'ai parlé à une collègue munie d'un caractère plutôt positif. Qui a déjà donné un cours dans la même université, une année. Elle m'explique que les étudiants se foutaient totalement de son cours, que c'est comme pisser dans un violon, que c'est démotivant au possible. Je me suis revu étudiant et oui… je séchais la majorité des cours. Oui, j'en avais rien à foutre, des cours. Cette discussion m'a ouvert les yeux : oui, les étudiants seront mieux dans leur lit ou dans l'organe sexuel d'un⋅e partenaire ou dans une association, bref, ils seront mieux à faire ce qui les intéressent plutôt qu'à m'écouter parler. Toute leur carrière leur montrera que l'on s'en fiche, de la sécurité informatique : y'a pas le temps, pas le budget, ce n'est pas la priorité, etc. S'ils s'y intéressent, il y a des livres, des sites web et des vidéos. On apprend jamais mieux que quand on choisit son sujet d'étude. C'est pour ça qu'on retient assez peu de choses de ce qu'on étudie à l'école, qui est essentiellement un lieu de contrôle social (les pudiques disent « socialisation secondaire »).

    On est sur l'éternelle question du « faut-il donner aux gens ce qu'ils veulent ou tenter d'agir contre eux / malgré eux ? » L'exemple qui revient souvent, c'est « tout le monde sait lire, écrire, compter », donc l'école, ça marche. Ce discours est en baisse ces dernières années puisqu'on mesure, que, Ô, surprise, de moins en moins de gamins savent lire et écrire à la sortie du collège. De plus, il y a une différence entre ces savoirs (lire, écrire) et d'autres : ils sont nécessaires pour l'animal social qu'est l'humain, donc je pense que n'importe qui serait désireux de les apprendre, même si on ne le forçait pas. En revanche, j'ai jamais pratiqué le théorème de Pythagore ou celui de Thalès, donc je les ai oubliés, donc c'était une perte de temps de me les faire apprendre de force. Pour enfoncer le clou : j'ai même oublié des notions de base de mes anciennes passions pré-informatique, car ça fait 20 ans que je n'ai pas pratiqué… Si l'on oublie jusqu'aux fruits de la passion, comment espérer retenir ce que l'on a appris de force ?

    Ensuite, j'ai pensé à mon statut. N'étant pas maître de conférence et encore moins professeur, mon statut serait enseignant vacataire. En gros : sous-merde. Tu fais le même travail d'enseignement, mais avec un salaire moindre et sans le statut. Tu ne peux pas te projeter dans l'avenir car, tout ce que tu sais, c'est que t'as quelques heures d'enseignement pour l'année à venir. Certains diront que c'est normal, car ce type d'emploi vient en complément d'un emploi principal, afin de faire découvrir le monde de l'entreprise aux étudiants. Mais bien sûûûûr.

    En vérité, le recours à des contractuels a explosé partout en France ces dernières années. Dans certaines universités, ils n'ont pas de contrat dans les temps. Dans d'autres universités, ils ne sont pas payés ou très en retard. C'est la merde complet. À ce sujet, lire « Pourquoi je démissionne de toutes mes fonctions (administratives) à l'université de Nantes ». Un enseignant vacataire, c'est un bouche-trou, une variable d'ajustement. C'est le produit d'un juste milieu entre ceux qui veulent un système d'éducation et de formation public et ceux qui veulent un système privé et ceux qui veulent moins de branleurs de fonctionnaires de merde et ceux qui s'en foutent mais qui veulent payer moins d'impôt (et qui sont assez naïfs pour croire qu'ils obtiendront ce qu'ils veulent en sabordant le service public alors que la thune économisée ira dans les poches de quelques-uns) et ceux qui s'en foutent. C'est beau, un juste milieu, hein ? C'est surtout une pratique de lâche pour éviter de prendre position, de choisir : on veut un système d'éducation public de pointe, mais avec moins de fonctionnaires, avec plus de précaires, le beurre et l'argent du beurre.

    Je suis déjà contractuel de la fonction publique. Ça aussi, ça veut dire sous-merde. Je dois faire le même boulot qu'un fonctionnaire, mais je suis en CDD, je suis payé 495 € net/mois de moins que le junior que j'étais dans le privé et je n'ai pas le statut de fonctionnaire. Du coup, être enseignant vacataire, ça serait me faire pigeonner une deuxième fois en occupant deux emplois précaires au lieu d'un.

    Être un intervenant extérieur, ça serait encore réparer la merde d'autrui. Si la société estime qu'il est nécessaire d'instruire ses enfants, alors elle doit s'en donner les moyens, y compris financiers. Alors on formerait des enseignants par vocation, on les payerait à la hauteur de l'utilité sociale de leur travail et on leur accorderait le statut. Même traitement pour tous, en somme. Ne pas parvenir à décider collectivement et dans la durée de ce que l'on veut (système d'instruction public, oui ou non ?) n'est pas un idéal de société.

    Accepter d'être d'être un intervenant extérieur, c'est faire en sorte que ce système pourri perdure et que les responsables (le citoyen comme les politiciens) n'aient pas à rendre de comptes au motif que, oh, regardez, le système continue à fonctionner. Ne pas l'être, c'est (temporairement) faire payer à des innocents (les gamins) une situation qu'ils n'ont pas choisi, oui, on a rien pour rien.

    Je revendique le droit à être considéré à part entière. Je n'ai plus la foi pour me faire pigeonner en pensant que je fais le bien autour de moi.

    Un troisième problème éthique s'ajoute à ceux que je viens d'exposer (forcer des gamins à apprendre et emploi précaire) : j'ai toujours été opposé au cumul des emplois. Attention, je ne blâme absolument pas les personnes qui sont obligées d'exercer plusieurs emplois pour survivre. Je blâme notre société qui laisse une telle abomination se produire. Bref, je suis contre le cumul des emplois. Il n'est pas acceptable que des gens cumulent de bons emplois (comme informaticien et enseignant) quand d'autres sont privés d'emplois. Il est impératif de partager le temps de travail au sein d'une société humaine.

    Côté pratique, il y a eu quelques contrariétés. Un de mes chefs m'a expliqué qu'il faudrait que je pose des congés afin d'assurer mes heures de cours / TD / TP. Aucun aménagement d'horaire possible au motif que "trop gros, ça passera pas les RH". OK, très bien, je ne cherche pas un deuxième emploi, donc si j'enseigne, c'est pour rendre service, donc non, je ne poserai pas des congés pour faire le gland devant des étudiants. Je l'aurais fait si j'étais demandeur, c'est bien normal, mais là… Je comprends que mon discours n'est pas tenable, mais c'est mon choix.

    De même, le volume horaire à assurer étant conséquent, la personne qui essayait de me coopter me préconiser fortement de faire équipe avec l'autre personne qu'elle avait déniché… mon supérieur hiérarchique direct. D'une part, même si je n'ai pas de griefs à lui opposer, je le vois assez dans mon emploi principal, pas besoin de plus. D'autre part, nous sommes tous les deux désorganisés, à toujours faire les choses chiantes au dernier moment, donc impossible de se partager un cours, ça ne peut pas fonctionner vu qu'on ne saura pas dire à l'autre à l'avance "tu prends le relai semaine X sur telles et telles notions, j'aurais déjà présenté telles et telles notions sur lesquelles tu pourras t'appuyer".

    Enfin, j'avais (et j'ai toujours) la volonté de redonner la priorité à ma vie personnelle. J'ai beaucoup de mal à voir la frontière entre perso et professionnel, j'ai beaucoup de mal à freiner mon entrain quand je suis lancé sur un sujet, j'ai beaucoup de mal à basculer d'une activité perso à pro et inversement. Tout se bouscule dans ma tête. La dernière activité perso ou pro stimulante continue de me faire cogiter, empêchant d'être à fond sur l'autre. Ma vie perso est très souvent empiétée. Ajouter une activité pro aurait amplifié ce phénomène. Pas cool. Même si ma vie perso n'avait (et n'a) pas de sens particulier, que j'en fait rien de transcendant, le simple fait de rien faire est déjà une bonne chose.

    Plusieurs points de forme m'ont contrarié. D'abord, quand on trouve personne pour assurer un cours malgré plusieurs mois de recherche, c'est qu'il y a un os quelque part. Ce point a jamais été démenti lors de nos échanges. On m'a expliqué que les maîtres de conf' préfèrent se concentrer sur leurs recherches c'est-à-dire leur carrière et les employés ont pas envie de se faire chier (deux arguments de plus en faveur de mon « enseignant vacataire, c'est réparer la merde des autres ;) ). D'autre part, j'ai trouvé très maladroite l'attitude de la personne qui a essayé de me coopter : d'habitude, je peux bien crever dans un coin, elle s'en fiche plus ou moins. Après m'avoir fait sa demande, elle m'a prêté beaucoup plus d'attention qu'à l'accoutumée. Ça a saupoudré ma réflexion d'une dose de soupçon : quand on te prête une attention différenciée par rapport à la normale, c'est qu'on cherche à te berner.

    En conclusion logique : j'ai décliné. Je pense que ça aurait été une expérience enrichissante, mais je ne suis pas un pigeon.

    Fri Apr 10 19:17:09 2020 - permalink -
    - http://shaarli.guiguishow.info/?7IqecA
  • Quelle presse soutenir en 2020 ?

    Résumé : même quand on sélectionne sa presse, on est confronté au flicage, à la non-spécialisation forcée des journalistes qui explique leur inculture notamment sur le numérique, aux articles incomplets / qui relaient des infos sans citer la source précise / qui oublient des éléments ou le contexte global afin de servir leur propos (ce qui pose les questions de l'utilité de la lecture et de la confiance à accorder au journal), à la répétition des mêmes sujets, à l'absence de prospection, à l'absence de volonté de vraiment expliquer les choses afin d'émanciper le citoyen, au non-recours aux bienfaits du numérique dans la diffusion de l'information, etc. Du coup, quelle presse lire / soutenir ? J'affine la presse que je vais continuer à lire.



    J'essaye d'être rigoureux sur la presse que je paye et que je relaie, voir mon mini-comparatif de la presse. Mais ça ne me suffit plus.

    Un ressenti a émergé en 2018 et est devenu prééminent en 2019. Les journaux indépendants financièrement, qui travaillent sur le temps long (>= hebdomadaire), qui sont satiriques ou critiques, qui sont parfois engagés, etc., c'est bien beau, mais quelle importance cela a-t-il si ces journaux ne me respectent pas ? Les qualités sus-mentionnées sont nécessaires, mais plus suffisantes.

    Je veux évidemment parler du flicage. Les sites web de la presse regorgent de traqueurs, d'outils de mesure d'audience et de contenus externalisés qui informent les géants du net de mes lectures (tel article à quelle date), voir cet article, alors que leur secret est vital dans une démocratie. J'arrive de moins en moins à lire des contenus web (presse ou non) en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. C'est de la prédation. Par métaphore maladroite, je dirais que c'est comme en amour : t'as pas super envie de rester avec une personne qui ne te respecte pas, mais, en revanche, tu pardonnes à une personne maladroite qui essaye de mieux se comporter.

    Quelle crédibilité accorder à un journal qui tape en permanence, à juste titre, sur Google, mais qui utilise Google reCAPTCHA sur toutes les pages de son site web (pas uniquement celles sur lesquelles il y a un formulaire à protéger du spam) ? Pas vrai, Le Canard et Siné mensuel ? Déblatérer, c'est bien et utile, essayer de tenir ses convictions, c'est mieux et encore plus utile.

    Parmi les journaux que j'aime, les journaux papier ne sont pas concernés donc je conserve Le Canard enchaîné, Fakir, Siné mensuel, Le Ravi, et La Revue Dessinée. Notons quand même qu'en matière de flicage, ces journaux n'ont pas plus d'éthique que les autres et que leur édition ou vitrine numérique est tout aussi irrespectueuse de la vie privée du lecteur que celle les autres journaux. En ce qui concerne les journaux numériques, je pense que Mediapart est dans l'abus compte-tenu qu'il a la thune pour faire mieux. Tous sont médiocres. Les plus vertueux (les moins pires, en vrai), ceux dont j'ai pas l'impression qu'ils se moquent ouvertement de moi sont Reflets.info, NextInpact et Basta !.



    Je veux également parler d'une forme de foutage de gueule. Comme des articles incomplets, qui relaient des infos (souvent des chiffres) sans en citer la source précise. Bon courage pour recouper derrière ! Ou des articles qui oublient des éléments afin de faire de la mousse. Ou des articles qui n'informent pas sur le contexte global. Des exemples ? Mutuelles et gouvernement ont échangé châtaignes et marrons glacés, Super-régions, super-ratage, Officiel : Pierre Gattaz n’était pas un comique !, L’Observatoire des prisons, au mitard ! ou encore l'article « Tout est bon dans le porno » dans l'édition du 8 avril 2020 du Canard qui relate « une envolée du trafic mondial de 12 % par rapport au mois dernier, par exemple, pour le site Pornhub » (ce qui est inexact, tant sur le chiffre que sur l'ambigu « par rapport au mois dernier »).

    Je pense savoir faire la différence entre ces méthodes douteuses et un avis tranché sur un sujet et/ou des erreurs (un comportement répété en connaissance de cause n'est pas une erreur). La pluralité de la presse est là pour éviter ces abus, mais elle n'y parvient pas totalement, et, surtout, si je dois lire moi-même le rapport de la Cour des comptes, autant que je m'abonne au site web de celle-ci plutôt qu'au journal. Même raisonnement si je dois moi-même retrouver l'origine d'un chiffre. La lecture du journal devient inutile et un problème de confiance se pose.

    En 2019, j'ai beaucoup pris le Canard enchaîné la main dans le sac des méthodes douteuses, mais aussi Siné mensuel. Pour Siné, ça reste acceptable. Pour Le Canard, je m'interroge vraiment sur l'intérêt d'en poursuivre la lecture.

    D'autant que le sujet que je connais, le numérique, est très mal traité par Le Canard. Exemples ? FAI, GAFAM, blocages des contenus (plusieurs récidives), Huawei a déjà des antennes en France… (plusieurs récidives depuis) ou le prétendu piratage de Bercy en août 2019 + récidive dans le numéro 154 des Dossiers du Canard (alors que la réalité est : phishing) ou l'article « Les cybervirus prolifèrent aussi » publié dans le numéro du 8 avril 2020 qui laisse le patron d'Orange Cyberdéfense tout mélanger ou l'encart "Covid-19" du même numéro qui attribue, en partie, la saturation de son site internet aux « nombreuses défaillances du réseau Internet et par des problèmes techniques chez certains fournisseurs d'accès évidemment très sollicités en cette période ». Là encore, paye ta confiance.

    Tuxicoman, tu t'interrogeais : « Je pensais que des gens de #reflets bossaient un peu pour le canard, visiblement ce ne sont pas eux qui écrivent sur le sujet. ». Oui, Kitetoa (et Jacques Duplessy) sont pigistes pour, entre autres, Le Canard. Pigiste, ça veut dire que le journaliste est payé à la tâche, à la pige : il propose un article (ou un sujet), le journal prend (ou jette) et paye, mais le journaliste ne participe pas à la ligne éditoriale, il n'est pas salarié du journal, donc il a rien à dire sur le travail de ses non-collègues, au mieux il peut formuler des remarques en off.



    Je veux enfin parler d'une forme de répétition et d'absence d'émancipation. Tous les journaux maintiennent le citoyen dans une forme d'ignorance. C'est un peu ce que j'écris ci-dessus : les journaux donnent au citoyen suffisamment de billes pour comprendre l'article, le point de vue de son auteur, mais pas plus. Ils ne cherchent pas à émanciper, à faire grandir le lecteur. Il y a l'absence de contradictoire, bien sûr, mais pas que. Il y a l'absence de suivi des sujets sur le temps long (quand il y a, c'est décousu), mais pas que. Les mêmes sujets bouclent en permanence et, au final, se résument à quelques grandes tendances : les humains font des fautes en permanence, l'État n'a prétendument plus de fric, le business se fout des gens et de la planète, le politicien est inutile, etc. Une fois que le citoyen a identifié ces tendances, à quoi bon continuer de lire la presse ? C'est dangereux. À côté de ça, en perspective, je ne vois pas d'article thématique de fond sur comment fonctionne telle ou telle chose genre ce que racontent les lois qui vont être discutées au Parlement (y compris la plus insignifiante), genre une profonde réflexion sur le découpage des responsabilités relatives à une publication à l'heure du numérique, etc. Même les numéros hors série environ thématiques échouent sur ça. On est toujours dans la réaction scandalisée, très peu dans la prospection. Ça non plus, ça n'émancipe pas les citoyens.

    Je ne découvre pas tout ce que je viens d'écrire, j'en prends acte d'une manière plus prononcée. Je m'interroge « à quoi bon lire la presse » ? Suis-je trop exigeant ? Comment faire mieux ? J'ai déjà essayé de contacter Le Canard pour pallier leur inculture numérique, mais également sur d'autres sujets. Je reçois des accusés réception et… rien se passe. Au moins, ils ne pourront pas nier avoir été prévenus / informés, ce qui lève le doute entre erreur et faute. J'ai contacté les journaux pour leur demander de cesser de fliquer les lecteurs. Que faire de plus ? Arrêter d'acheter des journaux ?

    Lire la presse, j'en vois de moins en moins l'intérêt. Financer des journaux, j'en vois encore l'intérêt : contenir les dérives. S'il n'y a plus de journaux, s'il n'y a plus personne pour regarder ce qui ne va pas ici ou là, alors tout le monde fera encore plus de merde en permanence. La probabilité qu'un journal puisse découvrir une craderie calme un peu le jeu, à mon avis. Et même si le journal acheté n'est pas lu, le simple fait que ça soit publié suffit à faire évoluer des comportements. La simple existence de journaux suffit. Oui, j'en suis à la stratégie délétère du moindre mal (ce qui, en soi, illustre le profond mal-être de la presse…). Il nous faut plus de journaux et il faut qu'ils soient lourdement armés (effectifs, temps pour faire le taff, etc.), ce qui signifie de les financer. Mais il faut aussi que la profession de journaliste se remette lourdement en question sur ses méthodes.



    Au passage, la presse numérique payante pose un problème. Comment puis-je la partager en pratique ? Je traite cette problématique dans mon article Apporter des journaux au boulot ? Yep !. Mais la problématique dépasse la presse numérique. À l'exception de NextInpact qui rend publics ses articles après un mois, les articles restent protégés éternellement. Or, détenir l'archive politique (vie de la cité) est un privilège, c'est une source de pouvoir. Donc il faut qu'il soit détenu par le plus grand nombre afin d'éviter au maximum les dérives. De même, cela crée une asymétrie entre le riche (façon de parler) qui peut s'abonner à plusieurs journaux afin d'y picorer un article par-ci, par-là, et le pauvre (façon de parler). Cela crée des communautés de citoyens informés. Les bibliothèques / médiatèques publiques remplissent un peu ce rôle de libre accès, mais pas totalement : il y en a de moins en moins, elles sont asséchées financièrement, l'accès à distance à leur catalogue est très souvent une vaste blague, la temporalité de mise à disposition n'est pas forcément adaptée à la presse. Rien de neuf, mais on ne profite pas des possibilités du numérique pour diffuser l'information. Faire un lien vers un article payant ne me tente pas. Citer un article payant a aucun intérêt si l'on respecte le droit de citation (la citation sera trop courte). J'identifie un problème, je n'ai pas de solution.



    Au passage, je pourrais évoquer les subventions (publiques comme privées). À l'exception de Reflets.info, de NextInpact, du Canard enchaîné et d'Arrêt sur images, tous les autres journaux sont aidés. Fakir est stable sur 2016-2017 (en hausse depuis 2013, derniers chiffres disponibles). Le Ravi est stable sur 2017-2019. Siné mensuel est stable sur 2016-2017 (en forte hausse depuis 2015, derniers chiffres publiés) et vu la santé actuelle du journal, je pense que les subventions sont en hausse en 2018-2019-2020. Les Jours est en hausse sur 2016-2017 mais moins qu'à son lancement (derniers chiffres dispos). La Revue Dessinée est en légère baisse en 2017 (derniers chiffres dispos). Basta ! est en forte baisse sur 2016-2017-2018 (derniers chiffres dispos). Si je voulais aller jusqu'au bout de la démarche, il me resterait donc que 5 journaux… C'est peu, et c'est problématique, je trouve.



    Au final, en 2020, j'ai décidé de continuer à lire Le Canard, Fakir, Siné mensuel, Le Ravi, La Revue Dessinée, Reflets.info, NextInpact et Basta !. Mediapart a pompé sa dîme avant que je pense à annuler le renouvellement automatique, mais je n'avais pas envie d'en continuer la lecture. En 2019, j'ai arrêté de lire Marianne (je n'ai pas accroché + trop de flicage et d'aides financières). En 2020, je me sépare des Jours (flicage), de Numerama (pub, flicage), de Contrepoints (flicage + j'ai pas accroché) et d'Arrêt sur images (flicage).

    Fri Apr 10 14:17:32 2020 - permalink -
    - http://shaarli.guiguishow.info/?Vv0uAQ
  • Flicage sur leur site web, j'écris à Mediapart, Arrêt sur images, Numerama, Les Jours, Basta !, Fakir, Le Ravi et Siné mensuel

    Résumé : comme tout site web moderne, ceux des journaux sont gavés de traqueurs / pisteurs, d'outils de mesure d'audience et de contenus externalisés (CSS, police de caractères, JS, frames vidéo / tweet / carte géographique, visualisations graphiques, PDF, CAPTCHA etc.) hébergés chez les géants du net (Google, CloudFlare, Adobe, BootstrapCDN, jsDelivr, Youtube/Vimeo/Dailymotion, etc.) qui, du coup, sont en mesure de suivre les lecteurs sur le site des journaux (unetelle a lu tel et tel article) et entre les sites (leur position hégémonique le leur permet). Une approche individuelle (installer uBlock Origin, Smart-Referer, etc.) est nécessaire mais insuffisante : outils-passoires, ça nécessite des compétences sans cesse actualisées, ça ne met pas l'éditeur et le développeur d'un site web de merde face à leurs responsabilités. Que faire ? Envoyer des lettres recommandées avec accusé de réception aux journaux. Ça changera très probablement rien, mais ils ne pourront pas nier qu'ils savaient et on pourra les tenir responsables dans le futur. Ci-dessous, mes lettres. Je t'invite évidemment à t'en inspirer afin d'envoyer un email ou un courrier postal à tes journaux favoris : plus on sera nombreux, plus la probabilité d'être entendus augmente.


    Introduction

    Sur tout site web moderne, et cela m'afflige, il y a des traqueurs / pisteurs afin d'en mesurer l'audience et/ou de le relier aux principaux réseaux sociaux et/ou d'afficher de la publicité ciblée. Et il y a l'externalisation.

    • L'externalisation des contenus, d'abord : la vidéo hébergée chez Google Youtube, la carte géographique Google Maps, le gadget Twitter, la visualisation graphique flourish.studio ou highcharts.com, le PDF chez Adobe ou Scribd, la newsletter Mailerlit, etc. ;

    • L'externalisation technique, ensuite, celle qu'on ne voit pas : la police de caractères hébergée chez Google Fonts, le CSS (mise en forme) chez BootstrapCDN, les scripts chez CloudFlare, la protection Google ReCAPTCHA, la tenue de charge avec embed.ly ou CloudFlare ou Microsoft, etc.

    Évidemment, les sites web des journaux ne sont pas une exception. C'est problématique.

    À chaque fois qu'une ressource externe est récupérée, le navigateur web indique depuis quelle page de quel site il vient. C'est l'entête HTTP « Referer ». Exemple : « Referer: https://www.mediapart.fr/journal/economie/130218/les-milliardaires-de-la-presse-gaves-d-aides-publiques-et-privees » signifie que le navigateur est sur cet article précis de ce journal précis. Cet entête est journalisé côté serveur web. Cela crée donc un journal qui associe une date, un Referer, une page web demandée et d'autres infos à une adresse IP.

    Cela signifie qu'une poignée d'acteurs économiques (Google, CloudFlare, BootstrapCDN, jsDelivr, etc.) consignent une association adresses IP + Referer. Comme tout le monde utilise leurs services, ils peuvent suivre notre navigation au sein d'un site web et entre les sites web. Untel a lu tels et tels articles dans le Figaro (il y a l'URL complète dans le Referer, voir ci-dessus), puis il a été sur tel site de rencontre et il y a regardé tels et tels profils (URL complète, toujours ;) ) puis il a consulté tel autre site web. Tout ce flicage se fait sans cookies. Je ne dis pas que ces acteurs vont utiliser ces informations à mauvais escient, mais ils les collectent. Or, une collecte sans utilisation aujourd'hui peut conduire à une compromission de la vie privée demain (décision de la Cour de Justice de l'Union Européenne Digital Rights Ireland de 2014). C'est l'évidence même, comme une sextape sans utilisation malveillante aujourd'hui laisse la porte ouverte à un chantage demain. Plus d'infos dans cet article.

    Il faudra également m'expliquer l'intérêt d'outils de mesure de l'audience sur le site web d'un journal payant. Le nombre d'abonnements est un indicateur amplement suffisant.

    • Cela sert-il à détecter les fraudeurs (mutualisation d'un compte) ? Le montant de la fraude légitime-t-il de fliquer tout le monde ? ;

    • Cela sert-il à adapter le site web aux appareils (ordi fixe, smartphone, etc.) utilisés par les lecteurs ? On peut obtenir ces infos par des sondages en acceptant que les lecteurs puissent refuser d'y répondre ;

    • Cela sert-il à adapter la ligne éditoriale en tenant compte des articles les plus lus ? Un journal ne doit pas contenter ces lecteurs mais les surprendre avec des contenus auxquels ils ne s'attendent pas. L'esprit critique est à ce prix.

    Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités commerciales (était-ce seulement parce que le support ne le permettait pas ?). Le vendeur de journaux sait que j’ai acheté tel journal papier. Personne d’autre. Il ne sait pas ce que j’y ai lu. Personne le sait. Ça doit rester ainsi avec le numérique. Le secret des lectures est aussi vital pour la démocratie que le secret du vote : personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu’un. Il ne peut pas y avoir de pensée autonome sous surveillance : l'humain adapte ses comportements dès qu'il a des raisons légitimes (pas forcément réelles) de se sentir surveillé (source (paragraphe « Importance de la vie privée »)). Le respect de la vie privée est un enjeu fort de la presse numérique et il n’est pas pris au sérieux.

    Alors oui, on pourrait préconiser à tout le monde d'installer un bloqueur de pub + traqueurs, un bloqueur de Referer et plein d'autres outils. C'est nécessaire, oui, mais ça ne suffit pas.

    • Tous ces outils sont une passoire sauf à les paramètrer en mode très agressif (et encore…), mais alors la navigation web est insupportable ;

    • Cela exclut la majorité de la population. Qui ne sait pas que ces outils existent. Qui n'a pas envie. Qui a autre chose à faire que de suivre l'actualité numérique pour savoir que, désormais, les traqueurs sont déguisés ou qu'on ne devrait plus utiliser Adblock Edge mais uBlock Origin. C'est juste chiant, même pour moi. Or, la vie privée est un droit pour tout le monde ;

    • Cela répare une connerie faite par un autre (éditeur du site web, développeur, etc.), qui, du coup, s'en sort sans devoir assumer ses responsabilités. La personne en faute a rien à faire, elle est tranquille. Forcément, elle ne changera pas d'attitude (pourquoi changer, quand ça te profite ?).

    Je préfère remonter à la racine du problème. C'est-à-dire à ceux qui commandent des sites web de merde, à ceux qui les confectionnent et à ceux qui y publient des contenus.

    • L'externalisation technique se résout presque facilement. Internaliser CSS, scripts, polices de caractères, l'humanité sait faire. Concevoir des infrastructures qui tiennent un nombre élevé de lecteurs pour un prix pas mirobolant, l'humanité sait aussi faire. Reste quelques briques dont il n'existe pas vraiment d'équivalent clé en main comme Google reCAPTCHA, mais cela sert à protéger un formulaire contre le spam, donc ça ne s'insère pas sur toutes les pages. Bref, il y a aucune bonne excuse pour ne pas nettoyer ses sites web, aucune.

    • L'externalisation des contenus se résout plus difficilement. Soit on fait des liens vers ces contenus, laissant ainsi le choix à l'utilisateur de se faire traquer, mais on perd un des intérêts du web qui est de mixer les contenus sur une même page. Soit il faut se débrouiller et ça implique plusieurs choses. Il faut former les journalistes aux outils alternatifs (genre OpenStreetMap pour créer une carte géographique) ou aux bonnes pratiques (pour citer un tweet, pas besoin du gagdet twitter, un copie-coller suffit). Il faut déployer des outils internes et les intégrer avec l'outil de publication (c'est le plus gros du travail). Il faut développer les outils qui n'existent pas encore (comme ceux pour créer et publier des visualisations graphiques).

    C'est pour ça que j'ai écrit aux journaux que je lis (voir mon mini-comparatif de la presse en fonction de l'actionnariat, des sources de revenus, du flicage et de l'indépendance fonctionnelle). Oui, tant pis pour les autres journaux, je ne peux pas faire tout le boulot tout seul et je doute qu'ils soient réceptifs, vu à quel point ils se fichent de produire des articles de qualité et de leur indépendance. Je ne suis pas naïf, rien changera. Mais, au moins, ils ne pourront pas nier : ils étaient au courant de la problématique et je pourrais dégainer les accusés de réception La Poste pour le démontrer. Même s'il s'avérait que mon courrier est mal rédigé, incompréhensible, etc., ils devaient se renseigner. S'ils ne le font pas, c'est un choix dont on pourra collectivement les tenir responsable.

    J'ai hésité : fallait-il embêter les journaux qui peinent à se sortir la tête de l'eau ? À l'origine, j'ai envoyé un email à Mediapart le 18/05/2018. Il est évidemment resté sans réponse. Mediapart est un journal bénéficiaire, donc il a la thune pour (faire) corriger son site web. Mediapart a la thune pour former ses journalistes et faire développer les outils internes qui manquent (ceux pour afficher des visualisations graphiques, par exemple). En revanche, Le Ravi ou Siné mensuel boivent la tasse. Faut-il les embêter ? J'ai tranché en faveur du oui. Ça les informe de la problématique et ça leur permet de planifier un changement s'ils le désirent. Ils ont aussi la possibilité de se regrouper et de créer ensemble les outils dont la profession a besoin.

    Fallait-il envoyer un courrier à Numerama qui a fait le choix de la publicité ? Je le pense. On a besoin d'autres journaux spécialisés autour du numérique en sus de NextInpact. Les analyses juridiques de Guillaume Champeau étaient pertinentes et éclairantes. Les tutoriels et les bouts de politique actuels le sont tout autant. Je ne retrouve pas cela sur les autres journaux qui traitent du numérique car ils ont un angle d'attaque orienté décideur / business.

    Pourquoi le Canard enchaîné y a échappé ? Parce qu'en février 2020, il y avait rien à redire, pas de Google ReCAPTCHA, pas de Matomo.


    Courriers

    Après cette longue introduction pour expliquer ma démarche, voici les courriers recommandés avec accusé de réception que j'ai envoyé le 13 février 2020 (le 10/03 pour Basta !, la première lettre n'ayant pas été récupérée dans les temps). En les relisant deux mois après, je constate quelques ratés :

    • La présence de fautes malgré mes nombreuses relectures ;

    • Je ne présente pas les autres avantages à l'internalisation technique : 1) pas de dépendances à des acteurs économiques avec lesquels le journal n'a pas de contrat donc aucune assurance de pérennité ni garantie d'absence de panne (Google a déjà été en panne, CloudFlare aussi). C'est dommage de perdre la mise en forme de son site web car un acteur toussote à l'autre bout d'Internet… 2) site web moins lent à charger car moins de requêtes DNS+TLS+HTTP à effectuer ;

    • Je suis excessivement prudent sur l'utilisation de l'entête Referrer-Policy : ça ne détraque pas les outils de mesure d'audience (pas Matomo, en tout cas) ;

    • Je reproche à Mediapart, aux Jours et au Ravi que leur bandeau de recueil du consentement n'est pas conforme au RGPD en cela qu'il disparaît si l'on clique sur un article tout en laissant activé tout le flicage. Je pensais alors que la CNIL, l'autorité administrative chargée de la protection des données personnelles, allait faire entrer en vigueur sa nouvelle politique à ce sujet, donc je voulais préparer le terrain. Or, depuis, elle a choisi de reporter une nouvelle fois cette application du RGPD… On notera aussi que j'ai rien écrit aux journaux qui n'ont pas de bandeau de recueil du consentement. J'utilise cet argument (bandeau qui ne respecte pas le RGPD) afin que le journal ne puisse pas me répondre "le flicage est désactivable". Or, cette réponse est beaucoup plus probable de la part d'un journal qui a déployé un bandeau. Pour ceux qui ne l'ont pas fait, je préfère largement ne pas avoir de traqueurs plutôt qu'un énième recueil de mon consentement.


    Arrêt sur images

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour,

    J'étais abonné à Arrêt sur images.

    Je me permets un point de théorie nécessaire pour comprendre la problématique que je vais soulever.
        Tout contenu externe qui est directement affiché sur le site web d'ASI (c'est-à-dire qui n'est pas un lien) permet à l'éditeur (et à l'hébergeur) dudit contenu de suivre, au fil des jours, le parcours des lecteurs d'ASI sur le site web d'ASI et en dehors si d'autres sites web ont recours à ce même contenu (c'est le cas d'un traqueur Facebook ou d'une police de caractères hébergée par Google, l'hégémonie de ces sociétés commerciales leur permet de suivre l'activité des citoyens sur le web, de site web qui utilise leurs services en site web qui utilise leurs services).
        Ces éditeurs (et hébergeurs) récupèrent bien sûr l'adresse IP (l'identifiant technique d'un ordinateur ou d'une entité – un foyer domestique, une société commerciale, une administration, etc. – ) du lecteur d'ASI, mais aussi l'adresse de la page web d'ASI sur laquelle il se trouve (ça se nomme « HTTP referer »), et donc quel contenu précis le lecteur est en train de lire (ha, celui-ci s'intéresse à Charonne puis au coup de com' autour de la fin de la GLI-F4 puis au vrai-faux OFCE/Le Maire).
        Ça, c'est le minimum, je passe sur les autres informations qui peuvent être récupérées à propos et à l'insu des lecteurs d'ASI.

    On peut séparer ces contenus en différentes catégorie : traqueurs publicitaires, traqueurs de profilage / statistiques, et contenu utile mais externalisé. Je préfère le terme de traqueur à celui de pisteur, car sa sémantique est plus proche de la vérité.

    Arrêt sur image n'a pas recours à la publicité, donc la première catégorie est pliée.

    ASI utilise un seul traqueur de profilage et de statistiques : Google Analytics fourni par la multinationale du même nom.

    Quel est l'intérêt d'établir des statistiques sur les lecteurs ? À mes yeux, le nombre d'abonnements est l'indicateur-clé d'un journal payant et il se suffit à lui-même. À quoi bon calculer d'autres statistiques (nombre de visites, de visiteurs) ?!

    1. Détecter les fraudeurs qui mutualisent un abonnement ? Quelle importance cela a-t-il ? Quel impact sur le chiffre d'affaires cela représente-t-il ?

    2. Adapter la ligne éditoriale en fonction des articles les plus lus ? Le but d'un journal n'est pas de contenter ses lecteurs, mais de les surprendre, de leur ouvrir l'esprit avec des sujets auxquels ils ne s'attendent pas.

    À quoi bon connaître le nombre d'abonnés mobiles / fixes et certains paramètres techniques des ordinateurs des lecteurs ? Si c'est vraiment important pour adapter le comportement du site, il suffit de demander cette information aux lecteurs en leur laissant le choix de ne pas répondre. Même chose pour les autres informations récoltées par Google Analytics : elles me semblent futiles, mais si elles sont vraiment importantes, demandez-les et acceptez qu'on ne vous réponde pas.

    Je pense vraiment que Arrêt sur image peut virer le traqueur Google Analytics sans trop d'effort et sans subir une quelconque perte. Vos confrères des journaux Reflets.info et NextInpact l'ont fait (uniquement pour les abonnés dans le cas du second).
        Au pire, si vous voulez vraiment établir des statistiques sur vos lecteurs en conservant le même niveau de service, faites-le en interne, sans recourir à des services tiers (Google Analytics) qui fliquent les lecteurs. C'est possible avec le logiciel Matomo, par exemple. Là encore, vos confrères de Reflets.info ont déjà la configuration informatique qui fonctionne.

    Venons-en à la catégorie « contenu utile externalisé ».

    Arrêt sur image utilise des polices de caractères (qui déterminent la manière dont sont affichés les caractères des textes, en très résumé) qui sont stockées chez Google (fonts.gstatic.com). Vous pouvez utiliser les mêmes polices en les stockant sur votre hébergement, à côté de votre site web, comme vous le faites avec les images d'illustration. Le passage de l'état actuel à l'état que je propose devrait vous prendre moins de 15 minutes de travail et retire une dépendance à Google et un traqueur, ce qui permet de ne pas communiquer à Google d'informations sur vos visiteurs (voir le paragraphe de vulgarisation ci-dessus).

    Sur sa page d'accueil, ASI affiche vos tweets (Daniel S.). Encore une requête vers Twitter et des données personnelles de visiteurs qui partent vers Twitter. Ce contenu me semble futile, mais s'il est important pour vous, remplacez ce gadget (widget) Twitter par un lien vers votre compte Twitter. Les abonnés intéressés cliqueront d'eux-mêmes. Si vous voulez vraiment conserver l'affichage des tweets sous la forme actuelle, utilisez l'API de Twitter pour récupérer les tweets du côté du site web ASI et les afficher vous-même. Ainsi, les abonnés verront les tweets sans être fliqués par Twitter.

    Sur toutes vos pages, vous chargez des scripts en provenance de Dailymotion, Vimeo et Youtube. Même sur les pages qui ne comportent pas de vidéos. Si vous les jugez nécessaires (pour ma part, je doute de leur petinence), chargez le script adéquat uniquement sur les pages qui comportent au moins une vidéo de l'hébergeur en question (chargez le script Youtube si vous affichez une vidéo Youtube, chargez le script Vimeo si vous affichez une vidéo Vimeo). Alors, oui, ça demande un certain développement informatique, mais l'on ne doit pas excéder la journée de travail. Et, au moins, ces plateformes de vidéo ne suivront plus les abonnés d'ASI sur toutes les pages, dévoilant ainsi leurs lectures, leurs intérêts, etc.

    De même, quand vous intégrez une vidéo, vous utilisez également les services de la société commerciale embed.ly qui propose de « grow your audience ». Encore une fois, je n'en vois pas l'intérêt pour un journal payant et cela informe embed.ly des lectures des abonnés. D'un point de vue technique, les plateformes de vidéo sus-citées ont déjà l'infrastructure technique nécessaire pour survivre aux abonnés d'ASI, pas besoin d'ajouter un intermédiaire qui fait double emploi.

    Pour la diffusion de vos émissions, vous pouvez envisager de remplacer Vimeo par PeerTube (https://joinpeertube.org/ ). Vos confrères de Thinkerview l'ont fait.

    Internalisez au maximum les contenus que vous utilisez (images, vidéos, document PDF, visualisation graphique, etc.), c'est-à-dire stockez-les sur votre site web, sur votre hébergement, sans dépendance à un acteur extérieur à Arrêt sur image.

    Néanmoins, en tant que critique média, vous avez besoin d'afficher, dans le corps de vos articles, les contenus vidéos d'autrui. Soit vous les importez au préalable sur PeerTube et ça consomme du temps de travail pas forcément rentabilisé, soit, vous n'intégrez plus les vidéos dans le corps de vos articles, vous contentant de pointer la vidéo avec un lien dans le corps de l'article. L'abonné qui le souhaite cliquera sur le lien et ira voir le contenu. Donnez le choix aux abonnés de se faire voler ou non leur vie privée en vous lisant.

    Ce dernier point est valable pour tous les contenus externalisés que vous souhaitez montrer à vos abonnés (document PDF, tweet, visualisation graphique, etc.) : ne les intégrez pas dans le corps de vos articles, mais pointer ces contenus avec un lien. Pour un tweet, par exemple, citez-le de la même manière que vous citeriez une déclaration orale : sans utiliser le gadget Twitter, sans fioriture, juste entre des guillemets. Si un lien vous semble trop austère, rusez : transformez le contenu en image hébergée à côté de votre site web, par exemple.

    Si vous ne pouvez pas vous passer de contenus externes, voici un palliatif : demander au service informatique d'Arrêt sur image et/ou à votre hébergeur informatique, r3zo, de configurer le serveur web d'ASI pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation technique : https://frama.link/rp ). Quand il récupérera une ressource externe (police de caractères stockée chez Google, gadget Twitter, vidéo Google Youtube ou Vimeo ou..., etc.) le navigateur web du lecteur d'ASI n'indiquera plus sur quelle page d'ASI, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article d'ASI est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, en fonction du contenu demandé et de son nom, le service externe n'a pas besoin de connaître précisément l'article lu par le lecteur d'ASI pour en connaître la teneur. Bref, cette mesure est insuffisante. Mais c'est un premier pas très facile à mettre en œuvre : on parle de moins de 15 minutes de travail d'un informaticien.
        Notons que cela peut réduire la pertinence de vos statistiques Google Analytics.

    Le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Un journalisme éthique (indépendant, critique, etc.) ne me suffit plus. Je n'arrive plus à lire des articles en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités. Le vendeur de journaux sait que j'ai acheté tel journal papier. Personne d'autre. Il ne sait pas ce que j'y aie lu. Personne le sait. Ça doit rester ainsi. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance. La vie privée est un enjeu fort de la presse numérique, à mon avis, et il n'est pas pris au sérieux.

    J'espère qu'Arrêt sur image fera tous les efforts possibles pour virer le traqueur Google Analytics et les contenus externalisés (au moins la police de caractères et embedly, c'est 30 minutes de travail). Ça serait chouette, un journal encore plus éthique et respectueux de ses lecteurs

    Cordialement.


    Basta !

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour,

    Je vous ai envoyé ce courrier une première fois le 13 février 2020. Compte-tenu de son rôle de directeur de la publication, je l'avais adressé à Eros Sana. Il ne l'a pas récupéré (LRAR). Je vous l'envoie à nouveau sans destinataire précis dans l'espoir que quiconque puisse signer et le réceptionner. Vous pouvez remettre cet exemplaire à Eros Sana ou le lire collégialement.

    –– Début du courrier original ––

    Je lis Basta ! avec assiduité et je contribue à son financement par un don annuel d'un montant égal à ce qui se pratique en matière d'abonnement annuel à la presse écrite.

    Je me permets un point de théorie nécessaire pour comprendre la problématique que je vais soulever.
        Tout contenu externe qui est directement affiché sur le site web de Basta ! (c'est-à-dire qui n'est pas un lien) permet à l'éditeur (et à l'hébergeur) dudit contenu de suivre, au fil des jours, le parcours des lecteurs de Basta !, sur le site web de Basta ! et en dehors si d'autres sites web ont recours à ce même contenu (c'est le cas d'un traqueur Facebook ou d'une police de caractères hébergée par Google, l'hégémonie de ces sociétés commerciales leur permet de suivre l'activité des citoyens sur le web, de site web qui utilise leurs services en site web qui utilise leurs services).
        Ces éditeurs (et hébergeurs) récupèrent bien sûr l'adresse IP (l'identifiant technique d'un ordinateur ou d'une entité – un foyer domestique, une société commerciale, une administration, etc. – ) du lecteur de Basta !, mais aussi l'adresse de la page web de Basta ! sur laquelle il se trouve (ça se nomme « HTTP referer »), et donc quel contenu précis le lecteur est en train de lire (ha, celui-ci s'intéresse à la fausse annonce de retrait de la GLI-F4 puis à Blackrock puis aux assassinats de protecteurs de l'Amazonie).
        Ça, c'est le minimum, je passe sur les autres informations qui peuvent être récupérées à propos et à l'insu des lecteurs de Basta !.

    On peut séparer ces contenus en différentes catégorie : traqueurs publicitaires, traqueurs de profilage / statistiques, et contenu utile mais externalisé. Je préfère le terme de traqueur à celui de pisteur, car sa sémantique est plus proche de la vérité.

    Basta ! n'a pas recours à la publicité, donc la première catégorie est pliée.

    Basta ! utilise deux traqueurs de profilage et de statistiques : le logiciel Matomo fourni par son hébergeur, Nursit, et Google Analytics fourni par la multinationale du même nom.

    Le premier est parfaitement légitime. Le second est contestable. D'abord parce qu'il est un doublon du premier. Quel intérêt d'utiliser plusieurs outils qui assurent peu ou prou les mêmes fonctions ?

    Je pense que vous pouvez cesser l'utilisation de Google Analytics sans subir une quelconque perte. Vos confrères des journaux Reflets.info et NextInpact l'ont fait (uniquement pour les abonnés dans le cas du second).

    Venons-en à la catégorie « contenu utile externalisé ».

    D'une part, Basta ! utilise une police de caractères (qui détermine la manière dont sont affichés les caractères des textes, en très résumé) qui est stockée chez Google (fonts.googleapis.com). Vous pouvez utiliser la même police en la stockant sur votre hébergement, à côté de votre SPIP, comme vous le faites des images et des documents PDF que vous mettez à disposition. Le passage de l'état actuel à l'état que je propose devrait vous prendre moins de 15 minutes de travail. Et ça permet de ne pas communiquer à Google d'informations sur vos visiteurs (voir le paragraphe de vulgarisation ci-dessus).

    D'autre part, dans son pied de page, Basta ! affiche le logo / bouton Creative Commons. À chaque affichage d'une page (je simplifie), ce bouton, une simple image, est récupéré depuis le site web de l'organisation Creative Commons Corporation. Là encore, vous pouvez héberger une copie du bouton sur votre hébergement, à côté de votre SPIP, comme vous le faites avec les images d'illustration de vos articles. C'est parfaitement autorisé par Creative Commons Corporation. Là encore, cela nécessite moins de 15 minutes de travail. Et ça permet de ne pas laisser filer des données personnes du lecteur.

    D'une manière générale, si vous souhaitez afficher des contenus externalisés, ne les intégrez pas dans le corps de vos articles, mais pointer ces contenus avec un lien. Ainsi, seuls les lecteurs désireux d'en apprendre plus cliqueront sur le lien et verront leurs données personnelles être communiquées à des services tiers. Exemples :

    • Si vous voulez partager une visualisation graphique (exemple : https://frama.link/b-e3c ), utilisez a minima l'outil de cartographie libre et collaboratif OpenStreetMap plutôt que Google Maps (comme vous l'avez fait dans https://frama.link/b-mouvs , par exemple), mais, mieux, transformez la visualisation en une image que vous afficherez dans le corps de l'article. Si l'interactivité de la visualisation est importante, mettez un lien vers la visualisation dans le corps de l'article ;

    • Si vous voulez partager une vidéo Vimeo, Youtube, autre, peu importe (exemple : https://frama.link/b-charal ), proposez un lien vers ladite vidéo, ne l'intégrez pas dans le corps de l'article ;

    • Si vous voulez partager un tweet, n'utilisez pas le gadget Twitter, copiez-collez le texte du tweet et faites-en une citation entre de simples guillemets, comme quand vous restituez un témoignage oral. La fioriture Twitter est inutile ;
      Même raisonnement pour les autres contenus (PDF, graphique, etc.) : internalisez un maximum. Si vous n'avez pas les outils pour ce faire, rusez (transformer le contenu en image et affichez cette image, etc.). Donnez au moins le choix à vos lecteurs de se faire voler leur vie privée ou non.

    Si vous ne pouvez pas vous passer de contenus externes, voici un palliatif : demander à l'hébergeur informatique de Basta !, Nursit, de configurer le serveur web de Basta ! pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation : https://frama.link/rp ). Quand il récupérera une ressource externe (police de caractères stockée chez Google, vidéo Google Youtube, cartographie Google Maps, etc.) le navigateur web du lecteur de Basta ! n'indiquera plus sur quelle page de Basta !, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article de Basta ! est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, en fonction du contenu demandé et de son nom, le service externe n'a pas besoin de connaître précisément l'article lu par le lecteur de Basta ! pour en connaître la teneur. Bref, cette mesure est insuffisante. Mais c'est un premier pas très facile à mettre en œuvre (toujours moins de 15 minutes de travail).
        Notons que cela peut réduire la pertinence de vos statistiques Google Analytics.

    Le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Un journalisme éthique (indépendant, militant, financement par don, etc.) ne me suffit plus. Je n'arrive plus à lire des articles en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités. Le vendeur de journaux sait que j'ai acheté tel journal papier. Personne d'autre. Il ne sait pas ce que j'y aie lu. Personne le sait. Ça doit rester ainsi. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance. La vie privée est un enjeu fort de la presse numérique, à mon avis, et il n'est pas pris au sérieux.

    J'espère que Basta ! fera tous les efforts possibles pour virer le traqueur Google Analytics et les contenus externalisés. Ça serait chouette, un journal encore plus éthique et respectueux de ses lecteurs.

    Cordialement.


    Fakir

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour Fakir,

    J'achète chaque numéro chez mon marchand de presse préféré (et j'lis parfois quelques bouquins du chef, mais chut).

    Je me permets un point de théorie nécessaire pour comprendre la problématique que je vais soulever.
        Tout contenu externe qui est directement affiché sur le site web de Fakir (c'est-à-dire qui n'est pas un lien) permet à l'éditeur (et à l'hébergeur) dudit contenu de suivre, au fil des jours, le parcours des lecteurs de Fakir sur le site web de Fakir et en dehors si d'autres sites web ont recours à ce même contenu (c'est le cas d'un traqueur Facebook ou d'une police de caractères hébergée par Google, l'hégémonie de ces sociétés commerciales leur permet de suivre l'activité des citoyens sur le web, de site web qui utilise leurs services en site web qui utilise leurs services).
        Ces éditeurs (et hébergeurs) récupèrent bien sûr l'adresse IP (l'identifiant technique d'un ordinateur ou d'une entité – un foyer domestique, une société commerciale, une administration, etc. – ) du lecteur de Fakir, mais aussi l'adresse de la page web de Fakir sur laquelle il se trouve (ça se nomme « HTTP referer »), et donc quel contenu précis le lecteur est en train de lire (ha, celui-ci s'intéresse à la bataille législative autour des frais d'obsèques des enfants puis à Sanofi puis à Il est où le bonheur ?).
        Ça, c'est le minimum, je passe sur les autres informations qui peuvent être récupérées à propos et à l'insu des lecteurs de Fakir.

    On peut séparer ces contenus en différentes catégorie : traqueurs publicitaires, traqueurs de profilage / statistiques, et contenu utile mais externalisé. Je préfère le terme de traqueur à celui de pisteur, car sa sémantique est plus proche de la vérité.

    Fakir n'a pas recours à la publicité, donc la première catégorie est pliée.

    Même topo pour la deuxième catégorie.

    Reste donc le contenu utile mais externalisé. Et là, c'est le drame.

    Le site web de Fakir utilise des polices de caractères (qui déterminent la manière dont sont affichés les caractères des textes, en très résumé) qui sont stockées chez Google (fonts.gstatic.com). À chaque article consulté sur le site web de Fakir par un lecteur, bip bip, Google le sait. Vous pourriez utiliser les mêmes polices en les stockant sur votre hébergement, à côté de votre site web. Le passage de l'état actuel à l'état que je propose devrait vous prendre moins de 30 minutes de travail et retire une dépendance à Google et un traqueur, ce qui permet de ne pas communiquer à Google d'informations sur vos visiteurs (voir le paragraphe de vulgarisation ci-dessus).

    Une partie des scripts (des bidules qui s'exécutent dans le navigateur web des lecteurs afin de proposer des fonctionnalités dynamiques plus ou moins utiles) sont stockés chez Jsdelivr.com. La page d'accueil charge aussi un script depuis bootstrapcdn. Je doute de l'utilité de ce script-là. Même topo : à chaque article consulté, bip bip, jsdelivr.com en est informé. Là encore, vous pouvez internaliser, stocker ces feuilles de style chez vous. Là encore, 30 minutes de travail devraient l'faire.

    Sur toutes les pages du site, une icône d'attente est chargée depuis Mailerlite, votre prestataire de newsletter. Même si le lecteur ne s'inscrit pas à la newsletter. Vous pourriez virer ce gadget de la colonne de droite, le mettre sur une page dédiée, et, dans le menu, proposer un lien vers cette page dédiée à la newsletter. Ainsi, seuls les utilisateurs désireux de s'abonner à la newsletter seraient filés par Mailerlite.
        Encore mieux, vous pourriez utiliser le service de liste de diffusion (ce qu'est une newsletter) de l'association française militante du numérique libre Framasoft (https://framasoft.org/fr/ ) nommé Framalistes ( https://framalistes.org/ ). Mais il y a pas mal de boulot pour passer de Mailerlite à Framalistes.

    Sur toutes les pages du site web de Fakir un script émanant de Google Maps est chargé. Même sur les pages qui ne comportent aucune carte, aucun plan. À mon avis, ce script est inutile et peut être supprimé. Sinon, le charger uniquement sur les pages qui comportent une carte Google Maps serait plus protecteur de la vie privée des lecteurs. Mais ça demande un peu de boulot. Encore mieux, vous pourriez utiliser le service de cartographie communautaire et collaboratif OpenStreetMap (https://osm.org/ ). Et là, y'a quasiment pas de boulot de prise en main.

    Parlons des vidéos stockées chez Google Youtube. Celle dans la colonne droite (pour Merci, patron !), celles en bas de la page d'accueil (Fakir TV), celles, peut-être, dans le corps d'articles. Là encore, à chaque article, bip bip bip, ça sonne chez Google. N'intégrez plus ces vidéos sur votre site web. Préférez mettre des liens vers elles ou vers votre chaîne Youtube. Le lecteur qui veut les voir cliquera et se fera pister l'cul par Google en connaissance de cause. Si vous voulez aller plus loin, vous pouvez remplacer Google Youtube par PeerTube (https://joinpeertube.org/ ). Vos confrères de Thinkerview l'ont fait. Mais la transition demandera pas mal de boulot.

    Terminons par le bouton Facebook Like présent dans l'entête de chaque article. Il est récupéré de chez Facebook. Là encore, à chaque article, bip bip bip, ça sonne chez Facebook. Facebook met à disposition un bouton statique, c'est-à-dire une simple image que Fakir pourra héberger lui-même sur son site web au même titre que les dessins d'illustration des articles. Il y aura toujours un bouton « j'aime » au sommet de chaque article, mais aucune information concernant les lecteurs ne sera envoyée à Facebook.
        Notons d'ailleurs que l'usage d'un bouton dynamique, comme le vôtre, qui permet à Facebook d'aspirer des données de citoyens non membres de Facebook entraîne une responsabilité de l'éditeur du site web qui utilise un tel bouton (Fakir, dans le cas présent), d'après la Cour de Justice de l'UE (voir : https://frama.link/fb-cjue ). Le bouton statique n'a pas ce problème... puisqu'aucune donnée est collectée.

    Si vous ne pouvez pas vous passer de contenus externes, voici un palliatif : configurez le serveur web du site web de Fakir pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation technique : https://frama.link/rp ). Quand il récupérera une ressource externe (icône Mailerlite, carte Google Maps, vidéo Google Youtube, etc.) le navigateur web du lecteur du site web de Fakir n'indiquera plus sur quelle page du site web de Fakir, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article de Fakir est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, en fonction du contenu demandé et de son nom, le service externe n'a pas besoin de connaître précisément l'article lu par le lecteur de Fakir pour en connaître la teneur. Bref, cette mesure est insuffisante. Mais c'est un premier pas très facile à mettre en œuvre (on parle de 15 minutes de travail).

    Le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Un journalisme éthique (indépendant, militant, etc.) ne me suffit plus. Je n'arrive plus à lire des articles web en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités. Le vendeur de journaux sait que j'ai acheté tel journal papier. Personne d'autre. Il ne sait pas ce que j'y aie lu. Personne le sait. Ça doit rester ainsi. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance. La vie privée est un enjeu fort du numérique, à mon avis, et il n'est pas pris au sérieux.

    Alors, Fakir, voudrais-tu rendre ton site web plus agréable et moins voleur de données personnelles concernant tes lecteurs ? C'est un noble objectif, tu ne trouves pas ? Des journaux en ligne comme NextInpact et Reflets.info l'ont fait. Pas de pub. Pas de traqueur. Pas de contenu externe. Tout beau, tout propre, le vrai web d'antan. C'est important, un tel site web respectueux des lecteurs : ça donne envie de partager des contenus que l'on a appréciés dans la version papier auprès de non lecteurs.

    Cordialement.


    Le Ravi

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour,

    J'achète la version papier du Ravi tous les mois chez mon marchand de presse préféré.

    Dans les derniers numéros, vous faites la promotion de votre nouveau site web. Même si je préfère le format papier, j'ai voulu voir à quoi il ressemble. Plutôt pas mal. Propre et tout. Mais, j'ai des pistes d'amélioration.

    Votre hébergeur informatique est OVH. Pourquoi ne pas avoir choisi un des nombreux hébergeurs qui ont leur siège social et leur infrastructure informatique en PACA ? Pour une raison de coût ? Un journal régional hébergé en PACA, ça aurait eu d'la gueule.

    Je me permets un point de théorie nécessaire pour comprendre la problématique que je vais soulever.
        Tout contenu externe qui est directement affiché sur le site web du Ravi (c'est-à-dire qui n'est pas un lien) permet à l'éditeur (et à l'hébergeur) dudit contenu de suivre, au fil des jours, le parcours des lecteurs du Ravi sur le site web du Ravi et en dehors si d'autres sites web ont recours à ce même contenu (c'est le cas d'un traqueur Facebook ou d'une police de caractères hébergée par Google, l'hégémonie de ces sociétés commerciales leur permet de suivre l'activité des citoyens sur le web, de site web qui utilise leurs services en site web qui utilise leurs services).
        Ces éditeurs (et hébergeurs) récupèrent bien sûr l'adresse IP (l'identifiant technique d'un ordinateur ou d'une entité – un foyer domestique, une société commerciale, une administration, etc. – ) du lecteur du Revi, mais aussi l'adresse de la page web du Ravi sur laquelle il se trouve (ça se nomme « HTTP referer »), et donc quel contenu précis le lecteur est en train de lire (ha, celui-ci s'intéresse à la raffinerie de la Mède puis aux municipales dans le Vaucluse puis aux femmes engagées en PACA).
        Ça, c'est le minimum, je passe sur les autres informations qui peuvent être récupérées à propos et à l'insu des lecteurs du site web du Ravi.

    On peut séparer ces contenus en différentes catégorie : traqueurs publicitaires, traqueurs de profilage / statistiques, et contenu utile mais externalisé. Je préfère le terme de traqueur à celui de pisteur, car sa sémantique est plus proche de la vérité.

    Le site web du Ravi n'a pas recours à la publicité, donc la première catégorie est pliée.

    Le site web du Ravi utilise un unique traqueur de profilage et de statistiques : Google Analytics fourni par la multinationale du même nom.

    À ce sujet, le message d'information en bas de la page d'accueil est défectueux (j'ai testé avec un navigateur Mozilla Firefox récent et vierge c'est-à-dire sans extensions et avec un profil fraîchement créé)  : il s'affiche une unique fois sur la page d'accueil. Si le lecteur n'y prête pas attention et clique sur un article, le message ne s'affiche plus. Même si le lecteur revient plus tard sur la page d'accueil. Il faut que le lecteur efface les cookies du Ravi de son navigateur web puis qu'il revienne sur la page d'accueil du Ravi pour avoir à nouveau le choix !
        Pendant ce temps, tous les traqueurs sont activés... sans recueil du consentement du lecteur.
        Ceci n'est pas conforme au Règlement européen 2016/679 sur la protection des données personnelles : le consentement ne peut pas être réputé acquis par défaut.

    Je ne comprends pas l'intérêt d'établir des statistiques sur les lecteurs ? À mes yeux, le nombre d'abonnements est l'indicateur-clé d'un journal payant et il se suffit à lui-même. À quoi bon calculer le nombre de visites et de visiteurs uniques mensuels ?!

    1. Détecter les fraudeurs qui mutualisent un abonnement ? Quelle importance cela a-t-il ? Quel impact sur le chiffre d'affaires cela représente-t-il ?

    2. Adapter la ligne éditoriale en fonction des articles les plus lus ? Le but d'un journal n'est pas de contenter ses lecteurs, mais de les surprendre, de leur ouvrir l'esprit avec des sujets auxquels ils ne s'attendent pas.

    À quoi bon connaître le nombre d'abonnés mobiles / fixes et certains paramètres techniques des ordinateurs des lecteurs ? Si c'est vraiment important pour adapter le comportement du site web, il suffit de demander cette information aux lecteurs en leur laissant le choix de ne pas répondre. Même chose pour les autres informations récoltées par Google Analytics : elles me semblent futiles, mais si elles sont vraiment importantes, demandez-les et acceptez qu'on ne vous réponde pas.

    Je pense vraiment que Le Ravi peut virer le traqueur Google Analytics sans trop d'effort et sans subir une quelconque perte. Vos confrères des journaux Reflets.info et NextInpact l'ont fait (uniquement pour les abonnés dans le cas du second).
        Au pire, si vous voulez vraiment établir des statistiques sur vos lecteurs en conservant le même niveau de service, faites-le en interne, sans recourir à des services tiers qui fliquent les lecteurs. C'est possible avec le logiciel Matomo, par exemple. Là encore, vos confrères de Reflets.info ont déjà la configuration informatique qui fonctionne.

    Sur tous les articles (mais pas sur la page d'accueil ni dans les catégories d'articles), vous chargez le script reCAPTCHA fourni par la multinationale Google. Donc, à chaque fois qu'un lecteur lit un article, pouf, Google en est informé (HTTP referer, toujours). Pas cool. Êtes-vous sûr d'avoir l'utilité de ce script ? Je ne comprends pas à quoi il sert, surtout sur les articles (mais je ne suis pas abonné, donc je n'ai pas pu vérifier avec exactitude). Normalement, ce mécanisme sert à protéger des formulaires (de contact, d'inscription, etc.) du spam, donc il doit être intégré uniquement sur les pages qui incorporent un tel formulaire. Avec un Wordpress, il faut un peu de travail, mais c'est faisable.

    Sur la page « contacts », vous utilisez une carte Google Maps. Pourquoi ne pas utiliser l'outil de cartographie collaboratif et communautaire OpenStreetMap (https://osm.org/ ) ? Je vous prépare même le lien : https://frama.link/ravi-osm .
        Bien sûr, sur votre site web, il est préférable de mettre un lien vers cette carte plutôt que d'intégrer la carte dans le contenu de votre site web comme c'est le cas aujourd'hui. Ainsi, seuls les lecteurs intéressés qui cliquent sur le lien informeront Google (ou OpenStreetMap) qu'ils sont sur telle page du site web du Ravi.

    N'étant pas abonné, je ne peux pas vérifier, mais, d'une manière générale, dès que vous voulez afficher un contenu dans le corps d'un article, soit internalisez-le c'est-à-dire stockez-le à côté de votre site web, comme vous le faites avec les dessins de presse, soit faites un lien vers ce contenu qui demeurera externe. N'intégrez pas ces contenus externes dans vos articles. Ainsi, seuls les lecteurs désireux d'en apprendre plus cliqueront sur le lien et verront des bouts de leur vie privée être collectés par ces contenus externes.
        Pas besoin du gadget (widget) Twitter et de sa fioriture pour illustrer un article avec un tweet, une simple citation entre guillemets et un lien vers le tweet suffisent.
        Si vous partagez une vidéo, mettez simplement son lien dans l'article, n'intégrez pas le lecteur Youtube (ou autre) ni la vidéo.
        Si vous partagez une visualisation graphique externe (une mappemonde, un graphique, etc.), proposez un lien vers ce contenu, ne l'intégrez pas dans le corps de l'article ou alors sous la forme d'une image.
        Quand vous voulez partager un document PDF, hébergez-le vous-même, comme vos dessins de presse ou faites un lien vers le document.
        Etc.
    Bref, laissez le choix au lecteur de se faire fliquer ou non.

    Si vous ne pouvez pas vous passer de contenus externes, voici un palliatif : configurez le serveur web du site web du Ravi pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation technique : https://frama.link/rp ). Quand il récupérera une ressource externe (Google reCAPATCHA, Google Maps, vidéo Google Youtube, etc.) le navigateur web du lecteur du site web du Ravi n'indiquera plus sur quelle page du site web du Ravi, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article du Ravi est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, en fonction du contenu demandé et de son nom, le service externe n'a pas besoin de connaître précisément l'article lu par le lecteur du Ravi pour en connaître la teneur.
        Bref, cette mesure est insuffisante. Mais c'est un premier pas très facile à mettre en œuvre (on parle de 15 minutes de travail).

    Le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Un journalisme éthique (indépendant, local, avec des dessins de presse, etc.) ne me suffit plus. Je n'arrive plus à lire des articles en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités. Le vendeur de journaux sait que j'ai acheté tel journal papier. Personne d'autre. Il ne sait pas ce que j'y aie lu. Personne le sait. Ça doit rester ainsi. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance. La vie privée est un enjeu fort de la presse numérique, à mon avis, et il n'est pas pris au sérieux.

    J'espère que le Ravi fera tous les efforts possibles pour retirer le traqueur Google Analytics et pour internaliser au maximum le stockage des contenus et leur diffusion. Ça serait chouette, un site web totalement respectueux des utilisateurs pour un journal éthique, non ? Nous manquons de tels sites web de presse (nous avons seulement NextInpact et Reflets.info, à ma connaissance) C'est important, un tel site web : ça donne envie de partager des contenus que l'on a appréciés dans la version papier auprès de non lecteurs.

    Cordialement.


    Les Jours

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour,

    J'étais abonné aux Jours.

    Je me permets un point de théorie nécessaire pour comprendre la problématique que je vais soulever.
        Tout contenu externe qui est directement affiché sur le site web des Jours (c'est-à-dire qui n'est pas un lien) permet à l'éditeur (et à l'hébergeur) dudit contenu de suivre, au fil des jours, le parcours des lecteurs des Jours, sur le site web des Jours et en dehors si d'autres sites web ont recours à ce même contenu (c'est le cas d'un traqueur Facebook ou d'une police de caractères hébergée par Google, l'hégémonie de ces sociétés commerciales leur permet de suivre l'activité des citoyens sur le web, de site web qui utilise leurs services en site web qui utilise leurs services).
        Ces éditeurs (et hébergeurs) récupèrent bien sûr l'adresse IP (l'identifiant technique d'un ordinateur ou d'une entité – un foyer domestique, une société commerciale, une administration, etc. – ) du lecteur des Jours, mais aussi l'adresse de la page web des Jours sur laquelle il se trouve (ça se nomme « HTTP referer »), et donc quel contenu précis le lecteur est en train de lire (ha, celui-ci s'intéresse au rapport entre le respect de nos aspirations et le sommeil puis à la réforme des retraites puis à l'intelligence artificielle).
        Ça, c'est le minimum, je passe sur les autres informations qui peuvent être récupérées à propos et à l'insu des lecteurs des Jours.

    On peut séparer ces contenus en différentes catégorie : traqueurs publicitaires, traqueurs de profilage / statistiques, et contenu utile mais externalisé. Je préfère le terme de traqueur à celui de pisteur, car sa sémantique est plus proche de la vérité.

    Les Jours n'a pas recours à la publicité, donc la première catégorie est pliée.

    En revanche, Les Jours utilise quelques traqueurs de profilage et de statistiques : Google Analytics / Google Tag Manager, Facebook et Twitter.

    Alors, oui, si l'on refuse les cookies dans le message d'information en bas de la page d'accueil, on échappe à tout ça. Pour ma part, je préférerais que, par défaut, sans aucune action de sa part, le lecteur soit peinard, qu'on le respecte.

    Le message d'information en bas de page est défectueux (j'ai testé avec un navigateur Mozilla Firefox récent et vierge c'est-à-dire sans extensions et avec un profil fraîchement créé) : il s'affiche une unique fois sur la page d'accueil. Si le lecteur n'y prête pas attention et clique sur un article, le message ne s'affiche plus. Même si le lecteur revient plus tard sur la page d'accueil. Il faut que le lecteur clique sur l'obscur lien « Gérer mes cookies » dans le pied de page (quel lecteur normalement constitué va cliquer sur ça ?) ou qu'il efface les cookies des Jours de son navigateur web puis qu'il revienne sur la page d'accueil des Jours pour avoir à nouveau le choix !
        Pendant ce temps, tous les traqueurs sont activés... sans recueil du consentement du lecteur, ce qui n'empêche pas tous les boutons « autoriser » de la fenêtre « gestion des cookies » d'être, à tort, au vert.
        Ceci n'est pas conforme au Règlement européen 2016/679 sur la protection des données personnelles : le consentement ne peut pas être réputé acquis par défaut, sans action consciente du lecteur.

    Je ne comprends pas l'utilisation du traqueur Facebook. Quel intérêt de livrer le parcours du lecteur c'est-à-dire les URL des articles lus, donc les centres d'intérêts, y compris politiques, à Facebook ? Votre page sur les données personnelles indique que la finalité est de « mesurer l'impact de nos campagne de publicité sur la plateforme Facebook ». Le moyen mis en œuvre me semble être disproportionné par rapport au but recherché : pour suivre l'évolution d'une campagne Facebook, il faut filer à Facebook les données de citoyens qui ne sont pas abonnés à Facebook. La législation sus-mentionnée impose une proportionnalité de la collecte et des traitements.

    Je ne comprends pas l'intérêt d'établir des statistiques sur les lecteurs ? À mes yeux, le nombre d'abonnements est l'indicateur-clé d'un journal payant et il se suffit à lui-même. À quoi bon calculer le nombre de visites et de visiteurs uniques mensuels ?!

    1. Détecter les fraudeurs qui mutualisent un abonnement ? Quelle importance cela a-t-il ? Quel impact sur le chiffre d'affaires cela représente-t-il ?

    2. Adapter la ligne éditoriale en fonction des articles les plus lus ? Le but d'un journal n'est pas de contenter ses lecteurs, mais de les surprendre, de leur ouvrir l'esprit avec des sujets auxquels ils ne s'attendent pas.

    À quoi bon connaître le nombre d'abonnés mobiles / fixes et certains paramètres techniques des ordinateurs des lecteurs ? Si c'est vraiment important pour adapter le comportement du site, il suffit de demander cette information aux lecteurs en leur laissant le choix de ne pas répondre. Même chose pour les autres informations récoltées par Google Analytics : elles me semblent futiles, mais si elles sont vraiment importantes, demandez-les et acceptez qu'on ne vous réponde pas.
        D'ailleurs, dans la fenêtre de « gestion des cookies », Google Tag Manager est classé dans la catégorie « Services » que vous décrivez comme « Les APIs permettent de charger des scripts : géolocalisation, moteurs de recherche, traductions, ... ». Selon la fiche produit chez Google, GTM est uniquement un outil marketing. La géolocalisation qu'il offre est pour enrichir les statistiques avec celle des visiteurs d'un site web. Il devrait être classé dans la catégorie « mesure de navigation et d'audience ».

    Je pense vraiment que Les Jours peut supprimer tous les traqueurs sus-nommés sans trop d'effort et sans subir une quelconque perte. Vos confrères des journaux Reflets.info et NextInpact l'ont fait (uniquement pour les abonnés dans le cas du second).
        Au pire, si vous voulez vraiment établir des statistiques sur vos lecteurs en conservant le même niveau de service, faites-le en interne, sans recourir à des services tiers (Google Analytics) qui fliquent les lecteurs. C'est possible avec le logiciel Matomo, par exemple. Là encore, vos confrères de Reflets.info ont déjà la configuration informatique qui fonctionne.

    Venons-en à la catégorie « contenu utile externalisé ».

    Les polices de caractères (qui déterminent la manière dont sont affichés les caractères des textes, en très résumé) utilisées par Les Jours sont récupérés depuis les sites web Adobe Typekit.net et typography.com. À chaque article consulté par un lecteur, ces services en sont informés (mécanisme HTTP referer, toujours).
        typography.com ne sert à rien : il ne rend aucun service, il redirige vers un objet que vous hébergez vous-même à côté de votre site. Il faudrait que le code de vos pages indique aux navigateurs web de récupérer directement ce fichier au lieu de pointer sur typography.com. C'est 30 minutes de travail d'un informaticien.
        typekit.net peut être évité en stockant vous-même la police à côté de votre site web, sans dépendance externe. C'est 30 minutes de travail d'un informaticien.

    N'étant plus abonné, je ne vois pas si d'autres contenus sont externalisés. Mais, d'une manière générale, internalisez vos contenus et :

    • Si vous voulez partager une vidéo, mettez simplement son lien dans l'article, n'intégrez pas le lecteur Google Youtube (ou autre) ni la vidéo dans le corps de l'article. Si le lecteur des Jours veut voir la vidéo, il suivra le lien et, tant qu'il ne cliquera pas sur ce lien, aucune information sur lui fuitera vers Youtube ;

    • Si vous voulez partager un document PDF, mettez-le à disposition sur votre site, pas chez un quelconque prestataire, comme vos images ;

    • Si vous voulez partager un tweet, n'utilisez pas le gadget Twitter, copiez-collez le texte du tweet et faites-en une citation entre de simples guillemets, comme quand vous restituez un témoignage oral. La fioriture Twitter est inutile ;

    • Si vous voulez partager une visualisation graphique, transformez-la, au préalable, en une image que vous afficherez dans le corps de l'article. Si l'interactivité de la visualisation est importante, mettez un lien vers la visualisation dans le corps de l'article ;
      Tout cela est facile à mettre en œuvre. Donnez au moins le choix à vos lecteurs de se faire voler leur vie privée ou non.

    Si vous ne pouvez pas vous passer de prestataires externes, voici un palliatif facile à mettre en œuvre : demander au service informatique des Jours ou à votre hébergeur informatique de configurer le serveur web des Jours pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation : https://frama.link/rp ). Quand il récupérera une ressource externe (police de caractères stockée chez Adobe, vidéo Google Youtube, etc.) le navigateur web du lecteur des Jours n'indiquera plus sur quelle page des Jours, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article des Jours est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, en fonction du contenu demandé et de son nom, le service externe n'a pas besoin de connaître précisément l'article lu par le lecteur des Jours pour en connaître la teneur. Bref, cette mesure est insuffisante. Mais c'est un premier pas très facile à mettre en œuvre : on parle de moins de 15 minutes de travail d'un informaticien.
        Notons que cela peut réduire la pertinence de vos statistiques Google Analytics.

    Je n'envisage pas de me ré-abonner aux Jours. Parce que le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Un journalisme éthique (indépendance, temps long, etc.) ne me suffit plus. Je n'arrive plus à lire des articles en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités. Le vendeur de journaux sait que j'ai acheté tel journal papier. Personne d'autre. Il ne sait pas ce que j'y aie lu. Personne le sait. Ça doit rester ainsi. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance. La vie privée est un enjeu fort de la presse numérique, à mon avis, et il n'est pas pris au sérieux.

    J'espère que Les Jours fera tous les efforts possibles pour virer les traqueurs et contenus externalisés. Ça serait chouette, un journal encore plus éthique et respectueux de ses lecteurs.

    Cordialement.


    Mediapart

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour,

    Je suis abonné à Mediapart.

    Le 15/05/2018, je vous interpellais, vous et toute la rédaction de Mediapart, par email à propos de tous les dispositifs de flicage à l'œuvre sur le site web de Mediapart. Sujet de mon email : « Pourquoi tant de flicage sur Mediapart ? ». Email envoyé à chrystelle.coupat\@mediapart.fr, edwy.plenel\@mediapart.fr et redaction\@mediapart.fr. Email reçu par votre serveur de courriels. Évidemment, je n'ai pas eu de réponse. C'est courant en pareille matière. Sujet trop technique, trop compliqué, trop chiant, pas le cœur du métier, absence de solution idéale, etc.

    Comme il s'agit d'un sujet important à mes yeux, je retente par courrier postal.

    Je refais un point de théorie nécessaire pour comprendre la problématique.
        Tout contenu externe qui est directement affiché sur le site web de Mediapart (c'est-à-dire qui n'est pas un lien) permet à l'éditeur (et à l'hébergeur) dudit contenu de suivre, au fil des jours, le parcours des lecteurs de Mediapart, sur le site web de Mediapart et en dehors si d'autres sites web ont recours à ce même contenu (c'est le cas d'un traqueur Facebook ou d'une police de caractères hébergée par Google, l'hégémonie de ces sociétés commerciales leur permet de suivre l'activité des citoyens sur le web, de site web qui utilise leurs services en site web qui utilise leurs services).
        Ces éditeurs (et hébergeurs) récupèrent bien sûr l'adresse IP (l'identifiant technique d'un ordinateur ou d'une entité – un foyer domestique, une société commerciale, une administration, etc. – ) du lecteur de Mediapart, mais aussi l'adresse de la page web de Mediapart sur laquelle il se trouve (ça se nomme « HTTP referer »), et donc quel contenu précis le lecteur est en train de lire (ha, celui-ci s'intéresse à la réforme des retraites puis à l'affaire Tapie puis à la chronique d'Usul).
        Ça, c'est le minimum, je passe sur les autres informations qui peuvent être récupérées à propos et à l'insu des lecteurs de Mediapart.

    On peut séparer ces contenus en différentes catégorie : traqueurs publicitaires, traqueurs de profilage / statistiques, et contenu utile mais externalisé. Je préfère le terme de traqueur à celui de pisteur, car sa sémantique est plus proche de la vérité.

    Mediapart n'a pas recours à la publicité, donc la première catégorie est pliée.

    En revanche, Mediapart bombarde ses lecteurs de traqueurs de profilage et de statistiques : Adbutter, Adnxs, Exelator, Selligent (slgnt.eu, emsecure.net), Liveramp (pippio.com), rlcdn , traqueur Facebook, Google Analytics, Xiti, Realytics, Microsoft Azure (Selligent stocke des trucs là-bas) et je dois en oublier...

    Même si l'on refuse les cookies via le message d'information affiché en bas de la page d'accueil de Mediapart, les traqueurs de Selligent et de Realytics demeurent et sont actifs. Ce n'est pas conforme au Règlement européen 2016/679 sur la protection des données personnelles : le refus doit être respecté.

    De plus, ce message d'information est défectueux (j'ai testé avec un navigateur Mozilla Firefox récent et vierge c'est-à-dire sans extensions et avec un profil fraîchement créé)  : il s'affiche une unique fois sur la page d'accueil. Si le lecteur n'y prête pas attention et clique sur un article, le message ne s'affiche plus. Même si le lecteur revient plus tard sur la page d'accueil. Il faut que le lecteur clique sur l'obscur lien « Gestion des cookies » dans le pied de page (quel lecteur normalement constitué va cliquer sur ça ?) ou qu'il efface les cookies de Mediapart de son navigateur web puis qu'il revienne sur la page d'accueil de Mediapart pour avoir à nouveau le choix !
        Pendant ce temps, tous les traqueurs sont activés... sans recueil du consentement du lecteur.
        Ceci n'est pas conforme à la législation sus-citée : le consentement ne peut pas être réputé acquis par défaut, sans action consciente du lecteur.

    La même législation préconise une collecte minimale des données personnelles : collecter uniquement ce dont on a besoin, pas plus. À mes yeux, Mediapart œuvre dans une boulimie de données personnelles concernant ses lecteurs.
        D'abord, parce que plusieurs traqueurs assurent une même fonction comme Google Analytics et Xiti. Les mêmes données sont donc envoyées à deux prestataires pour un intérêt nul.
        Ensuite, parce que je ne comprends pas en quoi un service d'automatisation du marketing (Selligent, Exelator) et une place de marché des données personnelles (Liveramp) liée à Acxiom, l'un des plus gros collecteur de données personnelles de la planète, ou le traqueur Facebook, pour citer seulement ceux-là, sont nécessaires au fonctionnement d'un journal payant. Un journal gratuit, je pourrais comprendre, il faut une source de revenus, donc revente des données personnelles, blablabla, mais quel intérêt de recourir à ces acteurs pour un journal payant ?!
        De même, quel est l'intérêt d'établir des statistiques sur les lecteurs avec Google Analytics et Xiti ? À mes yeux, le nombre d'abonnements est l'indicateur-clé d'un journal payant et il se suffit à lui-même. À quoi bon calculer le nombre de visites et de visiteurs uniques mensuels ?!

    1. Détecter les fraudeurs qui mutualisent un abonnement ? Quelle importance cela a-t-il ? Quel impact sur le chiffre d'affaires cela représente-t-il ?

    2. Adapter la ligne éditoriale en fonction des articles les plus lus ? Le but d'un journal n'est pas de contenter ses lecteurs, mais de les surprendre, de leur ouvrir l'esprit avec des sujets auxquels ils ne s'attendent pas.
          À quoi bon connaître le nombre d'abonnés mobiles / fixes et certains paramètres techniques des ordinateurs des lecteurs ? Si c'est vraiment important pour adapter le comportement du site, il suffit de demander cette information aux lecteurs en leur laissant le choix de ne pas répondre. Même chose pour les autres informations récoltées par Google Analytics : elles me semblent futiles, mais si elles sont vraiment importantes, demandez-les et acceptez qu'on ne vous réponde pas.

    Je pense vraiment que Mediapart peut virer tous les traqueurs sus-nommés sans trop d'effort et sans subir une quelconque perte. Vos confrères des journaux Reflets.info et NextInpact l'ont fait (uniquement pour les abonnés dans le cas du second).
        Au pire, si vous voulez vraiment établir des statistiques sur vos lecteurs en conservant le même niveau de service, faites-le en interne, sans recourir à des services tiers (Xiti, Google Analytics) qui fliquent les lecteurs. C'est possible avec le logiciel Matomo, par exemple. Là encore, vos confrères de Reflets.info ont déjà la configuration informatique qui fonctionne.

    Venons-en à la catégorie « contenu utile externalisé » :

    • Quand vous partagez une vidéo (exemple : https://frama.link/mp-usul ), la vidéo Google Youtube est directement intégrée dans le contenu, dans le corps de l'article de Mediapart, dans la page web. Ainsi, Google Youtube (et sa régie publicitaire Doubleclick) est informée que telle personne, qu'elle peut marquer comme étant un lecteur de Mediapart, a visité telle page du site web de Mediapart (et vu que la régie de Google est centrale sur le web, Google est en mesure de nous suivre entre les sites web que nous visitons) ; -

    • Quand vous relayez un tweet (exemple : https://frama.link/mp-tw ), vous utilisez le gadget (widget) de Twitter qui est alors intégré dans le site web de Mediapart. Twitter est informée que telle personne, qu'elle peut marquer comme étant un lecteur de Mediapart, a visité telle page de Mediapart (et la position centrale de twitter lui permet de filer les gens entre les sites web) ;

    • Quand vous partagez un document PDF (exemple : https://frama.link/mp-doc , voir la phrase « dix ans d\'inéligibilité chacun (le jugement est à lire ici). »), vous utilisez le service Adobe Document Cloud. La société commerciale Adobe est informée qu'un lecteur blablabla je ne vous refais pas le topo ;

    • Quand vous partagez une visualisation graphique (exemple : https://frama.link/mp-gp , voir la carte du monde de la section « Justice sociale, démocratie, corruption... les racines des soulèvements ») ou un graphique (exemple : https://frama.link/mp-gp2 ) vous utilisez les services externes flourish.studio ou highcharts.com. Ils sont informés... ... ... ;

    • Quand vous intégrez certains des types de contenu sus-mentionnés, vous utilisez également les services de la société commerciale embed.ly qui propose de « grow your audience ». Encore une fois, je n'en vois pas l'intérêt pour un journal payant et cela informe embed.ly des lectures des abonnés. D'un point de vue technique, les plateformes de vidéo sus-citées ont déjà l'infrastructure technique nécessaire pour survivre aux abonnés de Mediapart, pas besoin d'ajouter un intermédiaire qui fait double emploi.

    Pour remédier à cette situation, il faut internaliser, et cela passe par du travail d'informaticien (pour concevoir les outils adaptés à l'ensemble de la rédaction), par de la formation (car les journalistes de Mediapart, comme tout le monde, ont été formés sur des outils, donc leur usage en est mimétique, routinier) et par une conduite du changement auprès des journalistes. Ce n'est pas gagné. Néanmoins, quelques actions simples constitueraient un progrès  :

    • Si vous voulez partager une vidéo, mettez simplement son lien dans l'article, n'intégrez pas le lecteur Youtube (ou autre) ni la vidéo. Si le lecteur de Mediapart veut voir la vidéo, il suivra le lien ;

    • Si vous voulez partager un document PDF, mettez-le à disposition sur votre site (static.mediapart.fr), pas chez Adobe. Vous le faites parfois (exemple : https://frama.link/mp-doc2 ) ;

    • Quand vous voulez partager un tweet, n'utilisez pas le gadget Twitter, copiez-collez le texte du tweet et faites-en une citation entre de simples guillemets, comme quand vous restituez un témoignage oral. La fioriture Twitter est inutile ;

    • Si vous voulez partager une visualisation graphique, transformez-la, au préalable, en une image que vous afficherez dans le corps de l'article. Si l'interactivité de la visualisation est importante, mettez un lien vers la visualisation dans le corps de l'article ;

    • Cessez de recourir aux services de la société commerciale embed.ly ;
      Tout cela est facile à mettre en œuvre. À défaut d'agir plus en profondeur, donnez au moins le choix à vos lecteurs de se faire voler leur vie privée ou non.

    Autre mesure facile à mettre en œuvre : demander au service informatique de Mediapart de configurer le serveur web de Mediapart pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation : https://frama.link/mp-rp ). Quand il récupérera une ressource externe (vidéo Google Youtube, document PDF stocké chez Adobe, etc.) le navigateur web du lecteur de Mediapart n'indiquera plus sur quelle page de Mediapart, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article de Mediapart est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, si le navigateur web d'un lecteur de Mediapart lui demande d'afficher le document nommé « De-Cision-2e-Dossier-Balkany-18-Octobre-2019 », le service Document Cloud d'Adobe n'a pas besoin de connaître précisément l'article lu par le lecteur de Mediapart pour en connaître la teneur. Bref, cette mesure est insuffisante, mais c'est mieux que rien en attendant la transition. On parle de moins de 15 minutes de travail d'un informaticien.
        Notons que cela peut réduire la pertinence de vos statistiques Google Analytics / Xiti.

    Pour la suite, à plus long terme, vous pourrez envisager de remplacer Google Youtube par PeerTube (https://joinpeertube.org/ ) pour stocker et diffuser vos vidéos, même si ça ne couvrira pas tous vos usages (notamment les soirées Mediapart en direct). Vos confrères de Thinkerview l'ont fait.

    Pour conclure, je ne comprends pas comment un journal qui se veut plus éthique que la moyenne (indépendance, participation du lecteur, fonctionnement démocratique, etc.) sombre aussi bas dans l'irrespect de la vie privée de ses lecteurs.
        Dans les ambitions initiales du projet, on lit qu'un des défis sera « l'innovation continue en matière de Web ». Prouvez-le ? Le respect de la vie privée est un enjeu technique et politique majeur de ce siècle et il reste entier. Il nécessite des financements (formation, programmation informatique, etc.). Go go go ?
        Dans le même projet, on lit que « seul le Web est lu par la génération des 20 à 30 ans qui n'achète plus de quotidien papier ». J'en fais partie et je me concentre principalement sur les titres papiers justement parce que quasiment aucun offre journalistique en ligne respectueuse de la vie privée existe. Au moins, quand je lis du papier, l'éditeur ne sait pas quels articles j'ai lu. Ni lui ni personne. Le vendeur de journaux sait que j'ai acheté tel journal. Personne d'autre. Et si ça se trouve, je l'ai acheté pour autrui.

    J'envisage de résilier mon abonnement à Mediapart. Non par chantage, mais parce que le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Un journalisme éthique ne me suffit plus. Je n'arrive plus à lire des articles en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités et ça doit le rester. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance.
        La vie privée est un enjeu fort de la presse numérique, à mon avis, et il n'est pas pris au sérieux.

    J'espère que Mediapart fera tous les efforts possibles pour virer tous les traqueurs et internaliser au maximum le stockage des contenus et leur diffusion. Ça serait chouette, un journal encore plus éthique et respectueux de ses lecteurs.

    Cordialement.


    Numerama

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour,

    J'étais un lecteur de Numerama.

    Un abonnement à Numerama respectueux des lecteurs (sans publicité, sans traqueurs / pisteurs et sans contenu sponsorisé) est-il prévu à moyen terme ? Je n'en peux plus de toute cette publicité et de tous ces traqueurs (je préfère ce terme à celui de pisteur, car sa sémantique est plus proche de la vérité) présents sur le site web de Numerama. C'est insupportable, il y en a partout : fond du site, colonne droite, et en plein milieu des articles. Je ne me vois pas recommander Numerama à un novice. On pourrait imaginer un modèle double : payant sans publicité ni traqueur, gratuit avec publicité et traqueurs. Vos confrères du journal NextInpact l'ont fait.

    D'ailleurs, le message d'information en bas de page concernant les cookies et le ciblage est défectueux. J'ai testé avec un navigateur Mozilla Firefox récent et vierge c'est-à-dire sans extensions et avec un profil fraîchement créé. Même quand on refuse tout, des requêtes partent vers Google, Criteo, Sddan, Amazon, Rubiconproject, Adnsxs, Estat et tant d'autres. Si je reviens sur cette page en cliquant sur le lien « Préférences publicitaires » du pied de page, que je clique sur « Paramétrer vos choix », je constate que tous les curseurs sont sur la valeur « refusé ».
        Ce comportement n'est pas conforme au Règlement européen 2016/679 sur la protection des données personnelles : le non consentement à la collecte de données personnelles n'est pas respecté.

    Dans un deuxième temps (une fois la publicité retirée), vous pourriez réfléchir à vous passer d'outils de statistiques concernant les visiteurs (ben oui, quel en est l'intérêt dans un modèle payant ? Le nombre d'abonnés est l'indicateur-clé). Au pire, si vous voulez vraiment établir des statistiques sur vos lecteurs en conservant le même niveau de service, faites-le en interne, sans recourir à des services tiers (Google Analytics, Xiti, etc.) qui fliquent les lecteurs. C'est possible avec le logiciel Matomo, par exemple. Vos confrères de Reflets.info ont déjà la configuration informatique qui fonctionne.

    Dans le même temps, vous pourriez internaliser tous les contenus, ou, à défaut, proposer des liens plutôt que d'intégrer des contenus externes. Je rappelle que l'entête HTTP referer indique, aux fournisseurs de contenus externes, l'URL de la page sur laquelle le lecteur de Numerama se trouve, ce qui permet de suivre le lecteur dans sa lecture sur Numerama et au-delà si l'éditeur / hébergeur du contenu est hégémonique.
        Vous utilisez une police de caractères stockée chez Google (fonts.gstatic.com). Ça s'internalise en moins de 15 minutes et ça évite aux lecteurs de se faire pister par le géant Google.
        Aujourd'hui, sur la page d'accueil de Numerama, il y a une vidéo Youtube pour votre dernier test d'un véhicule quelconque. Proposez un lien plutôt que d'intégrer la vidéo sur votre site web. Le lecteur cliquera si ça l'intéresse. Laissez le choix au lecteur de se faire dérober une partie de sa vie privée si ça l'intéresse, mais ne forcez pas.
        Même chose pour les autres contenus. Pas besoin du gadget (widget) Twitter et de sa fioriture pour illustrer un article avec un tweet, une simple citation entre guillemets et un lien vers le tweet suffisent. Si vous voulez partager une visualisation graphique externe (une mappemonde, un graphique, etc.), proposez un lien vers ce contenu, ne l'intégrez pas dans le corps de l'article ou alors sous la forme d'une image.

    Si vous ne parvenez pas à vous passer de contenus externes, voici un palliatif : configurer le serveur web de Numerama pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation technique : https://frama.link/rp ). Quand il récupérera une ressource externe (police de caractères stockée chez Google, vidéo Google Youtube, tweet, etc.) le navigateur web du lecteur de Numerama n'indiquera plus sur quelle page du Numerama, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article de Numerama est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, en fonction du contenu demandé et de son nom, le service externe n'a pas besoin de connaître précisément l'article lu par un lecteur de Numerama pour en connaître la teneur. Bref, cette mesure est insuffisante.
        Notons que cet entête peut semer la zizanie chez vos prestataires publicitaires.

    Dans l'attente d'efforts de votre part, je vais cesser de lire Numerama. Le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Je n'arrive plus à lire des articles en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités. Le vendeur de journaux sait que j'ai acheté tel journal papier. Personne d'autre. Il ne sait pas ce que j'y aie lu. Personne le sait. Ça doit rester ainsi. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance. La vie privée est un enjeu fort de la presse numérique, à mon avis, et il n'est pas pris au sérieux.

    J'espère que Numerama fera tous les efforts possibles pour virer la publicité, le traqueur Google Analytics et les contenus externalisés. Ça serait chouette, un journal indépendant, éthique et respectueux de ses lecteurs pour traiter les sujets numériques à côté de NextInpact.

    Cordialement.


    Siné mensuel

    Format PDF pour la lecture | Format LibreOffice / OpenOffice pour la modification.

    Objet : demande d'améliorations en matière de respect de la vie privée des lecteurs

    Bonjour,

    J'achète Siné mensuel tous les mois chez mon marchand de presse préféré. J'ai aussi acheté Siné madame (bien tenté).

    Je me permets un point de théorie nécessaire pour comprendre la problématique que je vais soulever.
        Tout contenu externe qui est directement affiché sur le site web de Siné mensuel (c'est-à-dire qui n'est pas un lien) permet à l'éditeur (et à l'hébergeur) dudit contenu de suivre, au fil des jours, le parcours des lecteurs de Siné sur le site web de Siné et en dehors si d'autres sites web ont recours à ce même contenu (c'est le cas d'un traqueur Facebook ou d'une police de caractères hébergée par Google, l'hégémonie de ces sociétés commerciales leur permet de suivre l'activité des citoyens sur le web, de site web qui utilise leurs services en site web qui utilise leurs services).
        Ces éditeurs (et hébergeurs) récupèrent bien sûr l'adresse IP (l'identifiant technique d'un ordinateur ou d'une entité – un foyer domestique, une société commerciale, une administration, etc. – ) du lecteur de Siné, mais aussi l'adresse de la page web de Siné sur laquelle il se trouve (ça se nomme « HTTP referer »), et donc quel contenu précis le lecteur est en train de lire (ha, celui-ci s'intéresse à la démocratie participative à Saillans, puis à la réforme de la loi Bichet puis à la résistance des libertaires en Grèce).
        Ça, c'est le minimum, je passe sur les autres informations qui peuvent être récupérées à propos et à l'insu des lecteurs du site web de Siné.

    On peut séparer ces contenus en différentes catégorie : traqueurs publicitaires, traqueurs de profilage / statistiques, et contenu utile mais externalisé. Je préfère le terme de traqueur à celui de pisteur, car sa sémantique est plus proche de la vérité.

    Le site web de Siné Mensuel n'a pas recours à la publicité, donc la première catégorie est pliée.

    Le site web de Siné utilise un unique traqueur de profilage et de statistiques : Google Analytics fourni par la multinationale du même nom.

    Quel est l'intérêt d'établir des statistiques sur les lecteurs ? Compte-tenu que le site web reprend les contenus publiés dans l'édition papier, le nombre d'abonnements et de ventes est l'indicateur-clé et il se suffit à lui-même. À quoi bon calculer d'autres statistiques (nombre de visites, de visiteurs) ?! À quoi bon connaître le nombre de lecteurs mobiles / fixes et certains paramètres techniques des ordinateurs des lecteurs compte-tenu de la proéminence de la version papier ? Si c'est vraiment important pour adapter le comportement du site, il suffit de demander cette information aux lecteurs en leur laissant le choix de ne pas répondre. Même chose pour les autres informations récoltées par Google Analytics : elles me semblent futiles, mais si elles sont vraiment importantes, demandez-les et acceptez qu'on ne vous réponde pas.

    Je pense vraiment que Siné peut virer le traqueur Google Analytics sans trop d'effort et sans subir une quelconque perte. Vos confrères des journaux Reflets.info et NextInpact l'ont fait (uniquement pour les abonnés dans le cas du second).
        Au pire, si vous voulez vraiment établir des statistiques sur vos lecteurs en conservant le même niveau de service, faites-le en interne, sans recourir à des services tiers qui fliquent les lecteurs. C'est possible avec le logiciel Matomo, par exemple. Là encore, vos confrères de Reflets.info ont déjà la configuration informatique qui fonctionne.

    Venons-en à la catégorie « contenu utile externalisé ».

    Plusieurs composants du site web de Siné sont hébergés à l'extérieur, par d'autres entités que votre hébergeur (1&1).
        C'est le cas de polices de caractère (qui déterminent la manière dont sont affichés les caractères des textes, en très résumé) qui sont stockées chez Google (fonts.gstatic.com et fonts.googleapis.com). Vous pourriez utiliser les mêmes polices en les stockant sur votre hébergement, à côté de votre site web WordPress, comme les dessins de vos articles. Le passage de l'état actuel à l'état que je propose devrait vous prendre moins de 15 minutes de travail et retire une dépendance à Google et un traqueur, ce qui permet de ne pas communiquer à Google d'informations sur vos visiteurs (voir le paragraphe de vulgarisation ci-dessus).
        C'est aussi le cas de styles (mise en forme du site web) et de scripts (des bidules qui s'exécutent dans le navigateur web des lecteurs afin de proposer des fonctionnalités dynamiques plus ou moins utiles) qui sont hébergés chez BootstrapCDN, Google (ajax.googleapi.com) et CloudFlare (cdnjs.cloudflare). Là encore, internaliser tout ça, stocker tout ça sur votre hébergement, c'est possible, ça prend 30 minutes, et ça vous débarrasse d'une dépendance à autrui et le lecteur d'un traqueur.

    Vous utilisez le mécanisme ReCAPTCHA fourni par la multinationale Google (encore !). Normalement, cela sert à protéger les formulaires (de contact, d'inscription de newsletter, etc.) de robots qui pourraient spammer lesdits formulaires. Normalement, il faut positionner ReCAPTCHA uniquement sur les formulaires. Là, vous avez fait le choix, curieux, de le mettre sur toutes les pages du site. Donc, à chaque fois qu'un lecteur lit un article, pouf, Google en est informé (HTTP referer, toujours). Pas cool. Actuellement, vous n'avez plus de formulaires, donc ReCAPTCHA pourrait être totalement supprimé.
        J'ai vu que le seul formulaire qui a existé était pour s'inscrire à une newsletter. Deux remarques.
        La première : plutôt que d'utiliser le service de la société commerciale Mailchimp (qui remplit les emails de traqueurs permettant de s'assurer que les destinataires ont cliqué sur les liens proposés dans le contenu de l'email), vous pourriez utiliser le service de liste de diffusion (ce qu'est une newsletter) Framalistes (https://framalistes.org/ ) de l'association française Framasoft (https://framasoft.org/ ) qui œuvre pour des services numériques éthiques. Ceci dit, la transition demande pas mal de travail.
        Deuxième remarque : si votre newsletter Mailchimp devait revenir, isolez son formulaire d'inscription sur une page web dédiée et mettez un lien vers cette page dans les menus du site. N'intégrez pas directement le formulaire Mailchimp dans les menus / colonnes du site web. En faisant ainsi, seuls les visiteurs qui veulent s'inscrire, qui auront cliqué sur le lien, qui seront arrivés sur la page dédiée seront traqués par Mailchimp. Ça se fait rapidement et quasiment sans travail.

    Vous utilisez également des vidéos Google Youtube. Ne les intégrez pas dans vos articles. Préférez les pointer avec des liens. Ainsi, seuls les lecteurs qui veulent vraiment voir ces vidéos seront traqués par Google. Si vous voulez aller plus loin, vous pouvez remplacer Google Youtube par PeerTube (https://joinpeertube.org/ ). Vos confrères de Thinkerview l'ont fait. Mais la transition demandera vraiment pas mal de boulot.

    D'une manière générale, si vous souhaitez afficher des contenus externalisés dans vos articles, ne les intégrez pas dans le corps de vos articles, mais pointer ces contenus avec un lien. Ainsi, seuls les lecteurs désireux d'en apprendre plus cliqueront sur le lien et verront des bouts de leur vie privée être collectés par ces contenus externes.
        Pas besoin du gadget (widget) Twitter et de sa fioriture pour illustrer un article avec un tweet : une simple citation entre guillemets et un lien vers le tweet suffisent.
        Si vous voulez partager une visualisation graphique externe (une mappemonde, un graphique, etc.), proposez un lien vers ce contenu, ne l'intégrez pas dans le corps de l'article ou alors sous forme d'une image.
        Etc.
    Bref, laissez le choix au lecteur de se faire fliquer ou non. Mieux, internalisez les contenus que vous utilisez, stockez-les chez votre hébergeur, à côté de votre site web.

    Si vous ne pouvez pas vous passer de contenus externes, voici un palliatif : configurez le serveur web du site web de Siné pour qu'il envoie l'entête HTTP « Referrer-Policy » (documentation technique : https://frama.link/rp ). Quand il récupérera une ressource externe (police de caractères stockée chez Google, vidéo Google Youtube, etc.) le navigateur web du lecteur du site web de Siné n'indiquera plus sur quelle page du site web Siné, dans quelle URL précise, il a trouvé cette ressource. Ainsi, le service externe ne saura pas quel article du site web de Siné est lu par tel lecteur.
        Notons qu'il s'agit d'une mesure faible : il y a des fuites et, en fonction du contenu demandé et de son nom, le service externe n'a pas besoin de connaître précisément l'article lu par le lecteur de Siné pour en connaître la teneur.
        Bref, cette mesure est insuffisante. Mais c'est un premier pas très facile à mettre en œuvre (on parle de 15 minutes de travail).

    Le respect de ma vie privée est une valeur importante. J'ai besoin de ça. Un journalisme éthique (indépendant, critique, avec des dessins de presse, etc.) ne me suffit plus. Je n'arrive plus à lire des articles en ayant en tête que ma vie privée dégueule chez tout un tas de sociétés commerciales par la faute du site web qui prétend m'informer. Les protections techniques utilisables par une personne lambda sont d'illusoires passoires.
        Avec les journaux papier, il était inimaginable de se faire renifler le cul sans consentement par xx entités. Le vendeur de journaux sait que j'ai acheté tel journal papier. Personne d'autre. Il ne sait pas ce que j'y aie lu. Personne le sait. Ça doit rester ainsi. Le secret des lectures est aussi vital pour la démocratie que le secret du vote. Personne doit être en capacité de pouvoir un jour reprocher ses lectures à quelqu'un. Il ne peut y avoir de pensée autonome sous surveillance. La vie privée est un enjeu fort de la presse numérique, à mon avis, et il n'est pas pris au sérieux.

    Pour ces raisons, et d'autres, je continuerai d'acheter la version papier de Siné Mensuel, mais j'espère que Siné fera tous les efforts possibles pour virer le traqueur Google Analytics et les contenus externalisés (au moins la police de caractères, les scripts et reCAPTCHA, c'est moins d'une heure de travail). Ça serait chouette, un Siné avec un site web éthique et respectueux des lecteurs. C'est important, un tel site web : ça donne envie de partager des contenus que l'on a appréciés dans la version papier auprès de non lecteurs.

    Cordialement.

    Thu Apr 9 18:54:26 2020 - permalink -
    - http://shaarli.guiguishow.info/?zdyfog
  • Quand un citoyen veut en savoir plus sur sa presse - GuiGui's Show

    J'ai mis à jour mon article qui vise à en savoir plus sur ce qui se cache derrière les journaux que je lis (ou que j'ai envisagé de lire (genre ça m'a passé l'envie de lire Le Monde, Marianne, Politis et Numerama) : actionnariat, aides financières, pub, flicage numérique, indépendance fonctionnelle, etc.

    Changements :

    • Ajout des dernières aides publiques et privées connues pour Fakir, Marianne, Le Monde, Les Jours, Basta !, Politis et La Revue Dessinée ;

    • Vérification et éventuelle mise à jour de l'indicateur de flicage numérique pour Le Canard enchaîné, Fakir, Siné mensuel, Mediapart, Numerama, Next INpact, Les Jours, Basta ! et Arrêt sur images ;

    • Ajout du journal satirique en PACA Le Ravi puisque je le lis depuis mi-2018.
    Wed Apr 8 18:55:39 2020 - permalink -
    - http://shaarli.guiguishow.info/?1LTOfw
  • Contrepèteries (quater)

    Des confinés ont du mal à piger
    Confinés pas prêts
    Des turnes sentent la bouffe
    Les confinés sont-ils à l'abri des pannes ?
    Ces parents ont bonne mine.
    Face aux ados dans les lycées, aux pions et aux confinés, Blanquer prétend réctifier le notions !
    Oh, des rapins toussent !
    Le feu à la Nièvre
    Contentieux évités : les débiteurs traquent !
    Que de kinés confus !



    Mes trouvailles :

    Des confinés ont du mal à piger
    Confinés pas prêts
    Des turnes sentent la bouffe
    Les confinés sont-ils à l'abri des pannes ?
    Ces parents ont bonne mine.
    Face aux ados dans les lycées, aux pions et aux confinés, Blanquer prétend réctifier les notions !
    Oh, des rapins toussent !
    Le feu à la Nièvre (Le nœud ‒ bout du zboub ‒ a la fièvre ?)
    Contentieux évités : les débiteurs traquent !
    Que de kinés confus ! (Que de culs nés confis ?)

    Dans le Canard enchaîné du 8 avril 2020.

    Wed Apr 8 13:03:23 2020 - permalink -
    - http://shaarli.guiguishow.info/?2lWW0Q
  • Réduire le flicage web avec Referrer-Policy

    Résumé : si t'es adminsys ou développeur d'un site web qui utilise des ressources externes (CSS, police de caractères, JS, frames vidéo / tweet / carte géographique, CAPTCHA etc.) à gogo hébergées chez les géants du net (Google, CloudFlare, Adobe, BootstrapCDN, jsDelivr, Youtube/Vimeo/Dailymotion) que tu ne peux pas virer, ajoute au moins l'entête HTTP « Referrer-Policy "no-referrer" » côté serveur ou dans le code. Cela limite un peu le flicage des visiteurs de ton site web par les quelques géants économiques sus-cités, y compris celui des visiteurs sans connaissances techniques (pour les autres, il y a Smart Referer pour Firefox). Ces acteurs ne seront plus en mesure de suivre tes visiteurs sur ton site (quelles pages il a consulté) ni entre les sites (leur position hégémonique le leur permet). Ça complète les récents blocages par défaut des traqueurs et des cookies tiers par les navigateurs web. Les sites web internes (intranet, webmail, messagerie web, lecteur de flux RSS, etc.) restent d'excellents clients de « Referrer-Policy "no-referrer" » afin d'éviter de dévoiler leur existence au monde.

    Il y a quelques mois, j'évoquais l'entête HTTP nommé « Referrer-Policy ». Je n'en avais pas capté tout le potentiel, donc revenons dessus.

    Quand il suit un lien (intra-site ou inter-sites web), un navigateur web indique, à la page web de destination, de quelle page de quel site web il vient. C'est l'entête HTTP « Referer ». Exemple : « Referer: https://www.mediapart.fr/journal/economie/130218/les-milliardaires-de-la-presse-gaves-d-aides-publiques-et-privees » signifie que le navigateur vient de cet article précis de ce journal précis et que l'utilisateur a cliqué sur un lien situé dans cette page.

    Cet entête est journalisé côté serveur web. C'est même la configuration par défaut du serveur web le plus utilisé, Apache httpd. Cela crée donc un journal qui associe une date, un Referer, une page web demandée et d'autres infos à une adresse IP. Exemple : « 2001:db8::1 - - [07/Apr/2020:16:09:03 +0200] "GET /?rc4hwA HTTP/1.1" "https://www.google.fr/" "Mozilla/5.0 (X11; Linux x86_64; rv:68.0) Gecko/20100101 Firefox/68.0" ». Le 07 avril 2020 à 16 h 09 m 43 s, l'adresse IP « 2001:db8::1 », utilisant un navigateur web Mozilla Firefox version 68 sur un système GNU/Linux, en provenance de Google Search, a demandé à consulter ma page web « /?rc4hwA ». Cette personne est donc arrivée sur mon site web après une recherche sur Google.

    Ce Referer est également transmis à chaque fois qu'un élément constitutif d'une page web (image, police de caractère, contenu encapsulé comme une vidéo, CSS, Javascript, etc.) est récupéré. Or, sur tout site web moderne, le CSS est récupéré depuis BootstrapCDN, la police de caractère depuis Google, le Javascript depuis CloudFlare, la vidéo encapsulée depuis Google Youtube, le CAPTCHA depuis Google, etc. et les statistiques sont envoyées à Google Analytics. Les noms sont des exemples parmi d'autres. Je le déplore, ce n'est pas le web authentique, mais c'est un fait.

    Cela signifie qu'une poignée d'acteurs économiques (Google, CloudFlare, BootstrapCDN, jsDelivr, etc.) consignent une association adresses IP + Referer. Comme tout le monde utilise leurs services, ils peuvent suivre notre navigation au sein d'un site web et entre les sites web. Untel a lu tels et tels articles dans le Figaro (il y a l'URL complète dans le Referer, voir ci-dessus), puis il a été sur tel site de rencontre et il y a regardé tels et tels profils (URL complète, toujours ;) ) puis il a consulté tel autre site web. Tout ce flicage se fait sans cookies (d'ailleurs, ces acteurs n'en déposent généralement pas quand on récupère CSS, police, etc.). Je ne dis pas que ces acteurs vont utiliser ces informations à mauvais escient, mais ils les collectent. Or, une collecte sans utilisation aujourd'hui peut conduire à une compromission de la vie privée demain (décision de la Cour de Justice de l'Union Européenne Digital Rights Ireland de 2014). C'est l'évidence même, comme une sextape sans utilisation malveillante aujourd'hui laisse la porte ouverte à un chantage demain.

    Si tu veux pinailler sur la technique (sinon saute au prochain paragraphe), je dois écrire qu'il y a des exceptions au point précédent.

    • Par défaut avec Mozilla Firefox, le Referer n'est pas envoyé quand on passe d'un site web HTTPS (chiffrement) à un site web HTTP (pas de chiffrement). C'est la politique dite « no-referrer-when-downgrade ». Ce comportement par défaut est modifiable dans la configuration avancée de Firefox mais le faire rend la navigation web parfois invivable ;

    • De même, si une police de caractères est chargée depuis un CSS, alors c'est l'URL du CSS qui est renseignée comme Referer. Si le CSS est externalisé, chez BootstrapCDN par exemple, alors c'est BootstrapCDN qui est consigné dans le Referer, pas le site web d'origine. D'autres ressources peuvent être dans cette situation.

    Pour se prémunir de ce flicage, il est possible d'installer l'extension Firefox Smart Referer. Elle permet de contrôler la diffusion du Referer, y compris de l'autoriser automatiquement sur les sites web qui ne fonctionnent pas sans lui (cela fonctionne avec une liste blanche). Par défaut (si le site web n'est pas dans une liste blanche), cette extension envoie l'URL de la destination comme Referer.

    Seule une minorité de personnes installera cette extension (ou équivalent) par manque de connaissances. Or, la vie privée est pour tout le monde. L'éditeur d'un site web (ou ses sous-traitants développeurs et hébergeurs) peut positionner l'entête « Referrer-Policy » sur son site afin d'indiquer au navigateur web de ses visiteurs de ne pas transmettre le Referer ou de le caviarder en fonction des situations. Cela peut se faire dans la configuration du serveur web, y compris celle déportée que constitue un fichier « htaccess », ou dans le code du site (PHP, XHTML, etc.).

    Exemple Apache httpd (y compris .htaccess) :

    Header set Referrer-Policy "same-origin"

    Exemple nginx :

    add_header Referrer-Policy "same-origin";

    On peut aussi le définir dans le code du site web. Exemple en PHP :

    header('Referrer-Policy: "same-origin"');

    Ou dans une balise XHTML (méthode retenue par Google Search + valeur « origin » afin que les sites visités à partir de lui voient que les visites viennent de Google mais ne voient pas les mots-clés recherchés) :

    <meta name="referrer" content="same-origin">

    Dans ces exemples, j'interdis l'émission du Referer en dehors du même site web. Pour être exact, je l'interdis dès qu'un des membres du triptyque protocole+domaine+port diffère, donc les sous-domaines d'un site web seront considérés comme des sites web externes, donc le Referer ne sera pas transmis.

    D'autres politiques sont possibles comme envoyer uniquement le domaine au lieu de l'URL complète (« origin ») comme le fait Google sur son moteur de recherche ou ne pas transmettre du tout le Referer (« no-referrer »).

    La politique du Referer n'a pas d'impact sur les outils de statistiques (Google Analytics, Xiti, Matomo ‒ anciennement Piwik ‒, etc.).

    • L'origine de la visite (moteur de recherche, site web, etc.) sera jamais perdue, même avec la valeur la plus stricte, « no-referrer ». C'est logique : la politique du site d'où l'on vient s'applique à la page web en cours, la politique de cette dernière s'applique aux éléments qui la constituent (images, CSS, etc.) et aux pages (internes et externes) sur lesquelles on ira par la suite en suivant un lien. Notons qu'avec « no-referrer », la requête HTTP récupérant le fichier JS qui constitue l'outil de statistiques (ga.js, matomo.js, etc.) ne contiendra pas de Referrer, mais le script sera autorisé à utiliser l'élement Javascript « document.referrer » afin de récupérer celui de la page web. Dit autrement : le Referer positionné (ou non) sur la requête de récupération de l'outil statistique a aucune importance ;

    • La fonctionnalité « pages les plus lues du site web » ne se base pas non plus sur le Referer. J'ai testé avec Matomo (instance auto-hébergée sur un sous-domaine, configuration par défaut, utilisation du traqueur Javascript).

    Il faut quand même prêter attention aux très vieux sites web qui utilisent le Referer pour valider l'envoi de formulaires web ou autre. Ça fait 15 ans que les bonnes pratiques commandent de ne pas faire ça car ça n'apporte pas de sécurité, mais bon… Au quotidien, au niveau mondial, la liste des sites qui cessent de fonctionner en l'absence de Referer est très maigre, la liste blanche de Smart referer en est l'illustration. Mais ça peut être plus touchy sur des sites web internes / maison.

    Évidemment, il y a des cas où cet entête ne fonctionne pas :

    • D'autres entêtes HTTP communiquent l'URL plus ou moins complète du site web sur lequel nous naviguons. C'est le cas de l'entête « Origin » positionnées dans les requêtes AJAX (XMLHttpRequest) ou dans les requêtes de récupération d'une police de caractères depuis un fichier CSS (« @font-face ») ou dans d'autres cas encore. Ces fuites ne peuvent être évitées (pas même avec l'extension Smart Referer) car elles participent à la politique de sécurité dite CORS ;

    • Les contenus encapsulés, comme une vidéo Youtube, sont autonomes, indépendants de la page web qui les incruste, donc ils appliquent leur propre politique de transmission du Referer ou celle par défaut du navigateur web (pour Firefox : transmettre sauf si passage de HTTPS à HTTP).

    Le mieux est donc d'internaliser tous les éléments qui composent ton site web, CSS, police de caractères, jquery, outil de statistiques (Matomo ‒ anciennement Piwik ‒ et son guide de configuration par la CNIL sont là pour ça, etc.) et de préférer un lien vers un contenu externe (vidéo, carte géographique, Twitter, etc.) à son inclusion sur la page sous forme de widget / gadget. Au moins, le visiteur ne se fait pas renifler le cul sans le savoir par les mêmes acteurs hégémoniques, et, s'il suit un lien, il le fait en connaissance de cause, en acceptant la politique du site web pointé, il a le choix.

    L'internalisation à d'autres avantages :

    • Pas de dépendances à des acteurs économiques avec lesquels tu n'as pas de contrat donc aucune assurance de pérennité ni garantie d'absence de panne (Google a déjà été en panne, CloudFlare aussi). C'est dommage de ne plus avoir de mise en forme sur son site car un acteur toussote à l'autre bout d'Internet… ;

    • Site web moins long à charger car moins de requêtes DNS+TLS+HTTP à effectuer.

    Comme un décideur ou un développeur aura toujours une bonne excuse pour ne pas internaliser (« pas la priorité », « pas le temps », « le gain est faible », « je ne connais pas assez mon framework pour savoir si c'est possible »), l'entête Referrer-Policy est un premier pas pour nettoyer un site web et protéger un poil plus la vie privée des visiteurs. Je recommande la valeur « no-referrer ».

    Je trouve qu'une politique du Referer ferme complète assez bien le récent blocage par défaut des traqueurs tiers par Mozilla Firefox et le très récent blocage par défaut de tout cookie tiers par Apple Safari. Les principaux traqueurs et les cookies tiers éliminés sans action de l'utilisateur, il reste le Referer, les traqueurs déguisés et les contenus externalisés. Avec une politique du Referer ferme, il reste les traqueurs masqués, dont uBlock Origin sait s'occuper depuis peu (mets-le à jour), et les contenus externalisés à outrance. On progresse. La vie privée progresse.

    Ce que j'ai écrit dans mon dernier shaarli sur Referrer-Policy reste valable : je recommande vivement son usage sur des sites web internes : intranet, webmail, messagerie web comme Mattermost (dès que quelqu'un envoie une image, vidéo, URL, le contenu est récupéré automatiquement et affiché), lecteur de flux RSS, etc. Cela évite les fuites, cela évite d'informer l'extérieur de l'existence de ressources internes (je simplifie, d'autres fuites restent possibles, au niveau DNS, par exemple, mais, pour en """"bénéficier"""", il faut être dans un cercle relativement fermé).

    Tue Apr 7 23:23:30 2020 - permalink -
    - http://shaarli.guiguishow.info/?cVuGzQ
  • Créer facilement et gratuitement des cartes géographiques

    Version courte : utilise Framacarte ou umap. Mode d'emploi. Guides vidéos.

    Tu veux une carte avec un marqueur aux couleurs de ton magasin afin d'en indiquer l'adresse et intégrer / utiliser cette carte sur ton site web ? Avec un éventuel message indiquant les horaires d'ouverture ? Plusieurs marqueurs, un par magasins ? Utilise Framacarte ou umap. Mode d'emploi. Guides vidéos.

    Tu veux une carte avec plusieurs marqueurs afin d'identifier tous les lieux d'un festival ou les points de diffusion d'un journal ou les AMAPs du coin ? Avec d'éventuelles informations et médias (photos, vidéos) pour chaque lieu ? Utilise umap ou Framacarte. Mode d'emploi. Guides vidéos.

    Tu veux cartographier un parcours de randonnée ? Un voyage ? L'enrichir avec des photos / vidéos de chaque étape ? Utilise Framacarte ou umap. Mode d'emploi. Guides vidéos.

    Tu veux cartographier un conflit local ou global ? Des événements historiques ? Les résultats par circonscription d'une élection ? Les câbles sous-marins d'Internet ? Utilise umap ou Framacarte. Mode d'emploi. Guides vidéos.

    Tu veux une carte personnalisable ? Choisir le fond de carte le plus adapté à ton besoin ? Choisir la forme, la couleur, l'opacité, le niveau de zoom, etc. de chaque élément ? Activer ou non la localisation de l'utilisateur ? Minicarte ou non ? Etc. Utilise Framacarte ou umap. Mode d'emploi. Guides vidéos.

    Tu veux que plusieurs personnes (élèves, bénévoles, etc.) collaborent pour créer une des cartes sus-mentionnées ? Tu veux partager une carte sur un site web, par email, etc. ? Utilise umap ou Framacarte. Mode d'emploi. Guides vidéos.

    Tu veux importer des données géographiques existantes (KML, GPX, GeoJSON, CSV, etc.) sur un fond de carte libre de droits ? Utilise Framacarte ou umap. Mode d'emploi. Guides vidéos.

    Tu veux une carte qui se mettra à jour toute seule en fonction d'une base de données distante pré-existante, comme celle des restaurants végan ou des stations vélo d'une ville ? Utilise umap ou Framacarte. Mode d'emploi. Guides vidéos.

    Le plus beau, c'est que cet outil est facile à utiliser et qu'il repose sur l'outil de cartographie libre de droit, communautaire et gratuit OpenStreetMap et le service de Framasoft, une association française qui œuvre pour des services numériques éthiques et respectueux des utilisateurs.

    Mon Apr 6 22:36:25 2020 - permalink -
    - http://shaarli.guiguishow.info/?rc4hwA
  • Construire une carte des câbles sous-marins d'Internet avec OpenStreetMap

    TL;DR : carte OpenStreetMap des câbles sous-marins d'Internet / Internet submarine cables map OpenStreetMap. Ci-dessous, pourquoi et comment construire une telle carte.

    ÉDIT DU 29/08/2023 : depuis le 15/11/2022, TeleGeography a supprimé son dépôt git et ne diffuse plus les données géographiques (« We no longer maintain and update a repository on GitHub for our data or our source code » dans l'infobulle « about » sur leur site web). :( Cette carte n'est donc plus à jour. Dernière version des données géographiques. FIN DE L'ÉDIT.


    Introduction

    Loin d'être virtuel, Internet repose sur des infrastructures physiques dont des câbles sous-marins en fibre optique (qu'il faut entretenir contre l'usure, les événements naturels ou humains, les sabotages, etc.).

    La liste de ces câbles, leurs stations d'atterrissement et leur tracé est environ public (environ car le tracé ne l'est pas de manière précise). Nous disposons de l'excellent site web Submarine Cable Map.

    Néanmoins, cet existant, cette carte, me pose deux problèmes :

    • Elle repose sur le service Maps de la multinationale Google. Ça pose les habituelles questions de dépendance vis-à-vis d'un acteur unique hors contrat, de pérennité et de respect de la vie privée ;

    • Elle est plutôt unique, donc elle peut disparaître promptement. À titre d'exemple, les repreneurs du site web historique en la matière, cablemap.info, demandent une inscription préalable, donc, en pratique, cette carte publique a disparu. J'ai vu que les sources du site web sont disponibles (donc que quiconque peut en héberger une copie), mais node.js, yarn et compagnie, ça sera sans moi (et ça ne résout pas la dépendance à Google Maps).

    Pour l'heure, les données (le tracé des câbles et les coordonnées géographiques des stations d'atterrissement) de la carte « Submarine Cable Map » sont disponibles dans un dépôt git public sous une licence environ libre (CC BY-NC-SA).

    Et si on les utilisait pour construire une carte basée sur OpenStreetMap, l'outil de cartographie libre et communautaire (OSM) ?

    C'est chose faite : carte OpenStreetMap des câbles sous-marins d'Internet / Internet submarine cables map OpenStreetMap.
    J'actualiserai cette carte au fil de l'eau, en me basant sur le dépôt git sus-cité.

    Ci-dessous, un retour sur la façon dont j'ai procédé pour construire cette carte.


    Que faut-il pour créer cette carte ?

    Pour réaliser cette carte, il faut deux choses.

    D'un côté, il faut pouvoir créer une carte personnalisée en utilisant un fond de carte OpenStreetMap, c'est-à-dire une carte sur laquelle on peut représenter ce que l'on veut : un itinéraire, un parcours de trail, un marqueur sur un lieu avec une éventuelle infobulle pour donner des infos, plusieurs marqueurs afin d'identifier plusieurs lieux (pour un festival décentralisé, par exemple), etc.

    Le site web officiel d'OpenStreetMap permet de tracer des itinéraires et de partager une carte avec un marqueur sur un lieu (sans infobulle, sans marqueur personnalisé), mais ça s'arrête là.

    Le logiciel web umap pemet tout le reste sus-cité. On peut installer sa propre instance ou utiliser celles qui existent. Exemples : instance umap OSM France, instance umap Framasoft.

    Vu mon maigre besoin, j'ai décidé d'utiliser une instance existante. J'ai choisi celle de Framasoft, une association française qui œuvre pour des services numériques éthiques et la culture libre.

    Pour débuter, je recommande vivement cet exellent tutoriel umap. D'autres tutoriels, et même des tutoriels vidéos sont disponibles sur le wiki officiel OSM France.

    D'un autre côté, il faut retravailler les données géographiques disponibles :

    • Les tracés des câbles sont dans un fichier JSON alors que les informations sur les câbles (nom, longueur, date de mise en service, etc.) sont stockées dans un autre fichier ;

    • On aimerait mettre en forme (gras, liste à puces, liens vers les stations d'atterrissement, etc.) le texte associé à un câble / une station ;

    • On aimerait conserver la coloration des câbles, mais l'attribut JSON utilisé n'est pas prise en charge par umap (et sa valeur n'est pas au format attendu ‒ # ‒).

    On pourrait faire ça à la main, mais de nouveaux câbles entrent régulièrement en service pendant que d'autres rendent leur tablier. Une mise à jour à la main ne serait pas gérable. Il faut donc qu'un programme informatique fasse cette transformation des fichiers d'origine prévus pour Google Maps en fichiers compréhensibles par OpenStreetMap en y ajoutant, au passage, nos desiderata de mise en forme.

    Dès que l'on évoque la manipulation de JSON, on pense forcément à la commande jq. J'ai écrit un tutoriel pour jq qui est rien de plus que le retour de l'expérience acquise pour construire cette carte des câbles sous-marins d'Internet.

    Voici le script que j'ai pondu : transform_carte_cables_sous-marins.sh.

    • Les logiciels git et jq doivent être installés ;

    • Il suffit de le lancer. Aucun argument attendu ;

    • Il va récupérer le dépôt git, créer un espace de travail temporaire, travailler, détruire l'espace de travail temporaire, indiquer où trouver les fichiers résultants de son traitement ;

    • Deux variables en début de script permettent d'ajouter des paramètres umap sur les câbles et les stations (opacité, forme, interaction, etc.). Pour l'instant, tous les paramètres peuvent être définis au niveau du calque, donc ces variables ne servent pas.


    Construire la carte

    Une fois que l'on a exécuté ce script afin de traiter les données, comment créer la carte et y importer les données ?

    • Créer une carte sur une instance umap ;

    • Dans l'entête, à côté de « Carte sans nom », il y a une icône en forme de crayon. Cliquer dessus :

      • Nom = « Submarine Cable Map » ;

      • Description = contenu du fichier summary.txt ;

      • Options d'interface :
        • Afficher le bouton de plein écran = jamais ;

        • Afficher le bouton de localisation = jamais ;

        • Afficher le bouton pour ouvrir l'éditeur d'OpenStreetMap = jamais (je ne souhaite pas donner de faux espoirs au pékin : ce ne sont pas les données relatives aux câbles qui seront modifiables par ce biais) ;

        • Afficher le bouton d'accès rapide aux couches de données = caché ;

        • Voulez-vous afficher un panneau latéral au chargement? = légende.
      • Limites géographiques (pour limiter les déplacements sur la carte aux endroits où il y a des câbles afin d'éviter les fausses manips) :

        • Sud = -90 ;

        • Ouest = -250 ;

        • Nord = 90 ;

        • Est = 250.
      • Crédits
        • Crédit = « CC BY-NC-SA 3.0 \n Original (Google Maps): [[https://www.submarinecablemap.com/|Submarine Cable Map]] by [[https://www2.telegeography.com/|TeleGeography]]. \n Data: [[https://github.com/telegeography/www.submarinecablemap.com|Github TeleGeography]]. ».
    • Cliquer sur le bouton « Enregistrer ». Garder impérativement le lien de modification (tant que le cookie est conservé par ton navigateur web, ça va, mais sinon il constitue le seul moyen de pouvoir modifier la carte) ;

    • Cliquer sur le bouton « calques » :

      • Supprimer le calque 1 ;

      • Ajouter un calque :

        • Nom = « landings » ;

        • Description = « Landing stations » ;

        • Propriétés de la forme :

          • Forme de l'icône = cercle (elle attire moins l'œil / monopolise moins l'espace disponible).
        • Options d'interaction :
          • Forme de popup = panneau latéral (plus pratique que les infobulles + comportement par défaut d'OSM).
      • Ajouter un calque :

        • Nom = « cables » ;

        • Description = « submarine cables » ;

        • Propriétés de la forme :

          • Opacité = 1 (curseur le plus à droite possible).
        • Options d'interaction :
          • Forme de popup = panneau latéral.
    • Cliquer sur le bouton « Enregistrer » ;

    • Cliquer sur le bouton « importer des données » :

      • Importer des données = choisir le fichier landings.json produit par le script sus-mentionné ;

      • Choisir le calque de données pour l'import = landings ;

      • Cliquer sur le bouton « Importer ».
    • Cliquer sur le bouton « Enregistrer » ;

    • Cliquer sur le bouton « importer des données » :
      • Importer des données = choisir le fichier cables.json produit par le script sus-mentionné ;

      • Choisir le calque de données pour l'import = cables ;

      • Cliquer sur le bouton « Importer ».
    • Cliquer sur le bouton « Enregistrer » ;

    • À la fin de l'URL, ajouter « #2/-0.2/0.0 » et valider ;

    • Cliquer sur le bouton « enregistrer le zoom et le centre actuels » ;

    • Cliquer sur le bouton « exporter et partager la carte » :
      • Télécharger les données = données complètes de la carte ;

      • Cliquer sur le bouton « télécharger les données ». Conserver ce fichier de sauvegarde.



    Je note quelques limites d'umap :

    • Contrairement à la version originale de la carte, je ne suis pas parvenu à créer un lien vers un câble sous-marin dans le panneau latéral d'une station d'atterrissement. De même, pour avoir un lien vers une station d'atterrissement dans le panneau latéral d'un câble, j'ai dû ruser en utilisant ses coordonnées géographiques plutôt que son nom afin de former une URL valide au sens OSM (#<niveau_de_zoom>/<latitude>/<longitude>). Dit autrement : je n'ai pas trouvé un moyen de faire un lien vers un objet. Sur OSM, les objets (le tracé d'une ligne de bus, par exemple) ont un identifiant interne public, donc on peut construire une URL de la forme « /relation/<identifiant> ». Avec umap, je n'ai pas trouvé d'identifiant, y compris dans l'export ;

    • Contrairement à la version originale de la carte, je n'ai pas trouvé comment mettre en évidence / surligner l'ensemble du tracé d'un câble quand on clique dessus, puisque, comme indiqué au point précédent, je n'ai pas trouvé comment pointer un objet par son nom afin de créer un lien pointant sur lui dans son intégralité.


    Annexe : premier script, méconnaissance de jq, optimisation et autocritique

    Le script présenté plus haut permettant de traiter les données géographiques avant importation dans umap n'est pas le premier que j'ai écrit. Le premier, c'est celui-ci : transform_carte_cables_sous-marins.original.sh.

    Quelles différences ?

    • Je n'avais pas compris que jq peut mettre le contenu d'un (ou plusieurs) fichier secondaire dans une (ou des) variable afin d'enrichir le fichier principal avec des informations du (des) fichier secondaire ;

    • Je ne voulais pas admettre qu'une fois qu'on a sélectionné / demander l'affichage d'un attribut qui contient un tableau (« '.monAttribut[]' »), alors on itère sur ce tableau jusqu'à la fin de la commande jq. Tout filtre ajouté à la chaîne sera exécuté autant de fois qu'il y a d'éléments dans le tableau parcouru. Cela signifie aussi que l'on perd tout le contenu JSON qui était autour de ce tableau. Oui, c'est aussi idiot que de se plaindre qu'avec un grep | xargs <maCommande>, maCommande n'accède pas à ce qui n'a pas été retenu par grep. Mais, du coup, ça me fait perdre l'entête et le pied du fichier JSON d'origine, donc ça produit un JSON invalide. Si je n'itère pas sur le tableau, je ne peux pas accéder aux attributs de chaque élément du tableau, donc il m'est impossible, par exemple, de transvaser la couleur d'un câble dans un attribut compréhensible par umap (genre jq '.features[].properties += { "_umap_options": { "color": .color } }' cables.json, ça ne fonctionne pas). Comme je n'avais pas compris que jq permet de travailler sur plusieurs fichiers, je n'avais pas perçu que l'on peut reconstruire le fichier JSON d'origine ;

    • Comme je n'avais pas compris non plus que l'on peut circonscrire une itération sur un tableau au sein d'une opération bornée / finie comme une affectation, je n'avais pas perçu que ça pouvait être une autre solution au problème du point précédent. C'est finalement la solution que j'ai retenue.

    Ces trois points sont détaillés dans mon shaarli dédié à la prise en main de jq par des exemples pratiques.

    En conséquence, je faisais une boucle « for » avec mon shell. La fin de l'itération était le nombre d'éléments dans le tableau - 1. Ainsi, j'avais un indice de tableau. Donc je pouvais accéder à l'élément que je voulais dans le tableau, récupérer son identifiant (permettant de récupérer ses infos dans le fichier JSON séparé) et le modifier.

    • L'inconvénient, c'est que je lançais plusieurs jq (récupérer l'identifiant d'un élément, récupérer les infos dans le deuxième fichier, modifier le JSON avec tout ça) ‒ ce qui implique des fork() et des exec() en pagaille ‒, que j'écrivais autant de fichiers temporaires qu'il y a d'éléments parcourus, et que jq renvoi l'intégralité du JSON à chaque passe. Tout ça consomme du CPU, de la RAM et des IO. Ce premier jet s'exécute en 1 minute 54 (moyenne sur 3 exécutions, récupération du dépôt git exclue). Et, encore, je suis en RAM (tmpfs).

    • L'avantage de cette première version, c'est que, puisque je récupère les informations (sur un câble ou une station) avec une commande jq distincte, je peux appliquer très facilement un grep -v 'null' afin de dégager de la sortie les attributs JSON non-remplis (genre un câble qui n'a pas de site web associé, par exemple). EDIT DU 21/08/2021 : pour afficher un texte pré-défini quand la valeur d'un attribut JSON est null, jq dispose d'un opérateur de remplacement, « // ». FIN DE L'ÉDIT.

    • Autre avantage : pour faire passer le temps d'exécution, j'affiche un joli compteur avec printf() genre « Working on cables: 001/469… […] 142/469… ». Ça fait bien longtemps que je n'avais pas écrit un code générant un affichage aussi kikoo. :D

    La version actuelle du script utilise une seule commande jq (mais avec des filtres supplémentaires) afin de réaliser l'itération, l'enrichissement du JSON et la modification du flux JSON.

    • Cette dernière version s'exécute en 3,6 secondes (conditions de test identiques). 31 fois plus rapide ! :O

    • Inconvénient : la commande jq commence à devenir touffue et très compliquée à comprendre, donc à maintenir dans le temps. Oui, je pourrais virer des variables, mais guère plus, je pense.

    • Le premier avantage de la première version devient un inconvénient : je ne peux plus virer aussi facilement les attributs JSON non-remplis. Probablement que ça peut se faire avec une condition jq mais au prix de la lisibilité. EDIT DU 21/08/2021 : pour afficher un texte pré-défini quand la valeur d'un attribut JSON est null, jq dispose d'un opérateur de remplacement, « // ». FIN DE L'ÉDIT.



    Merci Johndescs pour la relecture et la correction des scripts.

    Sun Apr 5 21:15:14 2020 - permalink -
    - http://shaarli.guiguishow.info/?UJyNPw
  • jq : gsub() échoue sur certains caractères Unicode

    Voir mon introduction à la prise en main de jq, le logiciel de manipulation de JSON en ligne de commande.

    Soit le fichier JSON africa-coast-to-europe-ace.json.

    Avec jq version 1.5.1 Debian GNU/Linux Buster, je veux récupérer la valeur de l'attribut « owners » sous la forme d'une unique chaîne de caractère. Je voudrais que la séparation entre chaque propriétaire ne soit plus « , », mais « \n * » (afin de produire une liste à puces).

    Facile, il suffit d'utiliser la fonction gsub(), greedy sub(), qui permet de remplacer des bouts de chaînes de caractères. Sauf que…

    $ jq -r '.owners | " * \(gsub(", ";"\n *"))"' africa-coast-to-europe-ace.json
     * Orange
     * Dolphin Telecom
     * Cote d’Ivoire Telec
     *
     * Gambia Submarine Cable Company
     * MTN
    […]

    Hum, il y a un raté pour Cote d'Ivoire Telecom.

    Je t'épargne l'identification du problème avec hexdump -C et jq -a (afficher le code séquence d'un caractère non-ASCII) : ce modèle d'apostrophe n'est pas un caractère ASCII mais Unicode.

    Normalement, ça ne devrait pas poser de problème puisque jq travaille, par défaut, en UTF-8 (d'après son manuel). De plus, file -i est formel, le fichier utilisé est bien encodé en UTF-8. Même si j'utilise iconv -t UTF-8 africa-coast-to-europe-ace.json -o africa-coast-to-europe-ace.json pour m'en assurer, ça change rien.

    J'ai essayé avec d'autres caractères Unicode : ça fonctionne avec « » » et des caractères Hangûl, mais pas avec le caractère « ⚧ »…

    J'en déduis que la fonction gsub() de jq foire avec certains caractères Unicode.

    J'ai rien trouvé de mieux que de remplacer l'aspostrophe problématique par l'apostrophe ASCII avec sed -i "s/’/'/" africa-coast-to-europe-ace.json avant son traitement par jq…

    Ce bug semble être corrigé dans la version 1.6 Debian GNU/Linux de jq.

    Sun Apr 5 19:18:31 2020 - permalink -
    - http://shaarli.guiguishow.info/?GQNU7A
  • Manipuler du JSON avec le logiciel jq

    jq (paquet logiciel du même nom) est un outil en ligne de commande pour manipuler du JSON (quelle idée !).

    Il m'apparaît que le meilleur moyen d'apprendre à utiliser jq, c'est de pratiquer. C'est ce que nous allons faire dans ce shaarli.

    Fichiers utilisés dans les exemples ci-dessous : cables.json et cablesDefs.json.



    L'usage le plus simple de jq est de rendre lisible (indentation, coloration syntaxique, etc.) un bout de JSON qui ne l'est pas (on dit aussi prettifyer, forrmatter) : jq '.' cables.json.

    • Note : « . » est l'identité. Elle désigne l'élément / l'objet courant. Au début, elle pointe sur l'objet racine du fichier JSON, mais ça peut évoluer : lors d'une itération dans un tableau, par exemple, l'identité pointera sur l'élément actuellement parcouru.



    Afficher la valeur / le contenu de l'attribut « features » de l'entité / objet racine : jq '.features' cables.json.

    • Comme la valeur de cet attribut est un tableau, tout son contenu est affiché. Si l'on avait afficher la valeur de l'attribut « type » de l'objet racine avec jq '.type' cables.json, le retour serait une unique chaîne de caractères.



    Afficher uniquement l'attribut « slug » de l'attribut « properties » de chaque élément du tableau features « features » : jq '.features[].properties.slug' cables.json.

    • Sorte de grep.



    Afficher l'attribut « name » de l'attribut « properties » de chaque élément du tableau « features ». Afficher « n/a » (not available) si l'attribut n'existe pas ou a « null » comme valeur : jq '.features[].properties.name // "n/a"'.

    • Il s'agit de l'opérateur de remplacement de jq.



    Notons que jq propose des paramètres intéressants.

    • « -r » (raw) permet de ne pas afficher les guillemets autour d'une chaîne de caractères ;

    • « -a » (ascii) remplace les caractères non-ASCII par leur séquence échappée, ce qui est pratique pour identifier un problème lié à l'encodage.



    Ce que nous avons mis entre apostrophes dans les exemples précédents se nomme un filtre. Il est possible d'enchaîner les filtres. Pour ce faire, deux opérateurs existent :

    • « , » exécute les deux filtres et concatène leur résultat (comme « ; » dans un shell). Afficher le contenu de l'attribut « slug » de chaque élément du tableau « features » puis afficher le contenu de leur attribut « color » : jq '.features[].properties.slug , .features[].properties.color' cables.json ;

    • « | » a le même rôle que dans un shell : la sortie du filtre de gauche est l'entrée du filtre de droite. Travailler sur le slug de chaque élément du tableau : jq '.features[].properties.slug | .' cables.json.



    Tout peut être stocké dans une variable à tout moment : jq '.features[].properties as $props | .' cables.json.

    • Plus loin dans l'enchaînement de filtres, on pourra utiliser la variable avec $props | <traitement_ici> ou $props.<nom_attribut> (exemple : « $props.color »).

    • Forcément, si le résultat d'un filtre est stocké dans une variable, alors ce filtre enverra rien sur l'entrée d'un filtre qui lui serait chaîné. C'est le résultat du dernier filtre sans stockage dans une variable qui sera injecté dans l'entrée du filtre chaîné.



    Si un filtre retourne plusieurs résultats et qu'un ou plusieurs filtres lui sont chaînés, ces derniers filtres s'appliqueront / seront exécutés pour chaque résultat retourné par le premier filtre. Il est donc possible de travailler sur chaque élément d'un tableau. Nous le faisons depuis le début : jq '.features[].properties.slug' cables.json = jq '.features[] | .properties.slug' cables.json. Il est donc possible d'exécuter un traitement sur chaque élément du tableau, comme une sorte de grep | xargs.

    • Comme c'est confusant, je conseille vivement d'écrire tranquillement son filtre sur un seul objet à la fois avec jq '.features[0] | .properties.slug' cables.json (« [0] » demande à travailler sur le premier élément du tableau) avant de le généraliser ;

    • Si l'on fait jq '.features[] | ., c'est-à-dire « affiche-moi chaque élément du tableau « features » », on se rend compte que l'on perd l'entête (« { "type": "FeatureCollection", "features": [ ») et le pied (« ] } ») de notre fichier. Il faut comprendre qu'on les retrouvera jamais, qu'on peut jamais remonter au niveau supérieur. Ce serait comme utiliser grep essai | xargs <maCommande> et vouloir que maCommande accède à ce qui n'a pas été grep-é (retenu par grep). Si l'on tente d'enregistrer la racine dans une variable (« . as $racine ») et que l'on tente de l'afficher dans une itération (exemple : jq '. as $racine | .features[] | .properties.slug | $racine' cables.json), l'ensemble du fichier JSON sera affiché autant de fois qu'il y a d'éléments dans le tableau « features », ce qui n'est pas ce que l'on veut. Bref, n'essaye pas. On ne sort pas d'une itération, tout enchaînement de filtres après un filtre qui émet plusieurs éléments JSON sera exécuté autant de fois qu'il y a d'éléments ;

    • En revanche, on peut contenir une telle itération au sein d'une opération bornée, comme une affectation. Ainsi, tout le résultat produit par l'enchaînement des filtres de l'itération sera affecté à une variable. Nous verrons selon un peu plus loin, car il nous manque encore des connaissances.



    Recherche sur la valeur d'un attribut / afficher l'élément du tableau « features » dont la valeur de l'attribut « slug » est « adria-1 » : jq '.features[] | select(.properties.slug=="adria-1")' cables.json.

    • Afficher uniquement la valeur de l'attribut « properties.color » de cet objet ? jq '.features[] | select(.properties.slug=="adria-1") | .properties.color' cables.json ou, plus simplement : jq '.features[] | select(.properties.slug=="adria-1").properties.color' cables.json.

    • Rechercher une sous-chaîne dans la valeur d'un attribut avec une regex ? jq '.features[] | select(.properties.slug | test("adria-1")). Il est possible de positionner des drapeaux pour des recherches gourmandes (greedy), pour des recherches insensibles à la case, etc. Exemple concret d'utilisation.



    On peut mettre en forme /formater la sortie (afficher plusieurs attributs, ajouter du texte libre, etc.). Pour chaque élément du tableau « features », je veux afficher une ligne de la forme \*\*SLUG\*\*: <slug> ~ \*COLOR\*: <color>.. Les « * » sont du formatage Markdown (**gras**, *italique*). Le texte en majuscule, le caractère « ~ » et le caractère final (« . ») sont des bouts de texte arbitraires que je souhaite afficher. jq '.features[] | "**SLUG**: \(.properties.slug) ~ *COLOR*: \(.properties.color)."' cables.json.

    • Les guillemets permettent de saisir des chaînes de caractères. « \() » est l'opérateur qui indique à jq d'interpréter une expression située au milieu d'une chaîne de caractères.



    Et si je veux utiliser le contenu d'une variable shell dans un filtre ?

    • Normalement, on écrit un filtre jq entre apostrophes afin que le shell n'interprète pas la chaîne de caractères. Mais, on peut aussi l'écrire entre guillemets afin quil l'interpète. Exemple : maVariable='{ "test": "toto" }' ; jq ".features[].properties += $maVariable" cables.json. Cela signifie aussi que tu vas devoir échapper tout ce que le shell pourrait interpréter : le « $ » d'une variable interne à jq, les guillemets, etc. Pour peu que ton enchaînement de filtres jq soit un peu costaud, ça va le rendre illisible. Je déconseille ;

    • jq propose les arguments --arg <nom_variable_interne> <contenu> (le contenu sera enregistré comme une chaîne de caractères) et --argjson <nom_variable_interne> <bout_de_JSON> (attention : le bout de JSON doit avoir une syntaxe valide !). Reprise de l'exemple précédent : maVariable='{ "test": "toto" }' ; jq --argjson varInterne "$maVariable" '.features[].properties += $varInterne' cables.json.



    Et si l'on veut modifier le flux JSON ? Il existe les opérateurs « |= » et « += ». Le premier modifie la valeur d'un attribut en écrasant l'exisant. Le second ajoute un élément dans la valeur d'un attribut.

    • Je veux changer / remplacer la valeur de l'attribut « properties.color » de chaque élément du tableau « features » pour « yellow » : jq '.features[] | .properties.color |= "yellow"' cables.json ;

    • Je veux ajouter un attribut « toto » avec la valeur « titi » dans l'attribut « properties » de chaque élément du tableau « features » : jq '.features[] | .properties += { "toto": "titi" } ' cables.json ;

    • Je veux renommer l'attribut « properties.color » de chaque élément du tableau « features » en « properties.toto » tout en conservant sa valeur : jq '.features[] | .properties += { "toto": .properties.color } ' cables.json ;

    • Je veux déplacer l'attribut « properties.color » de chaque élément du tableau « features » dans un nouvel attribut « properties.toto » tout en conservant sa valeur : jq '.features[] | .properties += { "toto": { "color": .properties.color } }' cables.json.



    Normalement, si tu suis, tu me traites de tricheur : les deux dernières commandes du point précédent n'ont pas renommé / déplacé l'attribut, mais l'ont simplement copié. Pour finir le travail, jq propose la fonction native « del() » qui, comme son nom l'indique, permet de supprimer un attribut. Démo sur les deux exemples précédents : jq '.features[] | .properties += { "toto": .properties.color } | del(.properties.color)' cables.json et jq '.features[] | .properties += { "toto": { "color": .properties.color } } | del(.properties.color)' cables.json.

    • D'autres fonctions natives sont disponibles : select() qu'on a déjà vu, sub() (remplacer une portion de texte avec des expressions régulières ou non), split(), etc. On notera que la fonction gsub() (greedy sub) échoue lorsque certains caractères Unicode sont présents dans la chaîne de caractères à traiter (a priori, c'est corrigé dans la version 1.6 de jq).



    jq ne propose pas un argument (genre « -o ») permettant d'enregistrer le résultat de son traitement dans un fichier. Donc, si l'on veut enregistrer le résultat dans le fichier source / d'origine, il faut utiliser l'outil sponge (une redirection shell, >, viderait le fichier avant d'exécuter jq).



    Il est possible de travailler sur plusieurs fichiers JSON en même temps. Soit en les concaténant (cat fichier1 fichier2 | jq '.'). Oui, ça va générer un fichier JSON invalide (plusieurs entités racines…), mais jq est tolérant. Soit en ayant un fichier principal et des fichiers secondaires accessibles via des variables. Cette deuxième possibilité est très pratique quand on veut agrémenter / enrichir un fichier principal avec des informations disponibles dans un autre fichier (sans polluer le fichier principal avec une concaténation, donc).

    • Exemple pratique. Le fichier cables.json contient les coordonnées géographiques des éléments et le fichier cablesDefs.json contient des informations sur ces éléments (comme leur nom). Dans le fichier cablesDefs, on veut récupérer le nom de chaque élément du fichier cables.json afin de l'insérer dans un attribut « name » dans l'attribut « properties » de l'élément. On veut donc enrichir cables.json avec cablesDefs.json. Notons que les éléments ne sont pas forcément dans le même ordre dans les deux fichiers. Il y a une correspondance id = slug. Démo : jq --slurpfile maVariable cablesDefs.json '.features[] | . as $cable | $maVariable[] | select(.id==$cable.properties.slug).name as $cableName | $cable | .properties += { "name": $cableName }' cables.json.

    • Explication : pour chaque élément du tableau « features », on le stocke dans la variable $cable puis, dans le contenu de maVariable (donc du fichier cableDefs.json, dont chaque élément racine a été importé comme case d'un tableau), on cherche un objet dont l'attribut « id » correspond à l'attribut « slug » de notre élément, on stocke la valeur de l'attribut « nom » de cet objet dans $cableName. On affiche l'élément de notre tableau « features » et on ajoute un attribut dans son attribut « properties ».



    Plus haut, j'écris que si l'on itère sur le contenu d'un attribut avec jq, alors on perd les attributs qui entourent celui sur lequel on itère. Avec ce "mode multi-fichiers", on peut reconstruire le JSON d'origine (sauf si trop d'élements sont passés à la trappe, bien entendu). Exemple (je reprends le cas cité ci-dessus malgré son absence de représentativité) :

    jq '.features[] | .' cables.json > /tmp/json.tmp # dans json.tmp, on aurait donc uniquement les éléments du tableau « features », tout le reste aura disparu
    cat <<EOF > /tmp/minJSONStruct # dans ce fichier, on met l'entête et le pied du fichier d'origine (cables.json), précisement ce qui a disparu
    {
      "type": "FeatureCollection",
      "features": [
      ]
    }
    EOF
    jq --slurpfile featuresList /tmp/json.tmp '.features += $featuresList' /tmp/minJSONStruct > cables.json # on ajoute les ex-éléments du tableau « features » au tableau « features » de l'entête/pied JSON, donc on reconstitue notre fichier cables.json d'origine.

    Oui, je préfère passer par un fichier temporaire que par une variable (avec « --arg ») afin d'éviter les problèmes d'échappement de caractères pour le shell.

    On peut aussi préserver la structure JSON autour du tableau. Pour ce faire, il faut contenir l'itération sur le tableau au sein d'une affectation. Exemple : pour renommer l'attribut « properties.color » d'un objet membre d'un tableau en « properties.toto », il faut que j'itère sur ce tableau sinon je ne peux pas récupérer la valeur de l'attribut afin de la transvaser. Pour que cette opération ne soit pas destructrice, je l'encadre dans une affectation : jq '. as $racine | .featuresDup |= $racine.features | del(.features) | .features += [ .featuresDup[] | .properties += { "toto": .properties.color } | del(.properties.color) ] | del(.featuresDup)' cables.json. Si je n'avais pas dupliqué l'attribut « features », alors ce tableau contiendrait deux fois chaque élément : l'original et la version modifiée. Cette copie me permet de vider l'attribut « features » et d'utiliser sa copie pour itérer dessus et remplir « features » avec les objets modifiés.



    Appliquer le même traitement à tous les éléments d'un tableau. Pour chaque élément du fichier cablesDefs.json, je veux récupérer une unique chaîne de caractères contenant tous les éléments du tableau « landing_points » sous la forme * <nom1>: <latitude+longitude>\n * <nom2>: <latitude+longitude>\n […]. Premier essai : jq '.landing_points[] | " * \(.name): \(.latlon)"' cablesDefs.json. Bien vu, mais on ne peut pas obtenir une unique chaîne avec join() puisque ce qui ressort du filtre, c'est des chaînes de caractères et qu'un join() ne peut être appliqué sur ce type d'objets.

    • Comme dans beaucoup de langage de programmation (Python, Ruby, etc.), la fonction map() permet d'appliquer un même traitement à chaque élément d'un tableau, donc de produire un tableau en sortie… tableau sur lequel on pourra utiliser join(). Démo : jq '.landing_points | map(" * \(.name) :\(.latlon)") | join("\n")' cablesDefs.json.



    Il reste encore beaucoup de choses à découvrir : les boucles, les conditions, les fonctions persos, etc. Voir le manuel officiel de jq. Pour ma part, j'ai pu réaliser ce que je voulais (construire une carte des câbles sous-marins d'Internet) donc je m'arrête là.

    Sun Apr 5 18:47:42 2020 - permalink -
    - http://shaarli.guiguishow.info/?KMmDNA
Links per page: 20 50 100
◄Older
page 71 / 279
Newer►
Mentions légales identiques à celles de mon blog | CC BY-SA 3.0

Shaarli - The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community