5959 links
  • GuiGui's Show

  • Home
  • Login
  • RSS Feed
  • Tag cloud
  • Picture wall
  • Daily
Links per page: 20 50 100
◄Older
page 182 / 298
Newer►
  • Le Privacy Shield attaqué en Europe par la Quadrature, FDN et FFDN

    L’accord validé le 12 juillet 2016 par la Commission européenne vient remplacer un précédent document datant de 2000. La Cour de justice de l’Union européenne avait alors sanctionné sur l’autel de la vie privée ce Safe Harbor, qui permettait jusqu’à présent aux entreprises installées outre-Atlantique d’importer les données des internautes européens. Les révélations Snowden et la mainmise de la NSA sur ce flux et ce stock ont poussé la CJUE à considérer que les États-Unis étaient tout sauf un port sûr, de niveau équivalent un État membre européen.

    Et pour la Quadrature, FDN et FFDN le même reproche peut être adressé à l’accord de Privacy Shield.

    [...]

    De la même manière, l’accord négligerait de limiter l’exploitation des données au strict nécessaire de l’ingérence dans la vie privée. L’utilisation de ce vivier sera limitée à six motifs. Il y a certes l’espionnage, le terrorisme, les armes de destruction massive, mais également « les menaces pour la cybersécurité ». Pour les trois organisations, on serait bien loin des exigences de la CJUE, à savoir « des fins précises, strictement restreintes et susceptibles de justifier l’ingérence ».

    Le mécanisme en outre violerait le droit au recours effectif pourtant exigé par la Cour de Luxembourg, en ne prévoyant pas des règles aussi protectrices que celles en vigueur de ce côté de l’Atlantique.

    Enfin, les requérants se souviennent de l’arrêt Digital Right Ireland. En avril 2014, la CJUE avait épinglé la directive sur la conservation des données parce que justement elle avait oublié d’imposer l’intervention d’une autorité indépendante pour limiter l’accès à ces précieuses informations.

    [...]

    Le front des trois structures n’est pas le seul ouvert contre le Privacy Shield. Digital Right Ireland a également attaqué ce document afin de solliciter son annulation.

    À suivre. :)

    Mon Oct 31 20:26:16 2016 - permalink -
    - http://www.nextinpact.com/news/101950-le-privacy-shield-attaque-en-europe-par-quadrature-fdn-et-ffdn.htm
  • Software far more than a promises - WEB2DAY 2016 - mauvais générique - YouTube

    Quelques remarques intéressantes sur l'écosystème numérique français :

    • Gouvernement qui n'écoute rien. Exemple typique : l'expérience du cloud français. Toute l'industrie avait averti que cela ne fonctionnerait pas. 150 millions d'euros gaspillés ;

    • Croyance généralisée que tout est de la haute technologie alors qu'un pauvre site web d'intermédiation n'est pas de la haute technologie. De même, les SSII ne sont pas des boîtes de haute technologie. Elles vendent de la croissance aux actionnaires (pas de suivi des projets, osef du client, etc.) ;

    • En France, on a deux conventions collectives pour les métiers du numérique : Syntec ou métallurgie, la plus répandue étant Syntec. Or, dans la convention Syntec, la première qualification de manager, la 2.1, interdit de continuer la technique. Ailleurs dans le monde, il y a une double chaînes de direction : managériale d'un côté (CEO) et technique de l'autre (CTO). Ça crée une déconnexion, entre ceux qui font et ceux qui pilotent, en effet. Vu que c'est une convention collective, on touche là à un problème de représentation : les métiers de l'informatique sont mal représentés au milieu des bureaux d'études, des consultants & co ;

    • Il y a une contradiction : les sociétés commerciales demandent des CV longs comme le bras (alors qu'un informaticien est un étudiant à vie) en proposant des salaires de misère et en attendant du salarié qu'il exécute sans penser. Comme d'hab, y'a des exceptions mais je suis plutôt d'accord avec l'orateur ;

    • Silicon Valley à la française : projet initié depuis les années 70 avec le déplacement de Supelec et de l'école polytechnique de Paris vers le plateau de Saclay. Oui, Paris est un phare touristique mais on veut attirer les cerveaux et les investisseurs dans la pampa : au bout de la ligne RER B, 20 minutes de marche en montée, Pas un cinéma, pas de bar/café à moins de 5 km, pas d'hôtel. Comment veux-tu accueillir des investisseurs et des partenaires sans te taper la honte ?! Personne n'a suivi à part la R&D de Thales et d'EDF malgré des tractations importantes des gouvernements. En Californie, depuis 2006/2007, il y a un mouv' pour quitter San José / Moutain View, Palo Alto pour remonter vers San Francisco car là-bas y'a une vie, on peut y vivre et y élever une famille. La France continue à croire au plateau de Saclay qui fait pile l'inverse, des années après ;

    • Arrêtons de vouloir attirer les salariés et investisseurs étrangers en leur parlant de Paris, la Seine et tout. OSEF complet. Ce qui comptera, c'est les conditions de travail et le salaire. Et ça sera bloquant. Oui, c'est bien ce que démontre le French Tech Ticket ou il faut fournir visa et thune pour convaincre de venir ;

    • Points forts de la France : des aides. L'ACRE (Aide à la Création et à la Reprise d'Entreprise) : si ta société en devenir te permet pas de te rémunérer autant que tes allocs chômage, l'État complète. Jeune Entreprise innovante : 5 ans de dégrèvement total d'IS puis 3 ans partiel. Crédit Impôt Recherche : des sommes folles genre 25 % de tout ton investissement (R&D, salaires, déplacements) ce qui représente vite 100 000 € pour une boîte de 2-3 personnes. OSEO/BPI/région : ça bouffe un temps monstrueux qui n'est pas vraiment compatible avec le développement rapide d'une société (tu ne peux pas coder et aller raconter du bullshit pour avoir le blé en même temps). Le truc que l'orateur oublie de dire, c'est que cet argent vient pas sans contreparties : y'a de la paperasse, qui en a lourdement gonflé voire mis en péril plus d'un-e, voir http://sametmax.com/entreprendre-en-france-autopsie-dun-echec/ ou http://www.mercipourlechocolat.fr/2010/12/21/regime-auto-entrepreneur-acre-urssaf/ ;

    • Pour l'orateur, il faudrait en finir avec le mantra « nul n'est irremplaçable » car quand on veut bâtir de l'innovation, on embauche des gens irremplaçables. Ça me semble être du capitalisme exacerbé et ça me rappelle beaucoup ce qui a été dit sur Xavier Niel (voir http://shaarli.guiguishow.info/?mvowrw ). Tout le monde ne peut pas devenir irremplaçable, par conception même. On a donc un système pyramidal, une machine à exclusion. On crée des égos surdimensionnés ? On fait quoi des gens que l'on laisse sur le carreau ? Ils-elles vont à Popole ?! Ils-elles ont qu'à nettoyer les chiottes des égos surdimensionnés à longueur de journée au motif que "c'est plus leur place" ?! Que veut dire « remplaçable » ?

    • Conclusion : avec les aides, ça ne coûte rien d'essayer de se lancer. Ne pas demander aux autres le job de vos rêves, créez-le.



    Quelques anecdotes :

    • Il paraît que la France est excellente dans le domaine du traitement d'image mais qu'il n'y a pas d'industrie pour cela. On assiste donc à l'émigration de nos rares diplômés dans ce milieu-là : près des studios Universal, il n'est pas rare de constater des boîtes dont le personnel est composé à 40 % de français ;

    • Le milieu informatique est un des rares milieux qui carburent à l'envie de faire des choses et à la confiance a priori. On détecte les gens pas fiables a posteriori mais on ne les exclue pas d'avance. Oui, je pense aussi que c'est majoritairement le cas. Voir : http://shaarli.guiguishow.info/?qQfkcA . Mais pour moi, la structure hiérarchique des sociétés (mêmes celles qui se vantent d'être horizontales pour pecho du geek / de la geek) à vite-fait d'effacer tout ça ;



    Pour le reste, l'orateur raconte aussi n'importe quoi :

    • Estimer qu'une société commerciale peut être lancé avec 824 € en comptant chaise + bureau + ordi + connectivité Internet sur 6 mois, c'est un mensonge. Quid du loyer ? Quid des besoins élémentaires ? Quid des charges notamment de création ? Je suis d'accord que le ticket d'entrée est moins élevé que dans d'autres industrie, qu'il n'y a pas d'autorisations préalable d'exploitation à demander, tout ça, mais il ne faut pas pousser non plus. Ce plan est viable uniquement pour ceux et celles qui ont travaillé et mis de l'argent de côté ou qui bénéficient de l'ACRE, comme ce fût le cas de l'orateur. Du coup, ça introduit un biais dans le raisonnement : les fondateurs des mastodontes US, ce sont des gamins qui ont arrêté leurs études, pas des gens qui ont épargné x ans avant de se lancer ;

    • L'idée géniale pour lancer un écosystème numérique de haute technologie : prendre les projets de fin d'études des étudiants. Paraît que comme y'a environ 50k étudiants par an, ça nous ferait environ 5k de projets industrialisables dont 1,7k dont le modèle éco et tout ne serait pas bidon. L-O-L. Stats basées sur 2 écoles dans lesquelles l'auteur a récupéré les rapports des étudiants. L-O-L la représentativité de l'échantillon. La plupart des sujets, c'est les profs qui les donne. C'est souvent de la recherche fondamentale qui n'aboutit à rien, notamment en master. Qu'est-ce que tu veux exploiter industriellement RPKI+ROA ou un jeu de casse-briques gourmand en CPU écrit en Java ?! Ensuite, il y a le tempérament des personnes : tous les geek de france ne vont pas être à la tête de leur propre société, faut pas charrier, il y a des compétences à avoir (relationnel, gestion de projets (dans le sens noble du terme), paperasse administrative, etc.). Pour moi, c'est bien ce que démontre le taux d'échec des auto-entreprises : c'était cool de tenter de se prendre en main, ça valait la peine d'essayer mais ça a foiré. Pour moi, il faut aussi en finir avec le mythe de monsieur et madame Toutlemonde entrepreneur de renommée mondiale. BTW, 1/5 de 50k, ça fait 10k, pas 5k. ;)

    Via http://lehollandaisvolant.net/?mode=links, très probablement.

    Mon Oct 31 19:24:01 2016 - permalink -
    - https://www.youtube.com/watch?v=GU7DbfmBjxE
  • Docker et la tendance de la conteneurisation : a-t-elle vraiment été en production ?

    Les limites de Docker exposées par Aeris.

    Docker. Une technologie si jeune (2013) et pourtant dorénavant vendue un peu partout comme la technologie miracle qui va résoudre tous les problèmes de déploiement, vous rendre riche et vous ramener l’être aimé. Et pourtant, en pratique cette technologie me pose pas mal de problèmes et de cas de conscience. Revue de détails.

    Objectif : portabilité

    Le but initial est un peu dans le prolongement de ce qu’a fait Java : construire une fois, déployer partout (« build once, deploy everywhere »). On ne peut nier que l’idée initiale soit bonne tellement le problème du déploiement est un véritable parcours du combattant en pratique.

    Un logiciel est rarement un morceau totalement isolé. Il vient avec son interpréteur, ses bibliothèques, nécessite un moteur de base de données, des fichiers de configuration, un serveur web et tout un tas d’autres choses. Cet écosystème va être à gérer tout au long de la chaîne de fabrication, que ça soit en développement, en phase de validation/qualification, en recette ou encore en production.

    [...]

    Besoins de dev ≠ besoin de la prod

    Le premier rempart à l’usage de Docker est que les besoins entre la production et le développement sont assez différents. Un développeur va vouloir accéder facilement aux journaux, si possible en mode debug, alors que la prod préférera les envoyer à un Logstash et en mode info voire warn ou error. Un développeur préférera utiliser directement le serveur d’application léger de son choix comme Jetty, Thin ou Gunicorn, alors que la production configurera un backend Nginx devant ou utilisera des serveurs d’application plus puissant tel que Tomcat ou Passenger. Un développeur préférera sûrement compiler en mode debug pour avoir des retours utilisables en cas de problème alors que la production insistera pour le faire en mode release. La production voudra mettre en place un pare-feu, ou ses outils de supervision de parc, dont le développement n’a même aucune idée de l’existence puisque ça ne fait pas partie de ses compétences ! [...]

    Pour les environnements différents, il « suffit » que les devs travaillent hors Docker à l’ancienne, puis une fois parvenus à quelque chose de satisfaisant, s’attaquent à la construction d’une image Docker. Ça implique une espèce de mini-chaîne complète (dev/test/validation/qualification/production) faite uniquement par les développeurs, afin de s’assurer que l’image finale est à peu près conforme à ce qui est attendu (quel logiciel fournir, quelles dépendances disponibles…). Parce que du coup ça n’implique plus que si ça tourne sur leur environnement de dev, ça tourne sur l’environnement Docker. Pas forcément très folichon niveau processus sinon avoir ramené toutes les considérations des autres étapes sur celle de développement.

    Pour les besoins propres à la production (pare-feu, monitoring…), Docker permet de créer une image à partir d’une autre. La production repartira donc de l’image fournie par les développeurs pour refaire sa propre image incluant tout le nécessaire. Ça casse aussi l’intérêt de Docker qui garantit que ça tournera en production, étant donné que la production peut elle aussi introduire des bugs. Par exemple l’installation d’un pare-feu va peut-être installer une bibliothèque utilisée par l’application mais dans une version différente. La production devra donc aussi repasser une bonne partie des étapes précédentes (test/validation/qualification) avant la mise en production réelle. Pas folichon non plus.

    Dans les deux cas il aurait été plus intelligent que le dev et la prod travaillent ensemble dès le départ (qui a dit Devops ?) pour fournir une image Docker à la QA qui partira en production telle quelle une fois approuvée. Mais alors qu’on utilise Docker ou n’importe quelle autre technologie (virtualisation classique, automatisation d’installation via un outil comme Chef, Puppet, Ansible ou Salt) on aurait obtenu le même résultat.

    En commentaire, on trouve cela :

    ‒ Dev != prod : Oui effectivement, mais justement c'est à toi de construire ton dockerfile en fonction de tes besoins, et pouvoir donc passer d'un environnement d'intégration à un environnement de production via une simple variable. Tu peux par exemple via ces variables, choisir de passer par syslog pour l'intégration et par logstash (ou autre) pour la prod. Si le dockerfile est bien construit, aucun soucis. Je pense qu'il faut absolument garder le contrôle sur ces images.

    ‒ Dev vs Prod : oui on peut faire, on peut toujours tout faire (même avec du BrainFuck). Avec des terrachiées de variable d’env ou des tonnes de fichiers de config. Mais ça casse tout l’intérêt du « build once run everywhere » tant vanté par Docker. Parce que la version « prod » ne sera pas/peu testée en « dev ». Et donc qu’on repart dans les bons vieux aller-retours dev/prod. Autant virer Docker.


    [...]

    Quid de la sécurité ?

    [...]

    Docker repose sur le principe d’immuabilité des images. Une fois une image livrée, on n’y touche plus et au prochain changement nécessaire, on refait une image depuis zéro.

    Ça pose un problème assez énorme en termes de sécurité. Le jour où vous avez une faille dans le logiciel livré, on comprend bien qu’on n’échappera de toute façon pas à un correctif, une regénération, un passage intégral de toute la chaîne de qualification et une nouvelle mise en production. Mais si c’est une bibliothèque utilisée par le logiciel, par exemple OpenSSL qui connaît au moins une faille critique de sécurité par jour ?

    Dans une infrastructure sans Docker, les gentils administrateurs systèmes se seraient sagement connectés en SSH aux machines impactées, auraient simplement fait un apt update && apt upgrade et basta.
    Un patch de sécurité n’introduisant pas de changement de fonctionnalités et les développeurs de OpenSSL faisant bien leur travail, ils livrent des versions patchées assurant la rétro-compatibilité avec les versions précédentes. Les admins peuvent donc appliquer le patch assez rapidement sans avoir besoin de consulter les développeurs. Et la faille est rapidement corrigée avec un risque de régression négligeable (qu’on a parfaitement su accepter et maîtriser pendant des décennies, et même Docker ne pourra jamais garantir le 0 bug). En prime, le logiciel final, lui, n’a pas changé de version.

    Dans une infrastructure dockerisée, c’est une autre histoire… Les conteneurs devant être immuables, il est interdit aux administrateurs de se connecter aux machines pour les mettre à jour. Un changement de sécurité sur une bibliothèque réclame donc de redérouler l’intégralité de la chaîne : on met à jour la bibliothèque, on construit une nouvelle image Docker (qui change donc de version), on repasse toute la QA, on met en production. La mise en production nécessite un arrêt de l’ancienne image, la migration des données sur la nouvelle image et le redémarrage du système. Bref, vous allez tourner un long moment avec votre image trouée avant d’avoir pu fixer le problème…

    Hum, non, on ne repasse pas la QA. Dans les deux cas (sans Docker ou avec), tu as normalement que la lib qui a changée. Comparons ce qui est comparable. :)


    Quand on évoque ce problème avec la communauté Docker, ils avancent alors leur recette miracle : l’intégration continue. Certes, si vous réussissez à intégrer l’intégralité de la QA (tests unitaires, tests fonctionnels, tests d’intégration, tests de validation, tests de qualification, tests de recette) dans une suite de tests automatiques, c’est peut-être envisageable de faire une modification dans le code, de cliquer sur un bouton et d’avoir automagiquement la nouvelle version en production. En pratique, on a déjà du mal à atteindre 100% de couverture sur les tests unitaires, et plus on monte dans les étages plus c’est compliqué. Les tests fonctionnels doivent simuler des humains presse-boutons, les tests d’intégration sont un enfer à réaliser vu le nombre de composants en jeu, les tests de qualification sont souvent longs (tests de performance, de tenue de charge…), etc.

    Les plus perspicaces d’entre vous auront noté que tout ce qui précède repose sur une hypothèse très forte : on doit être mainteneur de l’image Docker utilisée ! En pratique, beaucoup utilisent des images pré-construites qu’ils assemblent selon leurs besoins. Il existe des dépôts d’images, dont le plus connu est le Hub Docker. Du coup, en cas de faille, il va vous falloir attendre une mise-à-jour. L’unique mainteneur est passé sous un bus ? Vous êtes mal… En termes de sécurité, c’est même encore plus gore dans ce cas, puisque vous n’avez pas beaucoup de moyens de vous assurer que l’image de 600Mo (n’oublions pas que ça intègre un OS complet) que vous allez utiliser n’intègre pas une porte dérobée ou une version obsolète d’une bibliothèque, surtout quand l’image est réalisée avec les pieds et ne permettent aucune vérification a posteriori. Les paquets Debian sont par exemple construits en compilation reproductible et vous pouvez facilement vous assurer que le nginx que vous utilisez est bien le même que celui du paquet Debian officiel alors que sous Docker, je vous souhaite bien du courage ne serait-ce que pour connaître le numéro de version utilisé. Sur chaque image Docker, il faudrait faire une revue assez poussée de ce qui se trouve sur l’image, au moins pour lister les différents composants et bibliothèques intégrés et ainsi connaître les impacts réels sur votre parc d’un correctif de sécurité.

    Haha, excellent l'exemple du nginx compilé depuis les sources dans une image Docker. Oui, identifier le bazar dans chaque couche de l'overlay, c'est déjà une plaie.

    Dans les commentaires :

    Et pour le délai, je prend les paris qu’une image avec 39 overlays comme Sidekiq ne sera pas mise à jour rapidement. Certainement pas en 2h pour les cas très urgents (Heartbleed), ni même en quelques jours. L’image Sidekiq est par exemple toujours bloquée en OpenSSL 1.0.1f, datée de janvier 2014 et toujours faillible à Heartbleed 2 ans après (corrigée dans 1.0.1g…).

    Sur twitter - https://twitter.com/aeris22/status/785399182978875392 :

    59 overlays Docker pris au pif. 38 faillibles à Heartbleed…


    [...]

    Mono-processus : ma vie, mon œuvre

    L’humanité s’est battue pendant des décennies pour mettre en place le multi-processus, puis le multi-thread… Mais ça c’était avant ! Avec Docker, vous ne pouvez lancer qu’un seul et unique processus dans une image. Pas plus. Ça n’a l’air de rien, mais c’est très handicapant en pratique. Vous ne pouvez pas avoir cron à tourner régulièrement par exemple. Donc pas de logrotate. Vous ne pouvez pas avoir de serveur SSH pour vous connecter à distance sur l’image. Pas de serveur de mail non plus, par exemple pour les rapports journaliers de logwatch (de toute façon on n’a pas cron pour les lancer…). Rien. La seule et unique chose que vous allez pouvoir lancer sera donc votre application. Et c’est tout.

    Le problème est que comme on l’a vu précédemment, une application se suffit généralement assez peu à elle-même. Elle nécessite par exemple une base de données, un frontal web, de pouvoir envoyer des courriels… Et donc de lancer plusieurs processus !

    En méthode quick & dirty, vous pouvez contourner le problème en lançant un bête script bash qui lancera tout en arrière-plan, ou plus malin un gestionnaire de processus comme supervisord ou pups qui se chargera lui-même de lancer tout le reste de ce que vous avez besoin. C’est tout de même assez galère à faire puisque votre distribution adorée vous fournira des scripts de démarrage pour le système d’init habituel (sysv, systemd, upstart…) et non pour supervisord ou pups, il vous faudra donc faire un travail de portage pour chaque composant nécessaire.

    La méthode recommandée par Docker pour gérer vos environnements est l’utilisation de Docker Compose. Vous allez créer autant de conteneurs que de composants de votre écosystème (un pour l’application, un pour la base de données, un pour le serveur de courriel…) et les assembler entre-eux pour qu’ils communiquent correctement.
    Pour certains composants comme la base de données, je trouve ça intéressant de séparer du reste, exactement comme on l’aurait fait dans une infrastructure non virtualisée. Pour d’autres, comme un serveur de courriel dédié pour envoyer 3 courriels au mois, c’est du gaspillage de ressources flagrant. Et pour la majorité, c’est d’une prise de tête sans nom… Par exemple dans une application Ruby-on-Rails utilisant Sidekiq comme ordonnanceur, on va se retrouver à avoir 4 conteneurs :

    • 1 pour l’application Ruby-on-Rails
    • 1 pour le backend web nginx
    • 1 pour Sidekiq
    • 1 pour le serveur Redis qui sert à la communication entre RoR et Sidekiq

    Alors que tout mettre sur la même machine se justifie largement tant qu’on n’a pas une volumétrie délirante (je tiens les 200.000 vues quotidiennes sur Cryptcheck sans soucis avec 1 seul conteneur), on se retrouve avec 4 machines à gérer et à devoir mettre à jour (les 4 utilisent OpenSSL par exemple) et une duplication de l’environnement Ruby (RoR & Sidekiq). On risque aussi de rencontrer des dégradations de performances, puisqu’on passe de communications sur la boucle locale voire des sockets UNIX à une communication TCP/IP externe. Et la sécurité devient tout autant un enfer, avec de la gestion de pare-feu à mettre en œuvre.

    On peut très bien avoir plusieurs processus par conteneur Docker mais ce qu'Aeris écrit reste parfaitement valable : si c'est pour déroger à l'un des principes de Docker, le microservice, alors c'est peut-être que ton cas d'utilisation n'entre pas dans la liste de ceux auxquels Docker apporte quelque chose et dans ce cas-là, oui, il vaut peut-être mieux rester à un déployement LXC + ochestration & co. Et la question est : quels microservices tournent de manière parfaitement autonome, sans rien d'autre ?


    [...]

    De la chasse aux méga-octets à la chasse aux bugs non reproductibles

    On a vu juste avant que Docker incite à créer plein de conteneurs pour les assembler entre eux. En interne pour la fabrication de ses propres images, Docker se base aussi sur des images pré-construites qu’il empile les unes sur les autres au travers de OverlayFS. Pour l’image Sidekiq, c’est pas moins de 39 couches empilées.

    Déjà, ça n’aide pas à la sécurité non plus, puisqu’une faille corrigée sur une couche réclame la reconstruction de toutes les images situées sur les couches supérieures. Ou alors vous corrigez violemment sur votre couche terminale, mais vous dupliquez alors vos bibliothèques (installées par une couche N mais masquées via overlayfs par la couche N+X) et vous avez le travail à faire sur toutes vos images utilisant la couche faillible.

    Ensuite, si on utilisait des images standard, on se retrouverait à consommer plusieurs giga-octets pour pas grand-chose. Du coup, la communauté Docker a commencé à faire la chasse aux méga-octets, et s’est prise de passion pour une distribution présentée comme très légère : Alpine Linux.

    Cette distribution vient avec un gros piège… Elle est conçue à la base pour aider à débugger des kernel ! Parce que quand vous développez ce genre de logiciel, vous êtes bien content d’avoir une image de 5Mo qui démarre en 2s, vu le nombre de redémarrages que vous allez faire. Et comme vous ne ferez presque rien côté utilisateur, on peut y mettre des trucs très légers comme musl et busybox au lieu des mastodontes que sont la glibc et les coreutils.

    Sauf que musl n’est pas compatible avec la glibc disponible un peu partout. Ni au niveau binaire, ce qui signifie que vous devez compiler explicitement vos logiciels avec cette libc et donc maintenir à la fois un livrable -glibc pour les gens hors de Alpine et un -musl pour Alpine. Ni au niveau fonctionnalités, ce qui fait que vous pouvez rencontrer des bugs incompréhensibles et non reproductibles sur d’autres plate-formes plus standard. Ça peut aller jusqu’à l’impossibilité totale de compiler votre logiciel, comme c’est le cas actuellement avec OpenJDK 8 ou Phusion Passenger.

    Bref, vous allez vous retrouver à soit utiliser des images du Hub Docker avec une chance non négligeable d’utiliser un conteneur Alpine dans votre chaîne et faire la chasse aux bugs vraiment chiants à comprendre, soit à devoir faire votre propre image personnelle sans Alpine… Le tout en croisant les doigts à chaque construction d’image pour ne pas tomber en plus sur une image contenant une faille de sécurité…

    Au final, Docker passe en plus complètement à côté de la plaque en termes de consommation de ressources. À titre d’exemple, la stack précédente RoR/Redis/Sidekiq/Nginx ramène pour 60 overlays Docker et 3.1 Go d’espace disque, quand je m’en tire pour 1.8 Go pour Cryptcheck avec une stack dev/RoR/Redis/Sidekiq/Nginx/Elasticsearch/CryptCheck/données. Un beau gâchis d’espace…

    [...]

    Un petit conteneur LXC tout simple, construit à partir de debootstrap générant une image de maximum 200Mo toute mouillée et dans laquelle vous allez installer vos logiciels au mieux avec du apt/dpkg standard et au pire quelques scripts automatisant l’installation (du bon vieux bash over chroot ou du ansible/salt), ça fonctionne simplement et c’est facile à gérer côté sécurité. Et vous découpez vos conteneurs non plus par logiciel comme sous Docker, mais par besoin : 1 conteneur pour toute la stack Discourse, 1 pour votre serveur de courriel entrant, 1 pour votre serveur DNS faisant autorité, etc.

    Gros +1

    Mon plus gros reproche, en dehors des problèmes de sécurité présentés par Aeris, c'est qu'il est très facile de mal utiliser Docker pour outrepasser les adminsys qui se contenteraient alors de mettre en prod' des dockers et de ne plus y toucher. Hé bah non, adminsys, c'est un métier, dev' s'en est un autre. Le dev' n'a aucune idée de toutes les emmerdes de la prod' (ce n'est pas ce que l'on attend de lui !) et il faudrait mettre son docker en prod' sans rien faire ? L-O-L, on va droit dans le mur. Docker peut facilement se transformer en boîtes noires mises en prod' sans aucun suivi, bref se transformer en supplétif du code jetable que l'on observe bien trop souvent.

    Mon Oct 31 15:55:05 2016 - permalink -
    - https://blog.imirhil.fr/2016/10/09/docker-container-hell.html
  • « Terrorisme », une notion piégée, par Vincent Sizaire (Le Monde diplomatique, août 2016)

    À partir de la fin du XIXe siècle, le terme « terroriste » tend le plus souvent à disqualifier certaines formes d’opposition, plus ou moins violentes, aux pouvoirs en place. Il vise moins un comportement donné — et susceptible à ce titre d’une définition juridique rigoureuse — qu’une motivation spécifique, réelle ou supposée, dans la perpétration d’actes pouvant recevoir une qualification pénale. La qualification de terrorisme relève donc davantage du rapport de forces politique que de l’herméneutique juridique.

    Aucune convention internationale ne parvient à en proposer une véritable définition. Un flou d’autant plus regrettable que la répression des infractions considérées comme terroristes se traduit par un emballement coercitif à tous les stades du procès pénal. Pourquoi conserver une catégorie juridique aussi peu satisfaisante alors que la réponse pénale doit présenter un caractère exceptionnel et pondéré ?

    [...]

    [...] Or la spécificité du terrorisme, tel qu’il est apparu dans notre droit il y a trente ans, est d’être en quelque sorte une infraction dérivée, se greffant sur des crimes et délits de droit commun dès lors qu’ils sont commis « en relation avec une entreprise individuelle ou collective ayant pour but de troubler gravement l’ordre public par l’intimidation ou la terreur (3) ». Ainsi, c’est d’abord l’existence de faits, entre autres, d’assassinat, de destruction ou encore de séquestration qui doit être démontrée pour déterminer si l’infraction terroriste a été commise.

    [...]

    Peut-être nous objectera-t-on que ce qui fonde la singularité du terrorisme réside dans la particulière gravité des faits incriminés. Pourtant, si l’on veut bien prendre quelque distance avec l’effet d’intimidation et de sidération propre à leur mise en scène, cet argument ne résiste guère à l’analyse. Qu’est-ce qui permet de considérer qu’un crime qualifié de terroriste porte davantage atteinte à la cohésion sociale qu’un crime mafieux, qui témoigne d’une hostilité aux fondements de l’État de droit au moins équivalente ? Pour prendre un exemple, peut-on sérieusement affirmer qu’un assassinat commis par fanatisme politique ou religieux est plus « nuisible à la société » qu’un assassinat commis par intérêt, par esprit de clan ou même par pur sadisme ?

    On nous opposera alors le caractère massif de certains actes terroristes, tels les attentats de New York en 2001, de Madrid en 2004 ou, plus récemment, de Tunis et de Paris en 2015, de Bruxelles, Istanbul, Bagdad et Nice rien qu’en 2016. C’est oublier qu’il existe pour de tels faits une qualification pénale infiniment plus précise et pertinente : celle de crime contre l’humanité. Le meurtre de dizaines, voire de centaines, de personnes au seul motif de leur appartenance à un État ou à un groupe « ennemi » peut aisément être qualifié d’atteinte volontaire à la vie commise « en exécution d’un plan concerté à l’encontre d’un groupe de population civile dans le cadre d’une attaque généralisée ou systématique (5) »

    En définitive, la seule raison d’être de l’infraction de terrorisme réside dans la prise en compte du mobile réel ou supposé de son auteur — à savoir la volonté de « troubler gravement l’ordre public par l’intimidation ou la terreur ». Une incongruité juridique, dans la mesure où le mobile (6) est traditionnellement indifférent à la constitution de l’infraction : il n’apporte qu’un élément permettant d’apprécier sa gravité relative et, ainsi, de déterminer le choix de la sanction. Intégrer le mobile dans la définition d’une infraction, c’est abandonner sa détermination à une appréciation nécessairement subjective des autorités.

    Déterminer à partir de quand des infractions de droit commun usuelles comme les atteintes aux personnes ou, plus encore, les dégradations ou détériorations peuvent être considérées comme de nature à troubler gravement l’ordre public au point d’intimider ou de terroriser relève en dernière analyse du fait du prince. La marge d’appréciation est d’autant plus forte qu’il ne s’agit pas seulement de jauger la gravité relative du trouble à l’ordre public, mais aussi de déterminer si l’auteur des faits manifeste en outre une volonté d’intimidation. Elle peut devenir totalement démesurée dans l’hypothèse où les personnes sont poursuivies du chef d’« association de malfaiteurs terroriste (7) » pour avoir préparé un attentat sans parvenir à le commettre.

    En somme, la qualification de terrorisme résulte nécessairement d’un rapport de forces et d’une appréciation politiques, au terme desquels les pouvoirs en place l’appliquent de façon plus ou moins discrétionnaire à tel phénomène délictueux plutôt qu’à tel autre. D’un point de vue strictement juridique, rien ne justifie ainsi que l’appellation soit réservée à des attentats à l’explosif par un mouvement régionaliste plutôt qu’à la destruction méthodique de portiques de contrôle par des chauffeurs routiers, les deux actes pouvant être analysés comme destinés à intimider les pouvoirs publics en troublant l’ordre public. De la même façon, rien n’interdit, en l’état des textes répressifs, de voir l’infraction d’« association de malfaiteurs terroriste » utilisée pour poursuivre tel ou tel mouvement syndical ou politique par un gouvernement qui se révélerait peu soucieux de sa légitimité démocratique.

    Même dans l’hypothèse où les personnes revendiquent sans ambiguïté une volonté de déstabilisation violente de l’ordre établi, l’arbitraire demeure. Car l’étiquette du terrorisme reste aussi un outil visant à disqualifier comme criminel un mouvement d’opposition politique, que sa violence soit réelle ou non. Les sabotages, destructions et autres exécutions de militaires allemands ou de miliciens commis par les résistants visaient à troubler l’ordre public par l’intimidation ou la terreur, afin de mettre un terme à l’Occupation. Ils furent, à ce titre, poursuivis comme faits de terrorisme par le régime de Vichy (8). Que cette qualification ne soit aujourd’hui plus retenue — ni même d’ailleurs envisageable — ne tient qu’à la légitimité donnée à ces actions dans une perspective historique.

    [...] D’une certaine façon, l’inscription sur les listes des organisations terroristes recensées par les États-Unis ou l’Union européenne dépend du lien entretenu par ces puissances avec le régime combattu. Pour ne prendre qu’un exemple, aucune analyse juridique ne peut expliquer que la répression de ses opposants par le gouvernement égyptien soit tolérée au nom de la lutte antiterroriste quand celle menée en Syrie est condamnée comme criminelle.

    En d’autres termes, l’importance du trouble à l’ordre social causé par l’infraction et l’émotion qu’il suscite sont mises, sinon en scène, du moins en avant pour justifier l’affaissement plus ou moins important de l’exigence de proportionnalité de la répression et, partant, des garanties du justiciable. En ce sens, la succession de modifications législatives de plus en plus rapide que nous connaissons depuis trente ans relève moins de la volonté d’affiner l’appréhension pénale du phénomène que de monter en épingle le péril terroriste pour justifier un accroissement démesuré des prérogatives des autorités répressives. Cette tendance se traduit par des mesures d’enquêtes particulièrement attentatoires aux libertés sans nécessité de démontrer l’existence d’une organisation criminelle, puisqu’il suffit de relever l’intention supposée de l’individu de « terroriser ». [...]

    [...]

    Les dernières réformes ont encore aggravé cette tendance. Ainsi, la loi du 13 novembre 2014 a introduit dans notre droit la singulière infraction d’« entreprise terroriste individuelle ». Supposée répondre à l’acte isolé de l’individu préparant seul un attentat, cette incrimination permet en réalité d’embrasser de très nombreux comportements, depuis le simple intérêt pour un fanatisme idéologique jusqu’à la préparation effective d’un assassinat. Là encore, l’extensivité du délit découle moins de la matérialité des actes préparatoires que de l’intention supposée de leur auteur. Il eût en effet été possible de n’incriminer que la préparation d’un attentat à l’explosif pour donner un fondement légal aux poursuites intentées — et ainsi aux mesures de contrainte prises au cours de l’enquête ou de l’information. Mais le législateur a préféré considérer comme terroriste, au même titre qu’un groupe criminel organisé, toute personne qui aura, en plus de rechercher des explosifs, consulté « habituellement un ou plusieurs services de communication au public en ligne (…) provoquant directement à la commission d’actes de terrorisme ou en faisant l’apologie », ou encore « séjourné à l’étranger sur un théâtre d’opérations de groupements terroristes »

    Au-delà de son arbitraire, une telle extension risque d’affaiblir l’efficacité de la réponse pénale, dans un contexte où la politique pénale vise prioritairement à poursuivre et à sanctionner les actes au stade de leur préparation. Elle conduit en effet à mobiliser l’attention des magistrats et des services d’enquête sur un nombre toujours plus grand de faits, depuis le projet abouti d’attentat jusqu’à la plus petite déclaration d’intention. Une dynamique qui épuise les moyens humains et logistiques disponibles. Sans compter que, si toute infraction est potentiellement terroriste, rien ne permet plus de distinguer ce qui mérite une attention particulière.

    [...]

    Dans certains cas, la « terreur » au nom de laquelle on voudrait légitimer le surcroît de répression découle autant, sinon davantage, de la réaction aux actes incriminés que des actes en eux-mêmes. Souvent, c’est avant tout parce qu’une infraction est qualifiée de terroriste que, par le truchement de la caisse de résonance politico-médiatique qui accompagne généralement cet estampillage, elle en devient source d’intimidation, voire de terreur. Cela est particulièrement vrai, par exemple, dans le cas où l’auteur de l’acte est poursuivi du chef d’association de malfaiteurs. À partir du moment où le projet d’attentat n’a, par hypothèse, pu avoir lieu, la dramatisation plus ou moins orchestrée de ses conséquences putatives crée l’effet terroriste.

    Des actes aussi effroyables que le massacre de Nice ne peuvent que nous bouleverser profondément et durablement. Mais, même dans l’hypothèse où l’acte recèle en lui-même un potentiel d’intimidation des pouvoirs publics, le qualifier de « terroriste » ne contribue qu’à renforcer son pouvoir symbolique. D’abord, cela a mécaniquement pour effet de mettre sur le même plan la répression en France d’actes qui, même d’une gravité exceptionnelle, n’en demeurent pas moins délictueux et la répression d’opposants politiques pratiquée dans d’autres États sous couvert de la même qualification.

    [...]

    Les arrêts rendus en la matière par la Cour européenne des droits de l’homme en témoignent. Ils mettent en évidence la propension des autorités, dès lors qu’il est question de « terrorisme », à ne plus prendre en considération le risque de traitements inhumains, voire de torture, que courent les personnes mises en cause dans certains États « partenaires » (13). Cela alimente la rhétorique des groupes criminels qui dénoncent la complicité des puissances occidentales avec des gouvernements corrompus et autoritaires pour appeler, en Europe comme dans les pays concernés, à rejoindre leurs rangs.

    Via #arn

    Mon Oct 31 14:29:20 2016 - permalink -
    - http://www.monde-diplomatique.fr/2016/08/SIZAIRE/56077
  • Secure Boot : Microsoft a laissé une porte dérobée ouverte

    Normalement, cette règle ne devrait être fournie qu’à ceux qui en ont besoin, après avoir dument montré patte blanche. Mais Microsoft a fait pour ainsi dire une petite boulette : cette règle « mode debug » est présente dans toutes les machines. Elle ne devrait évidemment pas, mais la conséquence est bien là.

    [...]

    Il ne semble pas possible pour l’instant d’insérer le moindre malware dans la chaine du démarrage sans que l’utilisateur ne s’en aperçoive. Par contre, la désactivation du contrôle de boot permet à un appareil de démarrer sur n’importe quel système d’exploitation. Il peut s’agir de PC, de tablettes ou de smartphones, les architectures x86 et ARM étant supportées. Certains voient déjà de quoi redonner une nouvelle jeunesse à des Surface RT laissées à l’abandon. Ou pourquoi pas installer Android sur des Lumia.

    [...]

    Comme indiqué à de nombreuses reprises, il n’existe rien de tel. Une porte ne peut être à la fois dérobée et sécurisée, car il existera toujours le risque que la clé échappe aux propriétaires ou qu’elle soit trouvée d’une autre manière. L’erreur de Microsoft prouve – s’il y en avait encore besoin – que le danger est réel.

    Cela rappelle l'histoire de Juniper ( http://shaarli.guiguishow.info/?z-I-1A ) ou les protections anti-copies DVDCSS et HDDVD dont les clés maître ont été dérobées dans les deux cas. Bref, même vieille histoire, même fin.

    Via #arn

    Mon Oct 31 13:08:02 2016 - permalink -
    - http://www.nextinpact.com/news/100963-secure-boot-microsoft-a-laisse-porte-derobee-ouverte.htm
  • Fin d'une surveillance hertzienne incontrôlée – exegetes.eu.org

    Le Conseil constitutionnel vient de rendre sa décision en réponse à la question prioritaire de constitutionnalité soulevée par les Exégètes amateurs sur la surveillance hertzienne. Reprenant nos arguments, il constate l’inconstitutionnalité de l’article L. 811-5 du code de la sécurité intérieure permettant une surveillance des communications hertziennes, celle-ci n’étant soumise « à aucune condition de fond ni de procédure » et sa « mise en oeuvre » n’étant encadrée « d’aucune garantie ».

    [...]

    En effet, les dispositions censurées ne peuvent dès à présent plus « servir de fondement à des mesures d’interception de correspondances, de recueil de données de connexion ou de captation de données informatiques » en France comme à l’international. Les seules mesures pouvant encore être prises sur la base de cet article semblent donc exclure toute atteinte à la vie privée.

    [...]

    Par ailleurs, le Conseil constitutionnel n’apportant guère de précision quant aux mesures fondées sur l’article L. 811-5 qui pourraient survivre à ces limites, nous espérons que la CNCTR saura, par exemple dans son rapport annnuel à paraître prochainement, fournir quelques explications pratiques à cet égard.

    La décision rendue ce jour par le Conseil est un succès incontestable, puisqu’elle doit mettre fin à des mesures attentatoires à la vie privée et aux libertés parfaitement inconstitutionnelles et disproportionnées. En privant les services de renseignement d’une couverture juridique laissant libre cours à toutes sortes de mesures de surveillance illégale, cette décision marque une première victoire dans la procédure engagée par les Exégètes amateurs contre la loi renseignement et ses décrets d’application.

    On rappellera que ce bout de texte, qui date de 1991 (!), excluait les communications par voie hertzienne (GSM, 3G/4G, Wi-FI, etc.) et les données liées (données de connexion) du périmètre de l'autorité de contrôle des services de renseignement si le motif "d'atteinte à la sécurité nationale" était utilisé. Évidemment, de nombreux abus ont eu lieu, voir : http://shaarli.guiguishow.info/?k6W51A . La censure par le Conseil Constitutionnel est donc une excellente nouvelle. \o/ Reste à voir le bout de texte qui repoussera derrière mais, quel qu'il soit, il ne pourra pas aller contre le Conseil et il faudra donc de l'encadrement et des conditions de fonds et de forme. L'open-bar est donc refermé ou, à défaut, ne pourra pas se faire de la même façon.

    Mon Oct 31 12:33:02 2016 - permalink -
    - https://exegetes.eu.org/censure-surveillance-hertzienne-incontrolee/
  • Non, je ne veux pas télécharger votre &@µ$# d’application ! – Framablog

    Bon, c'est du classique. Dit et redit des millions de fois mais bon, c'est bien formulé.

    Peu de choses m’agacent plus qu’un site quelconque qui me demande « Ne voulez-vous pas utiliser plutôt notre application ? ». Évidemment que je ne veux pas, c’est pour ça que j’utilise votre site web. Certaines personnes aiment les applications et d’autres non, mais au-delà des préférences personnelles, il existe un enjeu plus important. [...]

    [...]

    Pour comprendre pourquoi le Web est si important, il faut s’imaginer le monde d’avant le Web. De nombreux systèmes d’information existaient mais aucun ne pouvait réellement être interfacé avec les autres. Chaque source d’information nécessitait sa propre application. Dans cette situation, on comprend pourquoi la majeure partie de la population ne prenait pas la peine d’accéder à aucun de ces systèmes d’information.

    Le Web a permis de libérer l’information grâce à une interface uniforme. Enfin, un seul logiciel – un navigateur web – suffisait pour interagir avec plusieurs sources. Mieux encore, le Web est ouvert : n’importe qui peut créer des navigateurs et des serveurs, et ils sont tous compatibles entre eux grâce à des standards ouverts. [...]

    Au fil des années, les gens se mirent à naviguer sur le Web avec une large panoplie d’appareils qui étaient inimaginables à l’époque de la création du Web. Malgré cela, tous ces appareils peuvent accéder au Web grâce à cette interface uniforme. Il suffit de construire un site web une fois pour que celui-ci soit accessible depuis n’importe quel navigateur sur n’importe quel appareil (tant qu’on n’utilise rien de spécial ou qu’on suit au moins les méthodes d’amélioration progressive). De plus, un tel site continuera à fonctionner indéfiniment, comme le prouve le premier site web jamais créé. La compatibilité fonctionne dans les deux sens : mon site fonctionne même dans les navigateurs qui lui préexistaient.

    [...]

    Pourquoi les éditeurs de contenus préfèrent-ils les applications ? Parce-qu’elles leur donnent bien plus de contrôle sur ce que nous pouvons et ne pouvons pas faire. Le « problème » avec les navigateurs, du point de vue de l’éditeur, est qu’ils appartiennent aux utilisateurs. Cela signifie que nous sommes libres d’utiliser le navigateur de notre choix. Cela signifie que nous pouvons utiliser des plugins qui vont étendre les capacités du navigateur, par exemple pour des raisons d’accessibilité, ou pour ajouter de nouvelles fonctionnalités. Cela signifie que nous pouvons installer des bloqueurs de publicité afin de restreindre à notre guise l’accès de tierces parties à notre activité en ligne. Et plus important encore, cela signifie que nous pouvons nous échapper vers d’autres sites web d’un simple clic.

    Si, en revanche, vous utilisez l’application, ce sont eux qui décident à quoi vous avez accès. Votre comportement est pisté sans relâche, les publicités sont affichées sans pitié. Et la protection légale est bien moindre dans ce cadre. L’application offre les fonctionnalités que le fournisseur choisit, à prendre ou à laisser, et vous ne pourrez ni les modifier ni les contourner. Contrairement au Web qui vous donne accès au code source de la page, les applications sont distribuées sous forme de paquets binaires fermés.

    [...]

    [...] Leur objectif principal, en réalité, est de nous garder dans l’application. Depuis iOS 9, cliquer sur un lien dans une application permet d’ouvrir un navigateur interne à l’application. Non seulement cette fonctionnalité prête à confusion (depuis quelle application suis-je parti(e), déjà ?), mais surtout elle augmente le contrôle de l’application sur votre activité en ligne. Et une simple pression du doigt vous « ramène » vers l’application que vous n’aviez en fait jamais quittée. Dans ce sens, les applications contribuent sciemment à la « bulle de filtre ».

    [...] Les Articles Instantanés [ NDLR : de Facebook ] sont vendus comme une expérience « interactive et immersive » avec plus de « flexibilité et de contrôle » (pour les fournisseurs de contenu bien sûr) qui entraînent de nouvelles possibilités de monétisation, et nous rendent une fois de plus « mesurables et traçables ». [...] Le nom « Articles Instantanés » fait référence à la promesse d’une rapidité accrue, et bien qu’ils soient effectivement plus rapides, cette rapidité ne nous est pas vraiment destinée. Facebook explique que les utilisateurs lisent 20 % d’articles en plus et ont 70 % de chances en moins d’abandonner leur lecture. Ces résultats favorisent principalement les éditeurs… et Facebook, qui a la possibilité de prendre une part des revenus publicitaires.

    Ne vous y trompez pas : les applications prétendent exister pour notre confort, mais leur véritable rôle est de nous attirer dans un environnement clos pour que les éditeurs de contenu puissent gagner plus d’argent en récoltant nos données et en vendant des publicités auxquelles on ne peut pas échapper.

    Les développeurs aussi gagnent plus, puisqu’ils sont désormais amenés à élaborer des interfaces pour plusieurs plate-formes au lieu d’une seule, le Web (comme si l’interface de programmation du Web n’était pas déjà assez coûteuse).

    [...]

    Cette chanson me rappelle soudain le directeur de Facebook comparant les sites web et le vinyle. L’analogie ne pourrait pas être plus juste. Le Web est un disquaire, les sites sont des disques et le navigateur un tourne-disque : il peut jouer n’importe quel disque, et différents tourne-disques peuvent jouer le même disque. En revanche, une application est une boîte à musique : elle est peut-être aussi rapide qu’un fichier MP3, mais elle ne joue qu’un seul morceau, et contient tout un mécanisme dont vous n’auriez même pas besoin si seulement ce morceau était disponible en disque. Et ai-je déjà mentionné le fait qu’une boîte à musique ne vous laisse pas choisir le morceau qu’elle joue ?

    Mon Oct 31 11:36:21 2016 - permalink -
    - https://framablog.org/2016/08/25/non-je-ne-veux-pas-telecharger-votre-%C2%B5-dapplication/
  • Globenet - (presque) toutes les lois concernant internet, en résumé

    Petit annuaire des traités internationaux, directives européennes, lois françaises, décret, décisions de justice concernant Internet, avant 2010. On y apprend des bouts très lol genre que la HADOPI 2 a bien un droit de couper les accès Internet dans la théorie ou que l'ARJEL veut un accès chiffré permanent aux casinos en ligne. :D Je note aussi que les mauvaises idées se sont propagées très vite de lois en lois. Genre la sécurisation des accès à Internet qui est la mécanisme clé d'HADOPI est présent dans DADVSI sous une forme non contraignante. :-

    Pour les parties portant sur les données de connexion, ça se lit en parallèle de ça : http://shaarli.guiguishow.info/?Cqvmhw

    Traité de l’OMPI sur le droit d’auteur = Traité du 20 décembre 1996
    L’article 4 protège les programmes d’ordinateurs et tant qu’ "oeuvres littéraires".


    Convention sur la cybercriminalité = Convention de Budapest – du 23 novembre 2001 = « Convention on Cybercrime »

    Interdit le "hacking", le pedoporn, les atteintes à la propriété intellectuelle. Pedoporn au même niveau que "hacking" et propriété intellectuelle. ;)

    Dans l’article 16, les parties s’engagent à conserver les données de connexion « au maximum 90 jours »
    Dans l’article 21, les parties s’engagent à obliger les F.A.I. à « intercepter les données relatives au contenu », pour « un éventail d’infractions graves ».


    [...]

    La Directive dite IPRED = Directive 2004/48/EC du 29 avril 2004 « directive on the enforcement of intellectual property rights »
    Ils [ NDLR : les États membres ] doivent poursuivre pénalement et permettre aux ayant droits de poursuivre, les personnes morales dont les services sont utilisés par les contrefacteurs (implicitement, les F.A.I. et les plates-formes de P2P).


    [...]

    Loi Godfrain Loi du 5 janvier 1988 (une loi ’anti-hackers’ de fait) « Loi relative à la fraude informatique »
    Cette loi très courte (un seul article) interdit toute intrusion dans un système informatique, même sans modification ni utilisation des données rendues accessibles. (2 mois de prison et 50.000F d’amende).
    Les peines augmentent évidemment en cas de vol ou de destruction des données.


    Loi définissant les obligations des éditeurs de sites internet = Loi du 1er août 2000. « Loi modifiant la loi n°86-1067 du 30 septembre 1986 relative à la liberté de communication
    Ébauche de la LCEN : les éditeurs de sites web doivent indiquer les noms et adresses de la personne responsable des publications ou, si ce ne sont pas des pros, les coordonnées de leur hébergeur + début de conservation des données de connexion + retrait des contenus illégaux sur demande par les hébergeurs.


    Loi LSQ = loi du 15 novembre 2001 Loi relative à la sécurité quotidienne.
    l’article 29 autorise « l’autorité judiciaire » à demander la conservation des données de connexion pendant 1 an (une mesure qui sera généralisée par la directive ’data retention’).
    les article 30 et suivants sont relatifs à la « cryptologie ». L’autorité judiciaire peut faire appel à des experts soumis au ’secret-défense’ pour effectuer des opérations de déchiffrement.
    Le fait de refuser de donner les chiffres nécessaires au déchiffrement est puni selon les cas :

    • de 2 ans d’emprisonnement et de 30.000 euro d’amende
    • de 3 ans d’emprisonnement et de 45.000 euro d’amende
    • de 5 ans d’emprisonnement et de 75.000 euro d’amende

    Quelques infos en plus : http://shaarli.guiguishow.info/?ztARDA


    Loi LCEN = loi du 21 juin 2004 » « Loi pour la confiance dans l’économie numérique »
    L’article 18 permet à une autorité administrative de fermer un site de vente en ligne.
    L’article 31 « la fourniture de prestations de cryptologie doit être déclarée auprès du premier ministre ». (sinon : 2 ans d’emprisonnement et 30.000 euro d’amende)
    L’article 46 interdit de mettre à disposition et même de détenir (donc même d’inventer) un programme permettant de s’introduire dans un système informatique.


    [...]

    Loi DADVSI = loi du 1er aout 2006 « Loi relative aux droits d’auteurs et aux droits voisins dans la société de l’information »
    Elle contenait à l’origine un dispositif de « riposte graduée » appliquée au P2P, qui a été censuré par le conseil constitutionnel
    Aricle 19 : il est interdit de contourner une mesure technique de protection (DRM)
    Article 21 : il est interdit de diffuser un logiciel de contournement de mesure technique de protection : 3 ans de prison et 300.000 euro d’amende. (la fin de l’article 21 sur le P2P a été censurée par le conseil constitutionnel).
    Article 23 : il est interdit de se ’casser’ une protection par un bricolage personnel (3750 euro d’amende)
    Article 25 : Le titulaire d’un abonnement internet doit veiller à ce que sa ligne ne serve pas au piratage. Son F.A.I. doit lui proposer des « moyens de sécurisation » à cet effet.
    Article 27 : les logiciels « principalement utilisés pour la diffusion illicite d’oeuvres » (=P2P) peuvent être sommés par un juge de ne laisser passer que les contenus libres de droits.
    Les derniers articles obligent les hébergeurs à envoyer des copies de leurs pages hébergées à la bibliothèque nationale, pour archivage.


    Loi prévention délinquance = Loi du 5 mars 2007 loi relative à la prévention de la délinquance.
    ARTICLE 40 modifiant l’ARTICLE 6 de la LCEN. Cet article ajoute à la liste des ’contenus odieux’ (négationnisme + haine raciale + pornographie infantine) « l’incitation à la violence et les atteintes à la dignité humaine ».
    Les hébergeurs et F.A.I. doivent aussi signaler à leurs abonnés « les services de communication au public en ligne tenus pour répréhensibles »


    [...]

    Loi dite HADOPI 2 « LOI n° 2009-1311 du 28 octobre 2009 relative à la protection pénale de la propriété littéraire et artistique sur internet »
    Elle permet de couper la connexion internet des gens. Elle utilise une astuce juridique expliquée dans ce blog
    Ho, donc c'est resté malgré la censure du Conseil Constitutionnel :O Cette possibilité a été supprimé par décret sous la présidence d'Hollande : http://www.huffingtonpost.fr/2013/07/09/hadopi-la-coupure-dinternet-cest-termine-un-seul-internaute/


    Loi du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent en ligne = loi jeux en ligne / loi ARJEL
    ARTICLE 16 : Accès permanent de l’ARJEL aux serveurs. Les agents de l’ARJEL peuvent entrer à tout moment dans le le local ou se trouvent les serveurs.


    [...]

    Décret du 6 Fevrier 2007 relatif à l’attribution et à la gestion des noms de domaine sur internet.
    Ce décret ajoute une section « noms de domaines » au code des postes et communications.


    [...]

    Décret (HADOPI) du 5 mars 2010 relatif au traitement automatisé des données à caractère personnel
    (remarque : la LCEN n’oblige pas les F.A.I. à communiquer ces données à une autorité non judiciaire, ni à fournir une adresse électronique à leurs abonnés) ; le décret appelle donc de ses voeux une« convention » avec chaque F.A.I. pour réaliser « l’interconnexion » de ses données avec celles qui sont apportées par les ayant-droit.
    Ho, c'est donc pour ça les conventions et le fait que les FAI non conventionnés échappent au radar de la HADOPI !


    [...]

    L’arrêté ARJEL (= le cahier des charges) Arrêté du 17 mai 2010 portant approbation du cahier des charges applicable aux opérateurs de jeux en ligne
    L’ARJEL veut aussi une connexion chiffrée permanente avec l’opérateur de jeu agréé

    Via #tetaneutral.net

    Mon Oct 31 10:27:38 2016 - permalink -
    - http://www.globenet.org/presque-toutes-les-lois-concernant.html
  • Attentats et chiffrement

    Vu que l'on a entendu tout et son contraire à longueur de temps, je voulais revenir à tête reposée sur l'utilisation de la cryptographie par les terroristes auteurs d'attentats.

    Oui, mon angle d'attaque du sujet est très restreint puisque j'exclu ainsi la propagande de Daesh sur Telegram ou ailleurs (ce qui exclu ce genre de choses : https://fr.sputniknews.com/france/201609251027914228-attentat-police-terroriste-detention-messagerie/ ) , par exemple. Ce qui m'intéresse, c'est la préparation et la commission d'actes. La propagande, ça reste des mots, c'est une pente glissante comme je l'ai déjà écrit dans d'autres shaarlis.



    Petite liste :

    • ÉDIT DU 04/08/2018 À 11H45 : attentat de l'hyper Cacher en janvier 2015 : mails chiffrés (source : livre « Contre l'État d'urgence »). FIN DE L'ÉDIT.

    • Attentats de Paris en novembre 2015 : SMS en clair, téléphones jetables mais aucune trace évidente du chiffrement. Voir https://www.slate.fr/story/115841/chiffrement-paris-bruxelles . Malgré tout ce que les USA ont bavé pour justifier de nouvelles politiques anti-chiffrement.

    • Attentats de Bruxelles en mars 2016 : aucune trace d'utilisation de méthodes de chiffrement.

    • Attentat de Nice en juillet 2016 : aucune trace d'utilisation de méthodes de chiffrement.

    • Attentat dans l'église de Saint-Étienne-du-Rouvray en juillet 2016 : utilisation de Telegram par l'auteur principal pour communiquer avec Rachid Kassim que l'on retrouve dans différents dossiers puisqu'il incite vivement les gens qui le suivent à passer à l'action.



    En dehors des attentats, on trouve diverses choses :

    • Farouk ben Abbes, un Belge de 39 ans, a lui été impliqué dans de nombreux dossiers terroristes : mis en cause dans la filière d’Artigat, il a été interpellé après l’attentat du Caire et mis en examen en 2010 dans le cadre du projet d’attaque visant le Bataclan [...] Lors de son interpellation en Egypte, Farouk Ben Abbes était en possession de documents relatifs à la fabrication d’explosifs et d’une clé de chiffrement informatique au nom d’Abou Khattab, le responsable de « l’Armée de l’islam ». Un mail intercepté le 10 mars 2009 entre Abou Khattab et Mustapha Debchi, membre du Groupe salafiste pour la prédication et le combat, semble étayer les soupçons égyptiens : « Pour ce qui est du frère belge qui aspire à l’érudition, la franchise n’est pas non plus pour me déplaire. Demande-lui mot pour mot : est-il prêt à commettre une opération martyre en France ? (…) Donne-lui mon adresse électronique et la clé et envoie-moi sa clé à lui. »

    C'est très intéressant, on dirait une utilisation d'OpenPGP. Source : http://www.lemonde.fr/attaques-a-paris/article/2016/02/16/aux-origines-des-attaques-du-13-novembre_4866149_4809495.html


    • Chez la jeune femme, les enquêteurs ont saisi des clés de chiffrement ayant potentiellement servi à crypter des SMS et à enregistrer des numéros de portable.

    « Elle » désigne Emilie L., compagne de Sid Ahmed Ghlam, auteur présumé de "l'attentat" déjoué de Villejuif en avril 2015. Et visiblement, on n'a jamais eu de confirmation de ces faits écrits au conditionnel. Voir http://www.liberation.fr/societe/2015/04/24/sid-ahmed-ghlam-un-suspect-surveille-d-un-peu-trop-loin_1264926


    • Dans un reportage sur les liens entre les terroristes de Bruxelles, la chaîne CNN rapporte avoir pris connaissance de la transcription d’un interrogatoire de Reda Hame, un djihadiste français revenu en France en août 2015, aussitôt arrêté par la Direction générale de sécurité intérieure (DGSI). Entraîné par Abdelhamid Abaaoud, Hame aurait expliqué aux enquêteurs avoir reçu une formation sur TrueCrypt, un outil qui permet de créer un disque dur virtuel chiffré. [...] Déjà en février dernier, L’Obs rapportait que lors de son arrestation, Reda Hame avait raconté qu’il devait préparer une action contre une salle de spectacle (c’était quelques mois avant la tuerie du Bataclan), et que « chez lui, les enquêteurs découvrent une clé USB contenant trois utilitaires de destruction de données numériques et le logiciel de chiffrement TrueCrypt ».

    Source : http://www.numerama.com/politique/155577-truecrypt-conseille-par-letat-islamique-ou-limpossible-controle-du-chiffrement.html



    Une chose est sûre en tout cas : l'utilisation de méthodes de chiffrement (et de Telegram) n'empêche pas la police de remonter les réseaux, notamment les personnes en contact avec Rachid Kassim. Voir https://www.letemps.ch/monde/2016/09/16/deux-personnes-soupconnees-dactivites-terroristes-ont-arretees-belgique et http://www.7sur7.be/7s7/fr/31902/La-menace-EI/article/detail/2867542/2016/09/12/La-messagerie-cryptee-Telegram-un-defi-de-taille-pour-les-enqueteurs.dhtml

    Sun Oct 30 23:41:38 2016 - permalink -
    - http://shaarli.guiguishow.info/?d_PDYw
  • Hypra : la révolution par l’humain – Framablog

    En s’inspirant des problèmes d’accès à l’informatique des personnes déficientes visuelles, Jean-Philippe et Corentin, les fondateurs d’Hypra (dont plusieurs membres sont aveugles ou mal voyants) ont conçu un modèle qui personnalise l’accompagnement de l’utilisateur. Leur « Système à Accès Universel » facilite la migration vers le logiciel libre, y compris pour le grand public.

    Deux possibilités, soit je suis complètement aveugle (environ 100 000 personnes en France) et je recours à un transcripteur braille que je connecte à mon ordinateur (mais une minorité des aveugles lisent le braille), soit j’utilise un retour vocal.

    Si je suis malvoyant, je vais utiliser un certain nombre de fonctionnalités d’assistance visuelle : le zoom, l’inversion des contrastes, un localisateur de curseur, de souris etc.

    [...]

    Notre innovation tient d’abord à cela. Pour la première fois, Hypra fournit un système d’exploitation à ses utilisateurs qui leur assure cette complémentarité. Et là où JAWS, le retour vocal historique, coûte 1 500 euros (pris en charge sur les fonds publics), et où ZoomText, la solution leader sur la malvoyance, coûte 600 euros, notre couplage de solution est lui gratuit.

    [...]

    Nos utilisateurs payent pour du service, c’est à dire justement la personnalisation de l’accompagnement. Au global, cela leur revient le prix qu’ils payeraient pour un simple ordinateur Mac ou Windows sur deux ou trois ans, c’est à dire 1 500 à 1 600 euros. Mais plutôt que de les payer sans visibilité sur deux, trois ans, ils payent d’une traite avec la garantie de ne plus avoir à subir de coûts cachés liés aux problèmes de mise à jour, de sécurité, mais aussi de matériel. Nous sommes en effet en train de ficeler un solide accord-cadre avec plusieurs constructeurs de manière à offrir un S.A.V. irréprochable et global (logiciel et matériel).

    [...] Bien sûr, pour celles et ceux qui aiment la débrouillardise et qui ont du temps à y consacrer, il est possible de se passer de formation et d’accompagnement sur la durée, et le prix est alors ramené entre 800 à 1 000 euros. Nous ne le conseillons qu’aux utilisateurs très avancés.

    Ce que nous proposons, nous, en définitive, c’est une continuité de service qui garantit de trouver un interlocuteur et un dialogue de qualité, une exigence de performance et de délais lorsqu’un problème quelconque se présente. Cela permet d’économiser sur l’autre grand coût caché de l’informatique : le temps. [...]

    [...]

    Notre engagement éthique en ce domaine est clair : nous ne recourons à des logiciels propriétaires que lorsque aucun autre choix non-handicapant pour l’utilisateur n’est possible. Nous l’avons fait pour le retour vocal, nous allons le faire pour un logiciel qui permet aux aveugles de lire leur courrier papier (via la reconnaissance optique de caractères). Seuls des logiciels propriétaires pouvaient assurer une performance suffisante. Nous avons déjà en tête de proposer dans le futur la même performance mais sous la forme de logiciels libres dont nous aurions coordonné le développement.

    [...]

    Je dirais que c’est l’inverse. Les handicapés, mieux que personne, comprennent l’importance fondamentale du logiciel libre. [...] Par ailleurs, ce sont aussi les premiers à souffrir des rentes de monopole que constituent les entreprises qui conçoivent et commercialisent des logiciels propriétaires. Notre grand sondage mené en janvier 2015 montrait qu’une grande partie de la population déficiente visuelle était consciente que JAWS (le retour vocal à 1 500 euros) était sur-tarifé pour les évolutions qu’il connaît dans le temps. Beaucoup s’indignaient sur l’effet d’aubaine de la prise en charge publique (par les Conseils Généraux) d’un logiciel aussi cher. Mais surtout, 75 % des 450 répondants se déclaraient prêts à passer au logiciel libre si une offre de service de qualité était fournie.

    Si l’on se tourne vers le grand public, l’équation n’est pas si différente, mais la prise de conscience est peut-être moins avancée. Je dis bien peut-être. Car les gens sont fatigués des mises à jour incessantes et déstabilisantes sous Windows dont le paroxysme est Windows 10, ils sont également fatigués de la sous-traitance du service de Apple à des organismes agréés qui sont des machines à cash. [...]

    [...] Il faut bien comprendre que le libre, ça n’a pas une bonne image parmi le public (au mieux l’indifférence, au pire le rejet par préjugé). Pour pleins de raisons et parce que sa compréhension exige de réfléchir à des choses que les gens ne soupçonnent pas. Ou elle renvoie à un historique, une image, pas toujours génial. Du coup, tout en affirmant notre ancrage libriste sans complexe, on ne le met pas en avant auprès de nouveaux clients, sauf si ça permet d’aborder un sujet qui préoccupe un utilisateur [...]

    [...] Enfin, quand on forme les gens, pas question d’empêcher les installations non Hypra, les mises à jour, contrairement à Ordissimo. [...] Ordissimo se base sur Debian et protège son travail de paramétrage en ne le reversant pas et en n’y autorisant pas de modification. Hypra est transparent et dans une logique de dialogue mutuel constant avec Debian, et nous l’affirmons. [...]

    Sun Oct 30 21:48:40 2016 - permalink -
    - https://framablog.org/2016/04/05/hypra-la-revolution-par-lhumain/
  • Ressources (in)humaines : Politis flingue le « système Free » - Rue89 - L'Obs

    Le dossier porte d’abord sur le plan Marco Polo, nom de code de la fermeture progressive d’un site marseillais. Politis s’appuie sur un listing de 45 salariés, « fichés par les ressources humaines et progressivement poussés vers la sortie ». Ce fichier nominatif répertorie les situations des salariés et les méthodes envisagées, comme « dossier à construire pour faute » ou « clause mobilité ».

    Les journalistes ont également vu des mails montrant que les DRH sont conscients du risque de requalification en PSE (plan de sauvegarde de l’emploi) ; en conséquence ils veulent éviter des ruptures conventionnelles « pour ne pas créer de doutes sur l’hypothèse d’un plan social économique déguisé ».

    [...]

    Diverses pratiques de harcèlement ont été utilisées : « Détérioration des conditions de travail, isolement physique et moral, demandes floues et répétées suivies de reproches, jeu sur la mobilité... » Un ancien cadre marseillais raconte que « ils nous faisaient déplacer le dimanche sans nous payer, nous ont fait monter à Paris pour une demi-heure de formation : c’était ridicule ! »

    Giorgio Mariani reconnaît avoir participé à « une machine à broyer » et a fini par craquer après avoir « jeté avec une misère » une ingénieure « qui n’avait rien à se reprocher », « broyée psychologiquement ». Il a alors appelé la CFDT et dévoilé le plan Marco Polo. Après un arrêt maladie, il est à son tour licencié pour faute grave, ne pas avoir déclaré son appartement de fonction – il finit par obtenir gain de cause en appel en mars 2015.

    [...]

    Ce plan marseillais a réussi à obtenir la plupart des départs souhaités, rapporte Politis, qui a aussi eu accès entre autres documents internes de Free à :
    « Un tableau extrêmement détaillé, évaluant les pertes aux prud’hommes en comparaison de ce qu’aurait coûté un plan de licenciement conforme à la loi. Le résultat est sans appel : économiquement, mieux vaut harceler, licencier et être condamné que respecter la loi. »

    L’hebdomadaire présente ensuite les conditions de travail dans les centres d’appels, « les Germinal des temps modernes » selon un avocat, Me Lecanet, « qui a eu maille à partir avec le groupe » ; le turn-over y serait particulièrement élevé, 44% du personnel ayant quitté son poste en 2014 dans quatre des cinq centres d’appels du groupe (les chiffres du cinquième, à Marseille, ne sont pas connus) [...]

    L’hebdomadaire présente ensuite les conditions de travail dans les centres d’appels, « les Germinal des temps modernes » selon un avocat, Me Lecanet, « qui a eu maille à partir avec le groupe » ; le turn-over y serait particulièrement élevé, 44% du personnel ayant quitté son poste en 2014 dans quatre des cinq centres d’appels du groupe (les chiffres du cinquième, à Marseille, ne sont pas connus)

    Plusieurs cas sont cités dans le dossier, comme le licenciement de quatre conseillers d’une boutique parisienne [...] ou encore le renvoi d’un manager de centre d’appels, très apprécié, qui se voit convoqué à un entretien préalable de licenciement alors qu’il était sur le point d’être nommé délégué syndical – malgré son statut de ce fait de salarié protégé, selon un courrier de l’inspection du travail vu par Politis.

    Sun Oct 30 21:06:13 2016 - permalink -
    - http://rue89.nouvelobs.com/2016/05/19/ressources-inhumaines-politis-flingue-systeme-free-264076
  • Blog Stéphane Bortzmeyer: RFC 7962: Alternative Network Deployments: Taxonomy, Characterization, Technologies, and Architectures

    On pourrait croire que la seule façon d'accéder à l'Internet est via un FAI commercial, géré hiérarchiquement (avec directeur, plein de sous-directeurs, etc), dont les utilisateurs paient pour bénéficier de l'accès (mais sans avoir leur mot à dire sur le fonctionnement du FAI), et disposant de grands moyens financiers et techniques. C'est certainement la vision dominante et elle arrange bien les gens des médias et des gouvernements, qui se retrouvent dans une situation connue, avec un petit nombre d'acteurs « professionnels ». Heureusement, l'Internet n'est pas comme cela : c'est une confédération de réseaux très variés, certains effectivement gérés comme indiqué plus haut, mais d'autres fonctionnant sur des modèles très différents, ayant fait des choix techniques, de gouvernance et de financement très différents et très variés. Cet excellent RFC décrit et classe les réseaux « alternatifs ».

    [...] Ces techniques sont en effet souvent différentes de celles utilisées dans les réseaux « officiels » (mainstream). Ces réseaux « alternatifs » visent en général des situations difficiles, comme la connexion de lieux lointains, où l'argent ne coule pas à flots. À part cela, ces réseaux n'ont rien en commun, ni leur organisation, ni leurs buts. Qu'est-ce qui motive leur création ? (Au passage, le RFC fait comme si ces réseaux « alternatifs » étaient une création récente ; certains sont au contraire aussi vieux que l'Internet.) Les raisons de ces projets sont elles aussi très diverses : absence pure et simple de FAI commercial, insatisfaction vis-à-vis des FAI officiels existants, désir d'essayer quelque chose d'autre...

    [...] Le RFC (section 1.1) définit le réseau « officiel » (mainstream) ainsi :

    • De grande taille, par exemple à l'échelle d'un pays,
    • Gestion du réseau centralisée : tout part d'en haut,
    • Gros investissements dans l'infrastructure,
    • Les utilisateurs sont de purs consommateurs : ils n'ont absolument pas leur mot à dire, et, la plupart du temps, ils ne reçoivent aucune information, ils ne savent pas ce qui se passe dans le réseau qu'ils utilisent.

    [...] « Réseau libre » (Free Network) : c'est un terme délicat, car politiquement chargé, mais notre RFC reprend la définition de la Free Network Foundation. Dans un réseau libre, on peut utiliser le réseau librement (la liberté s'arrêtant évidemment là où commence la liberté des autres, donc pas le droit de faire des DoS par exemple), comprendre comment il marche (pas de secrets) et on peut soi-même fournir des services au-dessus de ce réseau.

    Maintenant, les cas où on déploie ces réseaux « alternatifs » (section 3 du RFC). Il y aurait actuellement 60 % de gens sur Terre sans connectivité Internet. Et la répartition est très inégale (20 % sans connexion au « Nord », 69 % au « Sud »). Parmi les facteurs qui vont intervenir :

    • La disponibilité de connexions internationales (ce n'est pas tout de se connecter entre soi, il faut aussi se relier au reste du monde), et de matériel,
    • Les problèmes d'alimentation électrique,
    • Le contexte légal. Ici, le RFC reprend telle quelle l'idéologie répandue à l'ISOC comme quoi la régulation, c'est mal, et qu'il faut tout privatiser.

    [...] Les problèmes des zones rurales sont souvent cruciaux : faible revenu monétaire, manque d'infrastructures de base comme l'électricité et les routes, densité de population réduite, manque de compétences (les techniciens compétents quittent rapidement ces zones pour aller en ville), etc.

    [...] D'abord, quelle organisation gère le réseau ? Un groupe plus ou moins formel d'utilisateurs ? Une collectivité publique ? Une société privée ? Un organisme de recherche ou d'enseignement ? (En France, on aurait ajouté « Une association loi 1901 ? »)

    Second critère de classification, le but de la création de ce réseau : fournir un accès qui n'existerait pas du tout autrement ? Fournir une alternative bon marché ? Expérimenter et tester ? S'attaquer à d'autres problèmes de fracture numérique (comme la littératie numérique) ? Fournir un accès d'urgence suite à une catastrophe ? Ou bien un but plus politique, par exemple des mécanismes de gouvernance différents, une approche davantage « bien commun » ? Ou fournir un accès libre et neutre, contrairement à ce que font la quasi-totalité des FAI ? (Ce dernier point est présenté de manière très modérée dans le RFC qui, globalement, évite de parler des choses qui fâchent, comme la politique.)

    Bien sûr, un réseau alternatif peut avoir plusieurs de ces mobiles. Et ceux-ci peuvent être plus ou moins explicites, et ils évoluent dans le temps. Le réseau Redhook avait commencé plutôt comme outil local, avant de devenir le seul réseau à fonctionner après Sandy.

    Un autre critère, proche du premier, est celui du modèle de gouvernance : très ouvert, avec une participation active des utilisateurs, ou bien plus traditionnelle, avec une organisation centrale qui s'occupe de tout ? (On peut avoir un réseau qui est la propriété d'un groupe d'utilisateurs mais qui, en pratique, est géré par une petite organisation structurée.)

    Autre critère, qui va plaire aux techniciens, quelles sont les techniques employées dans ce réseau ? Wi-Fi traditionnel ? Wi-Fi modifié pour les longues distances (WiLD) ? WiMAX ? Espaces blancs de la télévision (cf. RFC 7545) ? Satellite comme dans le projet RIFE ? Voire des fibres optiques terrestres ?

    Enfin, dernier critère de classification, le contexte : zone rurale ou urbaine, Nord ou Sud.

    [...] Première catégorie, les réseaux d'un groupe local (community networks). Géré par un groupe de citoyens proches, ils ont typiquement un fonctionnement très ouvert et participatif. Leur croissance est en général non planifiée et non organisée : les premiers membres se connectent puis d'autres volontaires les rejoignent. Le mécanisme de décision est la plupart du temps très décentralisé. En général, ils utilisent le Wi-Fi et chaque membre contribue donc à la croissance du réseau « physique » sous-jacent.

    Seconde catégorie, les WISP (Wireless Internet Service Providers). Cette fois, le réseau est géré par une société traditionnelle, mais il est « alternatif » par le public visé (typiquement des régions rurales mal desservies, où l'infrastructure est minimale, et où les FAI traditionnels ne vont pas). [...]

    Troisième catégorie de réseaux alternatifs, l'infrastructure partagée (Shared Infrastructure model). L'infrastructure du réseau est partagée entre un opérateur traditionnel et les utilisateurs. C'est le cas lorsque les utilisateurs détiennent le matériel (par exemple femtocell) mais que la gestion est assurée par un FAI. Les utilisateurs sont payés, soit directement par le FAI qui leur loue l'infrastructure, soit indirectement par l'accès à l'Internet qu'ils obtiennent via ce FAI. Dans pas mal de régions rurales dans le monde, la 3G a été déployée ainsi, via les femtocells. Prévue à l'origine pour fournir une meilleure couverture dans les bâtiments, cette technologie peut aussi être utilisée pour fournir des accès aux téléphones mobiles sans que l'opérateur ait eu à supporter de gros investissements.

    Autre catégorie possible, les approches « foule de volontaires » (Crowdshared approaches) où des utilisateurs qui ne se connaissent pas forcément mettent la main au portefeuille pour participer à un projet commun, qui sera géré par une une société ou par eux-mêmes. Typiquement, les utilisateurs mettent à la disposition de tous une partie de leur capacité réseau, et l'entité qui gère le réseau est une simple coordination, elle ne possède rien. [...]

    Il y a aussi des réseaux montés par des coopératives en milieu rural, ce qui forme la cinquième catégorie identifiée. Ce genre de coopératives fournissant un service local est courant et ancien. Le RFC cite l'exemple des États-Unis où l'électricité en milieu rural est souvent fournie ainsi, et ce depuis les années 1930. [...]

    Enfin, dernière catégorie de réseau alternatif, ceux créés à des fins de recherche. Par exemple, le réseau est créé par une université pour explorer une technique et/ou des usages [...]

    [...] Le cas de réseaux filaires est rare mais existe (comme à Lowenstedt ou dans certains endroits de Guifi.net). La plupart du temps, les réseaux alternatifs utilisent l'hertzien. Les normes techniques en œuvre sont en général celles du groupe IEEE 802.

    La plus connue est évidemment Wi-Fi (802.11). Mais on trouve aussi du GSM (une norme ETSI) par exemple dans un village mexicain ou dans le projet Village Base Station. Il y a même du GSM en logiciel libre, dans les projets OpenBTS ou OpenBSC. Ces projets sont en train de migrer vers des technologies plus rapides (mais, ce que le RFC oublie de dire, bien moins libres, notamment car pourries de brevets) comme la 4G.

    [...] D'abord, la couche 3. La plupart des réseaux n'utilisent qu'IPv4 et, ne pouvant pas obtenir suffisamment d'adresses IP des RIR sans gros efforts, se limitent aux adresses IP privées du RFC 1918. (Avant l'épuisement des adresses IPv4, obtenir des adresses des RIR était plus simple que beaucoup de gens ne le croyaient, mais il fallait quand même se taper une bureaucratie complexe et des règles difficiles.)

    Pour le routage, les choix dépendent souvent de la structure du réseau alternatif. Certains sont de type mesh, avec peu ou pas d'autorité centrale, d'autres sont plus structurés. Il y a donc des protocoles de routage traditionnels comme OSPF (le RFC cite aussi BGP, ce qui me surprend pour un réseau alternatif). [...] Mais il y a aussi des protocoles prévus pour des réseaux moins structurés, comme ceux utilisés dans les MANET. On peut trouver de l'OLSR (RFC 3626), parfois dans des versions modifiées (ce qui est le cas de http://olsr.org/), ou parfois sa récente version 2 (RFC 7181). D'autres réseaux utilisent du BATMAN. Le RFC cite l'excellent Babel (RFC 6126) mais n'indique pas s'il est très employé sur le terrain (il semble moins connu, dans un milieu où l'information circule mal).

    [...]

    Enfin, les utilisateurs ne s'intéressent typiquement qu'à une seule chose, les services, et il est donc utile de se demander ce que ces réseaux alternatifs proposent. Il y a bien sûr tous les services de base, notamment le Web. Certains services très répandus (vidéo haute définition, par exemple), peuvent être très coûteux pour les ressources souvent limités du réseau alternatif. Leur utilisation peut donc être restreinte. Et il y a aussi des services spécifiques des réseaux alternatifs : des VPN comme IC-VPN, des portails d'intérêt local comme Tidepools, des télévisions ou radios locales, des systèmes de relais de VoIP pour permettre des appels bon marché, des réseaux de capteurs permettant de la citizen science, etc.

    Sun Oct 30 20:37:30 2016 - permalink -
    - http://www.bortzmeyer.org/7962.html
  • Contrôle du blocage administratif des sites : 1er rapport de la personnalité qualifiée | CNIL

    M. Alexandre LINDEN, personnalité qualifiée désignée par la CNIL en janvier 2015 pour opérer le contrôle du blocage administratif des sites provoquant à des actes de terrorisme ou en faisant l’apologie, ou à caractère pédopornographique, rend son premier rapport d’activité.

    [...]

    La personnalité qualifiée vérifie le bien-fondé des demandes de retrait de contenus et de blocage formulées par l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC). Elle s’assure également des conditions d’établissement, de mise à jour, de communication et d’utilisation de la liste des sites bloqués ou déréférencés.

    En pratique, le dispositif de blocage et de déréférencement a été utilisé à compter du 11 mars 2015, et son contrôle a été mis en œuvre immédiatement. Le rapport présenté porte sur la période du 11 mars 2015 au 29 février 2016.

    A la date du 29 février 2016, 312 demandes de blocage de sites, 1439 demandes de retrait de contenus et 855 demandes de déréférencement d’adresses électroniques provoquant à des actes de terrorisme ou en faisant l’apologie, ou à caractère pédopornographique avaient été contrôlées. Les contenus à caractère terroriste représentent les 2/3 des contrôles opérés.

    Ces évènements ont conduit la personnalité qualifiée à prendre une recommandation concernant une photographie de personnes décédées gisant au sol prise à l’intérieur du Bataclan, publiée sur des réseaux sociaux, des blogs et par un organe de presse généraliste suisse. Il a en effet été considéré que seul le contexte de diffusion de ce cliché était de nature à caractériser le délit prévu par le code pénal, ce qui n’était pas le cas pour 96 des url dont le retrait était demandé. Cette recommandation a été suivie par l’OCLCTIC.

    A l’exception de cette recommandation, et si des échanges entre l’OCLCTIC et la personnalité qualifiée ont pu s’avérer nécessaires à plusieurs reprises, aucun cas de « surblocage » n’a été constaté.

    La nouvelle procédure prévue dans le cadre de l’état d’urgence et permettant au ministre de l’intérieur de prendre directement toute mesure de nature à interrompre un service de communication entrant dans le cadre des dispositions pénales, sans aucun contrôle indépendant, n’a jamais été utilisée.

    http://www.clubic.com/pro/technologie-et-politique/actualite-802956-blocage-sites-terroristes-rapporteur-trouble-scenes.html :

    Autre défaut relevé par le rapporteur : les sites pédopornographiques - qui font aussi partie intégrante du processus de blocage - sont très vite recréés sous un nouveau nom, après avoir été déréférencés ou bloqués. 98,6% de ces sites font pourtant de nouveau l'objet d'une requête des internautes après leur suppression, et seulement 1,4% des sites faisant l'apologie du terrorisme.

    [...]

    Après les chiffres et les résultats, Alexandre Linden s'est dit passablement troublé par les contenus visionnés, et a réaffirmé l'importance d'intégrer à la loi la désignation d'un suppléant à son poste.

    Oui une rotation plus fréquente de la personnalité qualifiée, histoire d'avoir une diversité de points de vue.

    Via je ne sais plus qui. :(

    Sun Oct 30 20:27:44 2016 - permalink -
    - https://www.cnil.fr/fr/controle-du-blocage-administratif-des-sites-1er-rapport-de-la-personnalite-qualifiee
  • CREOGN - Numérisation du visage : opportunités et limites de la reconnaissance faciale

    Note du Centre de Recherche de l’École des Officiers de la Gendarmerie Nationale.

    Qu'il s’agisse de sécurité publique ou de la vie quotidienne, la thématique est sensible. L'image d'une personne, et plus particulièrement celle du visage, touche en effet à l'intime bien plus peut-être qu'un code barre identifiant un ADN. Sa reproduction, sa détention par un tiers, sa comparaison ne peuvent se faire sans une acceptation de la société.

    Pardon ? Pas une acceptation par la société mais au cas par cas. Le droit à l'image est encore au cas par cas, hein.


    [...] Dès 2012, l’Union européenne formulait des recommandations sur l’emploi de cette technologie 2 , notamment en matière de protection des données à caractère personnel. Pour autant, nos modes de vie actuels mettent en lumière un paradoxe : les médias sociaux (Facebook, Twitter, Snapschat, Instagram, LinkedIn, etc.) débordent d'images mises à disposition volontairement et peu ou pas protégées.

    On rappelle encore une fois qu'être présent sur les réseaux sociaux n'implique pas un renoncement à tout les droits. C'est un consentement pour certains usages de nos données. Publier des infos, photos ou non, sur un réseau social ou non, n'implique pas que l'on est en faveur d'un fichage généralisé par un État, par exemple. Accepter d'être profiler par Facebook, n'octroie pas des droits à d'autres entreprises privées de procéder ainsi.


    [...]

    Il ne faut pas se leurrer : l'un des premiers usages prometteurs du visage est son utilisation numérique à des fins commerciales. Ainsi, un capteur reconnaît un visage pour le catégoriser afin de déterminer s'il s'agit d'un homme, d'une femme ou d'un enfant. Le but est d'offrir à un client une offre de produits alors qu'il évolue dans un espace commercial.

    [...] Pour aller plus loin dans l'utilisation du visage à des fins de marketing, il n'a pas échappé à certains la possibilité de constituer une base de données de visages de clients associée à leurs achats habituels afin de les accueillir
    personnellement dans les meilleures conditions : il s'agit de les orienter vers les produits qu'ils ont l'habitude de consommer ou de leur proposer des produits similaires. Les essais menés montrent cependant que l'utilisation du visage dans ce cadre n'est pas facilement acceptée par le client. Ce n'est pas tant l'utilisation de l'image qui le gêne que sa liberté de déplacement et de choix.

    [...]

    Le visage est aussi un moyen d’authentification fort. Il pourrait dépasser le fameux code PIN (Personal Identification Number). Son utilisation est envisageable pour sécuriser des moyens de paiement ou mieux contrôler les accès à des lieux sécurisés (limitation à des invités).

    [...] Ces systèmes sont peu attentatoires à la vie privée, on parle de biométrie douce. Le point critique est la protection des bases et les flux de données à caractère personnel. En fait, dans la plupart des cas, les données sont traitées directement avec l'appareil. Dans les autres cas, la consultation est réalisée dans un cloud, les données sont transformées en algorithme qui est lui-même crypté. D'un point de vue acceptabilité, peu de voix s'élèvent contre ces systèmes de reconnaissance que l'on peut croiser au quotidien.

    N'importe quoi. Il n'y a pas de biométrie douce ou fausse, il n'y a que de la biométrie et du baratin marketing. Le chiffrement empêche des indésirables sur le trajet de voir le contenu (la photo) mais n'empêche pas "le cloud" de la voir en clair (sans chiffrement), de l'exploiter, de la conserver. La sortie d'un algorithme est réversible.


    [...]

    [...] Les usages relèvent soit d'une phase d’anticipation ou de préparation d'événements, soit d'une phase d'investigation. Dans cette dernière, il s'agit de comparer l'image captée avec une base de données pour repérer une personne qui fait l'objet d'un intérêt particulier parce que mise en cause, victime ou témoin. Dans une phase préventive et en temps réel, le but est de révéler un indicateur, que l'on pourra appeler signal faible, prenant la forme de comportements anormaux afin de préparer la survenue d'un trouble ou désordre qui nécessite une réaction.

    Ce que l'on pourra aussi appeler du flicage généralisé et un contrôle fort des comportements sociaux ! Toujours plus de préventif, de police administrative, tout ça.


    Lors des opérations menées en Afghanistan, les forces américaines ont déployé les outils (Handheld Interagency Identity Detection Equipment) indispensables à la création de bases de données biométriques, incluant le visage, aux fins de comparaison et d’identification.

    Au Canada, la police de Calgary était la première force de police à faire usage de cette technologie.

    Aux États-Unis, le Federal Bureau of Investigation dispose de l'outil Next Generation Identification Program 6 qui utilise les fichiers nationaux et les médias sociaux pour construire une base de données de plus de 52 millions de personnes. Les polices de Chicago, New York, Seattle, San Diego ou Dayton Beach ont investi dans ces moyens techniques proposés par Neoface ou Reveal de Nec pour des montants allant jusqu'à 5,4 millions de $.

    La police d'Hawaï 7 a mis en œuvre Morphoface Investigate qui contient près de 450 000 visages. Intégrée dans des programmes de sécurité qui visent principalement à lutter contre le phénomène des gangs, la reconnaissance faciale devient un outil d'une stratégie de sécurité.

    Fin 2015 et pour un budget de 18,5 millions de $, le gouvernement australien a lancé le programme Capability pour lutter contre le terrorisme et la délinquance transfrontalière en s'appuyant au moins sur les fichiers nationaux.

    Les forces de police judiciaire allemandes, quant à elles, utilisent depuis 2007 l'application de reconnaissance faciale Face-VACS/DB Scan de l'entreprise Cognitec.

    En Inde, la ville de Surat a combiné l'application NeoFace Reveal de Nec avec son système de vidéo-surveillance pour procéder en temps réel à la reconnaissance faciale.

    Dans le même but, la ville de Buenos Aires a modernisé ses moyens de vidéo-surveillance pour améliorer l'éclairage des rues afin d'obtenir une qualité d'image supérieure et faciliter ainsi le travail de reconnaissance faciale.

    Chaaaaaaaaaud cette liste qui fait froid dans le dos. :(


    [...]

    [...] Par ailleurs, cette technologie n'est pas nécessairement acceptée par la société. Ainsi, la police de Boston a mis un terme à l'utilisation de ce procédé à l'instar de celle d’Oakland du fait de réactions citoyennes vives. La mise en place de la reconnaissance faciale s'était faite sans information du public.

    D'autres cas, comme celui de la police de San Diego, mettent en évidence un déploiement du dispositif à marche forcée. Les policiers, sans contrôle, numérisent d'office le visage de toute personne contrôlée dans la rue pour constituer la base de données.

    Au Royaume-Uni, ce sont des unités de police qui, sans cadre juridique stabilisé, ont alimenté une base de données (Police National Database) de photos de milliers d'individus prises lors des opérations anthropométriques de garde à vue.

    [...] Les tentatives de mise en place sans information du public sont en effet vouées à l'échec. Le citoyen reste attaché à sa vie privée et au droit à l'anonymat quand bien même la menace est forte.

    [...]

    La crainte de cette technologie repose aussi sur la fiabilité des lieux de stockage des documents numérisés ainsi que des conditions d'accès. On peut remplacer un code PIN ou un numéro de carte que l'on vous vole mais, à l'instar de l'usurpation d'identité, on imagine aisément la force du préjudice d'un détournement du visage numérisé.

    Hé oui, on n'a qu'un seul visage, qu'une seule empreinte digitale, etc. La base même de la sécurité, c'est de pouvoir changer d'identifiant et de pouvoir le révoquer. La biométrie comme moyen d'identification et d'authentification est un contre-sens complet.

    Via je ne sais plus qui. :-

    Sun Oct 30 17:35:49 2016 - permalink -
    - http://www.gendarmerie.interieur.gouv.fr/crgn/Publications/Notes-du-CREOGN/Numerisation-du-visage-opportunites-et-limites-de-la-reconnaissance-faciale
  • OpenRC - Debian Wiki

    Des intégristes Gentoo m'ont parlé d'OpenRC y'a plusieurs mois. :D Forcément, il fallait que je teste ça.

    Le postulat de départ (le marketing, quoi) était que, contrairement à sysvinit, un service désactivé peut l'être de manière définitive. Comme avec un systemctl mask <service>. De plus, l'écriture des initscripts serait simplifiée.

    Pour l'écriture simplifiée des initscripts, OpenRC a un équivalent des templated unit de systemd, en effet (un script générique, sur lequel pointent des liens symboliques, quelques variables d'environnement pour faire passer le nom du binaire, etc.). En revanche, le reste de l'écriture est toujours aussi artisanale, bordélique et pas normalisée (chacun-e refait pour la énième fois sa tambouille perso) : recours à start-stop-daemon, kill, stockage du PID principal dans un fichier, etc. Bref, tout le bricolage qui m'a fait apprécié systemd. Pour moi, la gestion du PID incombe à l'init. Pour moi, on ne devrait pas avoir à appeler start-stop-daemon puisqu'on est déjà dans un script qui est censé réaliser le démarrage d'un démon !

    OpenRC reste sensible aux hooks dpkg (genre /var/lib/dpkg/info/nginx-common.postinst, /var/lib/dpkg/info/openvpn.postinst, etc.). Ces scripts ont toujours la possibilité de démarrer un service désactivé par l'admin avec invoke-rc.d service start (openrc démarrera le service dans un runlevel dynamique nommé manual si le service a été désactivé avec rc-update del <service>, c'est-à-dire s'il n'est plus dans un runlevel) et de réactiver un service désactivé par l'admin avec update-rc.d <service> defaults.

    Divers :

    • OpenRC est complémentaire à sysvinit, l'init restant sysvinit.

    • OpenRC utilise moins de runlevels, juste boot, default et shutdown.

    Du coup, bien tenté mais OpenRC ne répond pas à mes besoins.

    Merci à Alarig et à Sandhose pour les explications. :)

    Sun Oct 30 17:02:02 2016 - permalink -
    - https://wiki.debian.org/OpenRC
  • DNS Root Name Servers Frequently Asked Questions - ISOC Member Briefing #20

    Certainly not. All equipment and software for K was purchased by the RIPE NCC and installed at the London Internet Exchange (LINX). Subsequently the service was transferred to the new K at a new address. This server was operated by the RIPE NCC with local help from the LINX. I know for sure because I piled the boxes into a London taxicab after ferrying them from Amsterdam.

    Daniel Karrenberg qui, en 1997, suite à une demande informelle de Jon Postel, met en place le premier serveur DNS de k.root (une des grappes de serveurs DNS qui font autorité sur la racine DNS) au LINX (point d'échange de trafic Internet basé à Londres) en trimballant ledit serveur sous son bras depuis Amsterdam, en ferry puis en taxi londonien. :D

    Cette histoire me fait toujours chaud au cœur : prendre des risques, déplacer des choses coûteuses sans autorisation de qui que ce soit, tout ça basé sur la confiance (demande informelle de quelqu'un qui n'était même pas son supérieur hiérarchique) et l'envie de faire des choses. Sans s'occuper de ce qui pourrait arriver de mal (vol, accident, etc.).

    Cette histoire me redonne espoir. L'espoir que les 20 ans écoulés n'ont pas suffit à étouffer ce genre d'initiatives. Il appartient à chacun-e d'entre nous de ce comporter ainsi. Il ne suffit pas d'admirer, il faut aussi pratiquer car les souvenirs se fanent.

    Sun Oct 30 15:15:33 2016 - permalink -
    - https://www.isoc.org/briefings/020/
  • Pourquoi il faut interdire le gaz lacrymogène - regards.fr

    La France, ayant découvert un intérêt militaire au gaz lacrymogène dès 1905, l’a d’abord utilisé contre les troupes allemandes en 1914, le gouvernement allemand a ensuite ordonné à ses soldats de riposter avec des armes encore plus toxiques.

    Après la guerre, les conventions de Genève ont successivement banni ces armes dans le droit de la guerre. Par contre, l’usage à l’encontre des civils est resté légal. Dans les années 1960 les pays soi-disant communistes ont proposé une interdiction totale. Lorsqu’en 1993 la Convention sur les armes chimiques a enfin été signée on y trouve à nouveau des exceptions pour l’usage domestique du gaz.

    Dafuck ?! O_O


    D’après une étude de l’université de Yale, le gaz lacrymogène n’a pas seulement des effets irritants : il s’agit surtout d’un gaz neurotoxique. Ainsi, le contact avec ce gaz ne provoque pas seulement des douleurs immédiates, mais l’exposition prolongée au gaz lacrymogène peut causer des problèmes respiratoires sérieux, voire des crises cardiaques comme on peut le lire dans le Journal of the American Medical Association. Ces effets sont renforcés chez des enfants (que la police a par exemple gazés lors de la manifestation du 1er mai à Paris). Chez des femmes enceintes, il peut provoquer des fausses couches et s’avère mortel pour des personnes souffrant d’asthme ou d’autres problèmes bronchiques.

    Le gaz lacrymogène peut non seulement asphyxier des adultes – comme l’atteste l’AFP – mais les tirs de gaz lacrymogène peuvent également provoquer la mort : deux cas en récents en Palestine le démontrent. Par ailleurs, le médecin Sven-Eric Jordt indique que personne ne connaît les effets à long terme de l’exposition au gaz lacrymogène, mais souligne que, dans l’immédiat, il cause des blessures significatives et cela alors que son usage par la police semble se normaliser.

    En France la police l’utilise clairement de manière irresponsable : depuis le début de la lutte contre la loi travail – et sans parler de Notre-Dame-des-Landes – elle gaze à grande échelle et notamment les lycéens. Le jeudi 28 avril, elle est allée plus loin en gazant d’abord l’intérieur de la station de métro Nation pour ensuite fermer les sorties – quelques minutes plus tard, la RATP a lancé un premier appel à secouristes –, et le 1er mai elle a encerclé la tête du cortège avant de le gazer.

    Quand on encercle une manif' pour la gazer ou qu'on lui fait suivre un chemin balisé (voir https://reflets.info/comment-transformer-une-manif-en-promenade-carcerale/ ), alors le droit de manifester devient une illusion.


    [...]

    Il existe environ quinze types de gaz lacrymogène. Alors que les producteurs donnent généralement beaucoup d’informations sur la toxicité et les conséquences potentiellement graves provoquées par leurs produits, ils sont étonnement muets concernant le comportement à adopter une fois exposé au gaz. En principe, pour s’en débarrasser il faut de l’air frais ainsi qu’un nettoyage des yeux et autres parties du corps. Cela implique de pouvoir circuler librement, chose que cette police même, qui gaze, empêche souvent. [...] Mais le fait est que, dans certaines situations, comme à Gezi, la police a fait usage de différents types de gaz : ainsi le traitement contre un type de gaz est-il susceptible d’aggraver les effets d’un autre type.

    Le marché de ces armes "non-létales" est estimé à plus de 1,6 milliard de dollars, avec un fort potentiel de croissance dans les années à venir. La France figure parmi les pays qui profitent fortement de ce marché. Ainsi, dans le cadre des révolutions arabes, le gaz lacrymogène français a servi à mater la révolution de 2011 au Bahreïn et a causé la mort d’au moins trente-neuf personnes selon l’ONG Physicians for Human Rights.

    Face à l’accusation de participer indirectement à des violations des droits humains, la France a officiellement arrêté de fournir des armes à la dictature au Bahreïn tout en se réservant des voies alternatives : soit en livrant à l’Arabie saoudite et aux Émirats arabes unis, alliés du régime au Bahrein – un marché qui vaut plus de trois millions d’euros – soit en vendant directement à la dictature mais sous une licence d’exportation différente. De même, le gouvernement français a autorisé l’envoi de gaz lacrymogène au dictateur Ben Ali alors que le peuple tunisien avait déjà commencé le soulèvement de 2011.

    En plus des livraisons d’armement la France se considère comme un exportateur de compétences en "gestion de foules", qui forme les forces répressives étrangères. Afin de rendre crédible l’offre français en matière de répression, la France a régulièrement besoin de prouver l’efficacité de ses armes et de sa police. Dans ce contexte, l’entreprise Civipol qui vend un « véritable savoir-faire français » de conseil et des formations reconnaît que la répression des quartiers populaires de 2005 a nettement fait progresser les contrats liés au maintien de l’ordre.

    En 2008, juste après la répression des émeutes au Tibet, la Chine a reçu une délégation de la gendarmerie française pour former des policiers, tout comme la France a formé la police du dictateur Moubarak en Égypte et des CRS en Afrique du Sud qui, lors de la grève à Marikana de 2012 ont tué trente-quatre ouvriers. Ainsi, les soi-disant débordements lors des manifestations contre la loi travail ne sont pas seulement organisés par l’Etat à des fins immédiatement politiques, mais ils rapportent des profits.

    Sun Oct 30 13:29:10 2016 - permalink -
    - http://www.regards.fr/web/article/pourquoi-il-faut-interdire-le-gaz
  • Richard Stallman : « Plus rien ne me fait rêver dans la technologie » - Tech - Numerama

    Là bas, sur le bord de la Loire, dans les usines réaffectées des anciens chantiers navals, les équipes de l’association PING se basent exclusivement sur des logiciels libres pour piloter les machines qui permettent aux membres de fabriquer leurs propres objets, dont ils diffusent les plans et les améliorations sur un wiki dédié. Une machine de découpe laser importée de Chine a un firmware propriétaire (pardon, « privateur ») ? Le circuit électronique est immédiatement remplacé par une version libre. Besoin d’une grande fraiseuse à commande numérique ? Elle est faite maison, et la conception est partagée. Une imprimante 3D ? Surtout pas de machines MakerBot, mais uniquement du RepRap.

    [...]

    La valeur reste très au dessus de sa passion pour l’informatique, qui ne l’enchante plus. « Plus rien ne me fait rêver dans la technologie », me confie-t-il sans aucune hésitation. « J’ai peur des avancées techniques. Parce que je sais que sous la ploutocratie, la tendance est que chaque changement technique amène des injustices et de l’oppression. Par exemple, à plus de flicage ».

    [...]

    Par exemple, l’intelligence artificielle reflétée par des assistants comme Cortana, Siri ou Google Now. « Pour l’instant c’est complètement injuste, parce qu’elle s’offre comme un service. Il ne faut jamais utiliser un service géré par un autre pour faire ton informatique propre à toi. Le problème c’est que les entreprises qui les développent ne publient pas le code. Ils gardent les programmes, ils ne distribuent ni le code source ni le code exécutable. Ils s’exécutent directement sous le contrôle du propriétaire. Les utilisateurs doivent envoyer toutes leurs données personnelles à traiter. Ça flique ».

    Sauf que tu ne peux pas savoir tout faire ni avoir le temps de tout faire toi-même. L'externalisation est une question de confiance et de processus démocratiques ouverts. Je pense aux FAI asso, aux AMAPs, aux hébergeurs associatifs, etc.


    Pour se remettre à rêver, « il faut un changement politique dans notre société », analyse-t-il. « Il faut enlever le pouvoir des entreprises et des riches. Il faut leur ôter le pouvoir de bloquer les lois qui sont nécessaires, mais incommodes pour eux. Il faut détruire le pouvoir des banques ». Sous un autre système politique, « qui respecterait et protégerait les libertés, les nouvelles technologies n’auraient pas la tendance à opprimer ».

    La veille, Richard Stallman était en Grèce, où il voit des « politiques économiques calculées pour imposer toujours plus de pauvreté ».

    Néanmoins, l’inventeur du logiciel libre n’est pas un révolutionnaire. Il veut encore croire au capitalisme, et à la démocratie élective. Changer l’élection pour un tirage au sort, comme c’est parfois suggéré, « c’est idiot », en tout cas trop risqué. « Il faut ajouter de la démocratie directe. Je trouve que le système suisse doit être un modèle, il fonctionne nettement mieux. Voilà un système capable de fonctionner. Je ne comprends pas pourquoi tant de gens imaginent que la pure démocratie directe serait la solution ».

    [...]

    Refusant toute technologie qui traque, Richard Stallman rejette donc les téléphones mobiles (même sous Firefox OS), et ne paye presque jamais par carte bancaire. « J’ai une carte que j’utilise uniquement pour réserver mes billets d’avion. Sinon, je paye en liquide. Si je louais une voiture, j’utiliserais ma carte de crédit, seulement parce que les loueurs exigent de voir le permis de conduire, et donc de voir mon identité. Donc dans ce cas, c’est inutile de refuser de payer par une carte. Mais pour acheter des produits, je le fais uniquement anonymement ».

    Sauf la carte bleue ajoute deux intermédiaires qui ont l'information "rms a effectué une location tel jour à telle heure chez tel loueur de véhicules" : le réseau Visa (ou MasterCard ou…) et la banque de rms. La justification est donc vaseuse.


    « Pour moi ce n’est pas un sacrifice. C’est le refus de me rendre à l’injustice, c’est le refus d’être maltraité. Pour moi, accepter le flicage serait le sacrifice. Le refuser, c’est mon devoir de citoyen. Et puis l’idée d’être suivi partout et écouté partout est horrible, odieuse ».

    Quand il navigue sur internet avec son ordinateur portable, Stallman passe donc toujours par une méthode d’anonymisation. « Le réseau Tor a mon adresse IP, mais ça ne change rien. Les sites auxquels je me connecte n’ont pas mon adresse IP, jamais ».

    Sun Oct 30 13:18:33 2016 - permalink -
    - http://www.numerama.com/tech/164017-richard-stallman-plus-rien-ne-me-fait-rever-dans-la-technologie.html
  • Les errements de l’agilité - JDN

    Revenons à Scrum. Récemment, j’ai eu l’occasion de vérifier son implantation concrète dans plusieurs entreprises. La déclaration initiale était : « Nous sommes Scrum et Agile ». Au bout de quelques questions, la réalité apparaissait : pas de mode plateau, pas de mode projet, pas d’autonomie de l’équipe, présence maintenue de chefs du projet tenant généralement le rôle de scrum master. À ma question « en quoi êtes-vous agile ? » la réponse était généralement : « Nous tenons des réunions tous les matins et utilisons des post-it ». Franchement, après cela comment peut-on encore s’étonner d’absence de résultat.

    J'ai un avis très tranché sur l'agilité :

    • Comme l'exprime très bien Aeris (https://blog.imirhil.fr/2016/07/21/no-more-ssii.html ), elles sont souvent la justification pour livrer n'importe quoi très vite. Il n'y a plus de différence entre un livrable décent participant au cycle itératif et de la merde, l'important, c'est de livrer ;

    • Elles sont un mensonges : si le client a payé une prestation externe, c'est pour avoir la paix (en plus d'un coût minimal, imposé par la concurrence sur le marché, qu'il espère inférieur à un dev' interne) donc espérer qu'il soit un poto de l'équipe de dev', qu'il suive le projet avec attention, qu'on puisse le solliciter 3 fois par jour, c'est une escroquerie. Même chose pour les prétendus changements en cours de route : c'est un mensonge. Ce n'est juste pas viable économiquement. Donc forcément que les changements acceptés seront restreints en quantité et en terme d'impact qu'ils auront sur l'existant. Or, tous les agility-guru n'évoquent jamais cela et trouvent des excuses de "juste milieu" (c'est-à-dire "les clients seront compréhensifs et ne demanderont jamais de gros changements, tkt pas") quand on insiste à leur poser la question ;

    • Elles sont un buzzword. Comme si c'est absolument nécessaire, que dis-je, vital, de se revendiquer agile, d'être à l'écoute des nouveaux produits et services que les clients désirent. Toutes les sociétés commerciales sont à l'écoute de leur marché ! Depuis le début ! D'ailleurs, généralement, l'entreprise qui se revendique agile est à l'écoute uniquement de ses clients les plus riches. Rien à péter des gus-se sur les forums. Ce qui fait que des fonctionnalités toutes simples (comme la possibilité d'ajouter un AAAA pour un glue record DNS) ne sont pas implémentées des années après que plusieurs gus-se les ont demandées. Normal : ça ne rapporte rien économiquement parlant. Il vaut mieux lancer de nouveaux produits et services, comme demandé par les riches clients. À l'écoute des clients, oui, mais pas n'importe lesquels ;

    • Bref, les méthodes agiles, ça permet de justifier la pression sur les équipes et ça permet à des gourous de dispenser des formations coûteuses totalement idiotes, fantaisistes et garnies de schémas bullshit (toujours les mêmes, d'ailleurs !). Mais bon, tant qu'il y a de la demande, ça serait dommage d'arrêter de vendre de la merde à plusieurs milliers d'euros, je comprends.

    Via https://twitter.com/aeris22

    Sun Oct 30 12:33:18 2016 - permalink -
    - http://www.journaldunet.com/developpeur/expert/64095/les-errements-de-l-agilite.shtml
  • La mixité contre le choix - Les mots sont importants (lmsi.net)

    [...] La concentration de "populations à problèmes " (c’est-à-dire de pauvres et d’immigrés) dans des territoires nommés " quartiers sensibles " est en effet présentée comme la source de tous les maux. Et à ce diagnostic est souvent opposée une solution-miracle : la "mixité sociale". Le texte qui suit propose une analyse critique de la mise en oeuvre concrète de cette politique, mais aussi de ses présupposés et de ses effets idéologiques

    La politique publique de lutte contre les "ghettos " et de promotion de la "mixité sociale" telle qu’elle est aujourd’hui concçue n’a jusqu’à présent rien produit de miraculeux. Tout d’abord parce que, depuis de nombreuses années, des municipalités et des organismes de logement social se sont emparés de la notion de "mixité sociale" pour en faire un usage très contestable : à savoir contrôler et sélectionner leur population, en cherchant à écarter les plus pauvres, les étrangers ou certains "immigrés". Mais c’est plus généralement sur les présupposés des politiques visant à une répartition " équilibrée " des populations qu’il faut s’interroger.

    [...]

    Ces différentes logiques convergent vers une même conclusion : il faut freiner l’arrivée dans le logement social des populations les moins " désirables " - c’est-à-dire des familles les plus pauvres, les plus précaires, les plus nombreuses et les plus "ethniquement différentes". Cependant, les choses ne peuvent pas se dire aussi ouvertement, car la sélection des locataires en fonction de leur origine reste, aux yeux de la loi, une discrimination [1]. Il faut donc parler à mots couverts, ce que permet justement le terme de " mixité sociale ".

    En effet, le "ghetto" apparaît souvent comme un faux problème, qui occulte la véritable urgence : la lutte contre la pauvreté. Car, au lieu de mener une politique économique et sociale permettant de la supprimer - ou au moins de la réduire - , les gouvernements, y compris de gauche, se contentent désormais d’accompagner et de gérer la misère, en se contentant de " mieux " la répartir, de manière plus " harmonieuse ", " équitable " et " équilibrée ". Cette nouvelle orientation de la gauche se trouve tout entière résumée dans une affiche des Verts placardée sur les murs de Paris lors des élections municipales de 2001 : " Mixité. La diversité sociale est une richesse ". Ce qui revient, strictement, à dire ceci : " qu’il y ait des riches et des pauvres, c’est formidable ".

    [...]

    Et ce qui a finalement disparu du débat public, c’est l’idée simple de construire en quantité suffisante des logements sociaux dans toutes les communes, riches ou pauvres, de manière à ce que les personnes puissent elles-mêmes choisir leur lieu d’habitation. Quitte à ce que, si des logiques sociales aboutissent à des regroupements des populations les plus précaires, on développe davantage de services sociaux à l’endroit où elles se sont regroupées. Déplacer l’argent plutôt que déplacer les populations : n’est-ce pas la solution la plus juste et la plus respectueuse des habitants ?

    [...]

    Or, cela ne va pas de soi : si certains habitants manifestent effectivement leur désir de quitter leur " cité " et d’aller " voir ailleurs ", de nombreux autres n’ont aucune envie de s’installer à Neuilly ou au Raincy. Être pauvre au milieu des riches n’est pas nécessairement plus agréable, plus épanouissant ni plus émancipateur que vivre pauvre au milieu d’autres pauvres. En tout cas pas pour tout le monde.

    [...]

    D’un côté, la logique dominante : celle des " politiques de peuplement ", imposant tantôt le regroupement dans des " ghettos ", tantôt la dispersion et la " mixité ". Dans cette perspective, on considère que la garantie de l’ordre public, rebaptisé " intérêt général ", passe par une répartition " équilibrée " des individus et des groupes sociaux dans l’espace. Ces " politiques de peuplement ", tout comme les politiques de " maîtrise des flux migratoires ", sont avant tout des politiques de contrôle social.

    De l’autre : une logique véritablement démocratique, qui s’abstient de trancher entre mixité et regroupement, et qui laisse aux habitants eux mêmes le soin de choisir leur lieu d’habitation. Dans cette perspective, le peuplement cesse d’être un objet de politique publique ; il s’agit, plus simplement, de réfléchir aux modalités d’une politique de construction de logements sociaux partout sur le territoire, permettant aux habitants eux-mêmes de faire leurs choix.

    Cet article date de plus de 10 ans mais la mixité sociale en matière de logement est encore au goût du jour de la loi Égalité et Citoyenneté, voir http://shaarli.guiguishow.info/?yKeokA . Du coup, se demander de quelle mixité parle-t-on, c'est toujours d'actualité.

    Les logements sociaux sont un palliatif à des vraies politiques publiques économiques et sociales. Simplement parce qu'aucun logement social ne peut être physiquement construit dans les vieux bourgs des villes, là où t'as les belles baraques des gens fortunés. Du coup, tu ne verras jamais un pauvre ici. Et c'est bien là le problème : pourquoi ce pauvre est-il pauvre ? Le reste n'est qu'un écran de fumée.

    Sun Oct 30 12:10:04 2016 - permalink -
    - http://lmsi.net/La-mixite-contre-le-choix
Links per page: 20 50 100
◄Older
page 182 / 298
Newer►
Mentions légales identiques à celles de mon blog | CC BY-SA 3.0

Shaarli - The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community