5960 links
  • GuiGui's Show

  • Home
  • Login
  • RSS Feed
  • Tag cloud
  • Picture wall
  • Daily
Links per page: 20 50 100
◄Older
page 189 / 298
Newer►
  • Appels téléphoniques à mes sénateur-rice-s concernant le projet de loi égalité et citoyenneté

    Suite à une énième horreur dans le projet de loi égalité et citoyenneté dont j'entends parler, la modification du droit de la presse, j'ai décidé de téléphoner à mes sénateur-trice-s pour leur faire part de mes inquiétudes et de ma volonté que le bullshit s'arrête dès maintenant.

    Le projet de loi sera examiné en plénière du Sénat dès mardi prochain (le 4 octobre) pour un vote sur l'ensemble du texte le 18 octobre. Il n'y avait donc pas assez de temps pour envoyer des mails. Sachant que, de toute façon, la limite pour poser des amendements est dépassée. On est en procédure accélérée (une seule lecture par chambre puis CMP).


    Modifications de la loi sur la liberté de la presse de 1881 (article 37)

    En commission spéciale du Sénat, nos élu-e-s ont ajouté :

    • Aujourd'hui, la prescription de l'action publique (délai après lequel une infraction ne peut plus être faire l'objet de poursuites) en matière de délit de la presse court (= est enclenché) à partir de la date de la première publication du contenu litigieux (ou d'une ré-édition d'après la jurisprudence établie). Les amendements sénatoriaux font que ce délai pourrait désormais courir à partir de la date de retrait du contenu, uniquement pour la presse en ligne.

    • Aujourd'hui, une plainte en matière de délit de presse s'interrompt automatiquement si le plaignant se retire. Le projet de loi propose que cet automatisme ne soit plus acquis.

    • Le juge aurait désormais la possibilité de requalifier un délit civil et les plaignants auraient la possibilité d'une réparation des préjudices sur le fondement de la responsabilité civile de droit commun.



    Ce que j'en comprends :

    • Ce texte intervient dans un contexte et avec un historique. Faire taire la presse, c'est un vieux rêve. Je rappelle que plusieurs député-e-s ont déposé des amendements lors la première promulgation de l'état d'urgence, en novembre 2015, pour explicitement contrôler la presse, la radio, le cinéma, etc. Ce n'est donc pas anodin de retrouver des miettes dans ce projet de loi !

    • J'interprète l'asymétrie de traitement entre presse papier et presse en ligne comme une volonté de censurer les médias en ligne qui sont ceux qui ont révélé les plus grosses affaires ces derniers temps genre les prétendus millions libyens de la campagne 2012 de Sarko, genre les prétendus agissements sexuels de Baupin, genre les documents de l'affaire Bettencourt, etc.

    • Les contenus sur Internet sont faits pour durer dans le temps donc un délai de prescription qui court à compter de la date de retrait n'a aucun fondement. Cela signifie en réalité qu'il n'y a plus de prescription. Une personne physique ou morale peut très bien porter plainte des années et des années après la publication d'un contenu. Exemple ? Les sociétés commerciales non cotées qui essayent de s'acheter une virginité avant d'entrer en bourse. Cas concret : http://www.nextinpact.com/archive/64648-cgu-sebsauvage-tuto4pc-eorezo-adware.htm . Au-delà de ça, tout notre droit est basé sur l'idée qu'au bout d'un moment, on pardonne, on oublie, on n'est plus capable de recevoir des preuves fiables, etc. Revenir sur cela me semble être extrêmement dangereux.

    • La requalification et la réparation des préjudices pourront permettre de faire dégager des articles, des contenus, qui peuvent gêner par leur négativité mais ne pas être pour autant un délit de presse. À quoi je pense ? Aux grands patrons & co qui attaquent en diffamation (qui est un des délits de presse) tout article légèrement négatif au sujet de leur société commerciale. Genre Xavier Niel, patron de Free, est un spécialiste du domaine.

    Il faut bien comprendre que la diffamation est devenue la meilleure arme de défense, y compris quand les faits relatés en bonne et due forme sont avérés ! Les journaux ont autre chose à faire que d'aller en justice en permanence ! Cela a aussi un effet de concentration de la presse : ne peuvent exister que les grands groupes qui ont les moyens de payer des avocats. Ce n'est pas acceptable.

    C'est pour ça que je pense qu'il ne faut pas modifier l'équilibre apporté par la loi de 1881.



    Ce que mes interlocuteur-rice-s m'ont dit :

    • Le principal point de désaccord porte sur le fait qu'Internet est très viral et qu'on y retrouve tout des années après alors qu'un article de presse papier, ça s'oublie dans les jours qui suivent sa publication.
      • Pour moi, il ne faut pas croire que le moindre contenu qui sera publié aura des millions de vues. Mes interlocuteur-rice-s m'ont assuré qu'on parlait bien de la même chose c'est-à-dire de la grosse feuille de chou en ligne bien établie. OK. Il ne faut pas croire non plus que les papiers vieux de 5 ans et plus apparaissent comme cela dans un moteur de recherche, surtout quand les sociétés commerciales et les personnalités publiques font de l'optimisation SEO.

      • Ensuite, pour moi, la viralité des contenus de presse est le reflet de la société : oui, quand je vois un truc crade, je le partage, à l'oral au bistro, à l'écrit sur mon shaarli, dans mes associations préférées. Internet change l'ampleur du partage, oui, mais j'ai envie de dire qu'un truc crade n'a pas besoin de cela pour se diffuser dans la société. Et la colère que cette action crade suscite est partagée au-delà des RT et like que l'on voit sur le web. Nier ça, c'est être dans le mythe du gros rageux derrière son écran !

      • Internet change la temporalité. Oui, mais c'est à double tranchant :
        • En tant que citoyen-n-e, homme-femme politique, société commerciale, association, je n'avais pas le temps d'éplucher toute la presse papier y compris la presse locale qui peut me tirer dessus (parce que j'ai un site de ma société commerciale dans le secteur, parce que j'ai été un-e élu-e local-e, etc.) ou tirer sur un-e ami-e local qui m'éclaboussera. 3 mois pour vérifier tout ça, c'est compliqué. Même avec des personnes payées pour produire des revues de presse. Avec le numérique, vérifier que la presse parle de moi, c'est facile, ça ne prend pas 3 mois. Y'a les alertes Google et les services du même genre sans compter l'immédiatement de l'information. Il n'y a donc pas besoin d'allonger ou de supprimer le délai de prescription.

        • Que les contenus restent en ligne ad vitam æternam n'est pas un problème : la prescription des délits de la presse n'empêche pas d'attaquer pour d'autres motifs et d'utiliser, par exemple, la LCEN pour exiger le retrait de contenus. Illustration : https://framablog.org/2014/03/14/getty-images-vie-privee/


    Instruction en famille et écoles privées hors contrats (article 14 bis et 14 dices)

    Le gouvernement a proposé :

    • L'ouverture d'une école privée hors contrat serait désormais soumise à une autorisation préalable délivrée par l'autorité compétente de l'État. ÉDIT : non, à une déclaration préalable. Pas de contrôle systématique avant ouverture. FIN DE L'ÉDIT.

    • L'instruction en famille serait soumise à des contrôles plus nombreux et à domicile.



    Ce que j'en comprends :

    • Là encore, ces articles de loi ont une histoire : droite dure sécuritaire, risque de radicalisation tout ça, voir http://shaarli.guiguishow.info/?QGLM4Q et https://shaarli.guiguishow.info/?_-WFTA. Donc on est calibré pour empêcher la radicalisation, blabla.

    • J'ai déjà longuement présenté les différentes alternatives à l'école de l'éducation nationale et leurs modalités de déroulement / contrôle, voir les liens ci-dessus donc je ne reviens pas là-dessus.

    • Il n'est pas question d'autorisation préalable pour une catégorie de méthodes d'enseignement et pas les autres. On ne doit pas chercher à entraver préventivement. Je veux dire : personne ne m'empêche préventivement de tuer quelqu'un-e. Si je le fais, la justice me rattrapera. Même chose pour une école.

    • Même chose pour l'augmentation du nombre de contrôles visant l'IEF : je veux un traitement égal des différentes méthodes d'enseignement. Si on renforce les contrôles IEF, on renforce les contrôles des écoles labellisées éducation nationale. Si l'on change la nature d'un contrôle (genre la proposition de loi de 2016 voulait vérifier que les écoles privées hors contrats sont sont conformes « aux valeurs de la République »), on le fait pour toutes les catégories.

    • Ce qui me gêne dans les deux cas (écoles privées hors contrat et IEF), c'est qu'il y a une présomption de culpabilité, un a priori négatif : ces deux cas vont forcément faire l'objet de dérives, vont forcément foirer. Ce n'est pas acceptable.



    Ce que mes interlocuteur-rice-s m'ont dit :

    • Tous les lieux d'enseignement ne se valent pas : les écoles de l'éduc' nationale ont des profs dont c'est le métier et la passion, blablabla. Donc, il n'est pas hallucinant d'appliquer des contrôles plus nombreux et/ou renforcés à IEF et hors contrat. Or, pour moi, toutes les alternatives se valent.

    • L'État doit veiller sur tous-toutes les futur-e-s citoyen-ne-s. Si quelque chose se passe mal dans une école privée hors contrat ou en IEF, alors le bon peuple gueulera que l'État est responsable. Et puis, on fait quoi des "déchets" qui n'auront pas le niveau en fin de course et échoueront leur entrée dans la vie active ? Ce à quoi je réponds : un contrôle égalitaire suffit à dire que l'État à jouer son rôle auprès des personnes qui considèrent que l'État doit être derrière le cul de tout le monde, tout le temps pour résoudre tous les problèmes du monde.

    • Incompréhension de la motivation des IEF. Croyance que ces personnes expriment forcément de la défiance envers l'État. Je trouve ça curieux : quand on parle d'AMAP, il-elle voit très bien que ce n'est pas forcément de la défiance vis-à-vis de la grande distribution mais aussi une envie de consommer local, de participer à la vie économique locale, etc. Quand on parle de FAI associatif, il-elle voit que ce n'est pas forcément de la défiance vis-à-vis des opérateurs existants et qu'on ne cherche pas à nuire/remplacer Orange. On a donc 3 contextes de réappropriation. On a 3 alternatives qui peuvent toutes engendrer des dérives graves. On a 3 alternatives qui peuvent être accusées d'exister uniquement par défiance vis-à-vis de la norme. Mais l'IEF focalise la peur… Ce n'est pas logique.

    • Il y a très clairement l'idée que ceux-celles qui pratiquent l'IEF ou qui sont scolarisés dans des écoles privées hors contrat veulent s'exclure et ne pas faire société. Il y a une très forte idée que le système majoritaire est trop bien et que les alternatives minoritaires sont vaseuses. C'est trop bizarre car l'avis change du tout au tout quand on parle d'AMAP…


    Divers

    • Les député-e-s avaient introduit un droit à la cantine scolaire pour tous et toutes qui a été dégagé par la commission spéciale du Sénat. Voir http://www.politis.fr/articles/2016/09/pas-de-droit-a-la-cantine-35403/ . D'après ce que m'a expliqué une assistante parlementaire, le débat s'est cristallisé sur "mais qui va payer les nouveaux locaux qu'il faudra construire pour accueillir tout le monde ?". Pour moi, c'est évidemment du bullshit vu le taux d'élèves qui mangent à la cantine. Évidemment, je soutiens les député-e-s qui voulaient de la solidarité et le fait qu'un-e gosse ne soit pas exclu parce qu'un des parents est un chômage et autres cas concrets qui se voient tous les jours.

    • Je refuse l'expérimentation d'un service civique obligatoire ajouté par les député-e-s (ÉDIT DU 03/10/2016 À 9H40 : ça a été supprimé en commission spéciale du Sénat et il faut que ça le reste FIN DE L'ÉDIT). Un service civique volontaire, ça peut s'envisager. J'y suis réticent mais je peux accepter cela en compromis. Mais pas de service civique obligatoire, jamais.

    • Je suis totalement d'accord avec le gouvernement qui veut que les logements sociaux ne soient pas tous groupés ensemble mais qu'un certain pourcentage de ces logements soit intégré au reste de la ville. l'idée étant de ne pas avoir des classes moyennes avec uniquement des classes moyennes, des riches avec des riches et des pauvres uniquement avec des pauvres. On peut tous et toutes traverser une mauvaise passe et devenir pauvre. Ajouter l'exclusion à la pauvreté, ça ne peut que mal se terminer.



    En gros, selon moi : pour l'instruction en famille et les écoles privées hors contrat, les dés sont déjà lancés. Même chose pour le droit à la cantine et l'expérimentation du service obligatoire. Des amendements défendant la liberté de la presse ont été déposés par… le gouvernement. Les logements sociaux vont couler beaucoup d'encre semble-t-il genre le gouvernement ne semble pas vouloir lâcher. Le dernier mot irait donc à l'Assemblée après une CMP échouée ?

    Fri Sep 30 22:12:09 2016 - permalink -
    - http://shaarli.guiguishow.info/?yKeokA
  • Le droit de la presse menacé par le projet de loi relatif à l'égalité et à la citoyenneté | Syndicat de la presse indépendante d'information en ligne

    Communiqué commun du Syndicat de la presse quotidienne nationale (SPQN), du Syndicat de la presse quotidienne régionale (SPQR), du Syndicat de la presse quotidienne départementale (SPQD), du Syndicat des éditeurs de la presse magazine (SEPM), de la Fédération nationale de la presse spécialisée (FNPS), de la Fédération de la presse périodique régionale (FPPR), du Syndicat de la presse indépendante d’information en ligne (Spiil) et du Groupement des éditeurs de contenus et de services en ligne (GESTE)

    Paris, le 30 septembre 2016. - Le projet de loi relatif à l'égalité et à la citoyenneté, tel qu'issu de la commission spéciale du Sénat, comporte plusieurs dispositions qui mettent en danger la loi de 1881 sur la liberté de la presse. [...]

    Comme l'ensemble des syndicats d'éditeurs de presse l'ont encore souligné l'année dernière, la loi de 1881 est régulièrement menacée, dans une inspiration qui traduit une certaine méfiance à l'égard de l'information en ligne. Ses dispositions en matière de défense de la liberté d'expression comme d'engagement de la responsabilité des médias sont pourtant essentielles à notre vie démocratique. Son équilibre complexe, validé par une abondante jurisprudence, doit être pleinement préservé, comme le Conseil Constitutionnel et la Cour européenne des droits de l’homme le rappellent régulièrement.

    [...]

    Le texte en discussion prévoit de permettre au juge civil de requalifier un délit de presse. Le Sénat y ajoute la possibilité d'une réparation des préjudices nés des abus de la liberté d'expression sur le fondement de la responsabilité civile de droit commun (article 1382 du Code civil), alignant de ce fait les délais de prescription.

    Ainsi pourraient être attaqués tous les propos ou articles estimés négatifs ou péjoratifs qui ne constitueraient pas une infraction à la loi sur la presse.

    La nature pénale et la philosophie de la loi de 1881, basée sur une énumération d’infractions très précises, seraient ainsi entamées. [...]

    [...]

    Aujourd'hui, le délai de prescription en matière de délit de presse (papier ou numérique) court à compter du premier jour suivant la mise à disposition des utilisateurs du message.

    Le projet de loi relatif à l'égalité et à la citoyenneté issu de la commission spéciale repousse, pour la presse numérique uniquement, le point de départ du délai de prescription au jour où cesse la mise à disposition du public du contenu mis en cause.

    [...]

    Dans les faits, elle supprime la prescription, puisqu’une publication en ligne a vocation à rester accessible sans limite de temps. Ce faisant, elle porte gravement atteinte aux équilibres du droit de la presse, sans atteindre le cœur du problème : les abus sous couvert d’anonymat.

    Dit autrement : l'auteur-e d'un contenu qui n'a pas posé de problèmes pendant 15 ans pourra être attaqué du jour au lendemain parce que d'un coup, quelqu'un considère que ce contenu lui porte désormais préjudice ou préjudice à son business. C'est extrêmement dangereux.

    Je rappelle également que la loi de 1881 est le seul bout de texte qui définisse un peu la liberté d'expression dans notre corpus législatif. C'est pour ça qu'elle est importante et c'est pour cela qu'il ne fait pas la modifier à la légère.

    Via https://twitter.com/bearstech/status/781844622213541889 via https://twitter.com/bluetouff

    Fri Sep 30 15:22:28 2016 - permalink -
    - https://www.spiil.org/20160929/droit-de-presse-menac-projet-de-loi-relatif-l-galit-citoyennet
  • Le Frido, un livre de mathématique libre pour l’agrégation - LinuxFr.org

    Le Frido est un livre de mathématique libre du niveau de l’agrégation. Fort d’un peu plus de 1 600 pages, il couvre la quasi entièreté du programme. Ce cours de mathématique est libre au sens de la licence FDL, et ses sources LaTeX sont sur GitHub depuis le début du projet.



    Sur le site web de l'auteur ( http://laurent.claessens-donadello.eu/feed/frido_vente.html ) :

    Au départ le règlement de l'agrégation demandait aux ouvrages d'avoir un ISBN datant d'au moins 6 mois avant les oraux pour pouvoir être utilisés par les candidats. Le but de la règle des 6 mois étant évidemment que tous les candidats aient le temps de prendre connaissance de l'ouvrage avant les oraux. J'avais donc demandé à l'AFNIL à avoir des numéros d'ISBN et c'est ainsi que pour les sessions 2013 et 2014, le Frido était disponible dans la bibliothèque de l'agrégation. C'était une version d'environ 600 pages.

    Ce sont alors passées deux choses :

    • Des gens m'ont pratiquement accusé d'avoir triché en utilisant mon propre livre lors des oraux 2013 (où j'ai été admis, effectivement en grande partie grace au fait que j'aie eu mon livre avec moi). Peu de ces personnes ne se sont posé la question piège : est-ce que ça prend plus de temps de taper 600 pages en LaTeX ou bien d'étudier une cinquantaine de développements ? Ces personnes n'ont probablement pas non plus pensé au fait que mon livre était disponible pour tout le monde, qu'il avait été publié, avec les sources LaTeX, sous une licence libre, des années plus tôt.
    • Il semblerait que l'année suivante (suivant mon exemple ?) de nombreux candidats ont obtenu des ISBN pour des textes nettement moins reluisants que le mien. Des abus dit-on ...

    Pour l'une ou l'autre de ces deux raisons, ou pour une troisième allez savoir, le jury a décidé de changer le règlement pour la cession 2015, et a donc envoyé le Frido au pilon. Maintenant un livre peut être utilisé sans permission si

    • il est commercialisé,
    • il est suffisamment diffusé.

    LALA :'(


    Afin de respecter le nouveau règlement, j’ai décidé de mettre mon livre en vente, tout en laissant la licence FDL. Pour cela, j’ai opté pour l’auto‐édition chez TheBookEdition.com, qui me permet de vendre le livre tout en gardant mes droits d’auteurs.

    Fri Sep 30 12:06:50 2016 - permalink -
    - https://linuxfr.org/news/le-frido-un-livre-de-mathematique-libre-pour-l-agregation
  • Firefox ready to block certificate authority that threatened Web security | Ars Technica [ Les autorités de certification WoSign et StartCom dans le collimateur de Mozilla ]

    The browser-trusted WoSign authority intentionally back-dated certificates it has issued over the past nine months to avoid an industry-mandated ban on the use of the SHA-1 hashing algorithm

    [...]

    hey also accused WoSign of improperly concealing its acquisition of Israeli certificate authority StartCom, which was used to issue at least one of the improperly issued certificates.

    [...]

    "Taking into account all the issues listed above, Mozilla's CA team has lost confidence in the ability of WoSign/StartCom to faithfully and competently discharge the functions of a CA," Monday's report stated. "Therefore we propose that, starting on a date to be determined in the near future, Mozilla products will no longer trust newly issued certificates issued by either of these two CA brands."

    WoSign's practices came under scrutiny after an IT administrator for the University of Central Florida used the service to obtain a certificate for med.ucf.edu. He soon discovered that he mistakenly got one for www.ucf.edu. To verify that the error wasn't isolated, the admin then used his control over the github subdomains schrauger.github.com and schrauger.github.io to get certificates for github.com, github.io, and www.github.io. When the admin finally succeeded in alerting WoSign to the improperly issued Github certificates, WoSign still didn't catch the improperly issued www.ucf.edu certificate and allowed it to remain valid for more than a year. For reasons that aren't clear, Mozilla's final report makes no explicit mention the certificates involving the Github or UCF domains, which were documented here in August.

    [...]

    WoSign built a system where applicants could add extra arbitrary domains to their certificates before issuance. Even when mis-issuances happened they did not determine the root cause and eliminated the flaw only in an unrelated system upgrade.

    [...]

    WoSign has an “issue first, validate later” process where it is acceptable to detect mis-issued certificates during validation the next working day and revoke them at that point.

    [...]

    The level of understanding of the certificate system by their engineers, and the level of quality control and testing exercised over changes to their systems, leaves a great deal to be desired. It does not seem they have the appropriate cultural practices to develop secure and robust software.

    [...]

    For reasons which still remain unclear, WoSign appeared determined to hide the fact that they had purchased StartCom, actively misleading Mozilla and the public about the situation.

    [...]

    WoSign’s auditors, Ernst & Young (Hong Kong), have failed to detect multiple issues they should have detected. (Issue J, Issue X)

    Mozilla envisage de ne plus faire confiance aux nouveaux certificats émis par l'AC chinoise WoSign (qui a racheté StartCom) au-delà d'une date qui n'est pas encore fixée. La mesure vaudra pour un an minimum avant que cette AC soit autorisée à repasser la certification de Mozilla si elle a procédé à des changements drastiques dans ses process.

    Le monde des autorités de certification x509 est toujours aussi sérieux… :'( Certificats x509 auto-signés + DNSSEC + DANE partout et basta.

    Via FRsAG.

    Wed Sep 28 19:22:04 2016 - permalink -
    - http://arstechnica.com/security/2016/09/firefox-ready-to-block-certificate-authority-that-threatened-web-security/
  • Retour d'expérience sur l'autohébergement

    Cela fait un peu plus de 3 ans que j'autohéberge mes mails et ma messagerie instantanée chez moi, principalement. J'avais envie de faire un retour des bonnes et des mauvaises idées. Si ça peut guider des gens…

    Bon, j'dois avouer que l'expérience auto-hébergement s'est interrompue temporairement depuis juillet 2016 puisque les deux ordinateurs monocarte dans lesquels j'avais investi au départ sont HS : un des circuits de l'OLinuXino a cramé en pleine nuit. Le RPi a terminé en miettes après un bon gros coup de sang bien stupide. :S Je voudrais refaire un comparatif des cartes existantes mais je ne veux pas prendre le temps de faire ça maintenant, on verra plus tard.


    Ordinateur de bureau ou ordinateur monocarte ?

    Le choix dépend vraiment de votre profil.

    En faveur des ordinateurs monocartes, on a les arguments suivants (liste non ordonnée) :

    • Facilement transportable (même sans véhicule) chez un-e ami-e ou de la famille pour les vacs, en cas de coupure durable de votre accès à Internet, etc. Même chose pour les étudiant-e-s et les personnes qui commencent leur carrière et qui bougent beaucoup : ça ne prend pas de place lors d'un déménagement.

    • Cela permet de tester l'auto-hébergement sans trop investir : je n'ai jamais vu un ordinateur au format bureau au même prix qu'un ordinateur monocarte (en dessous de 80 €). Pas besoin d'un écran ni d'un adaptateur SATA <-> USB pour installer et configurer un ordi monocarte, un lecteur de carte SD suffit, alors qu'il faut au moins un adaptateur SATA <-> USB pour écrire sur le disque dur d'un autre ordi quand on n'a pas d'écran à portée de main.

    • Ça ne consomme rien au niveau électrique, ce qui est bien pour ceux-celles qui ont des besoins contraints genre chambre universitaire du CROUS ou maison autonome en électricité (certains ordinateurs monocarte comme les OLinuXino proposent une batterie pour moins de 10€ supplémentaires alors qu'un ordinateur de bureau nécessite l'investissement dans un onduleur à plusieurs dizaines d'euros pour obtenir le même résultat). En cas de déplacement chez un-e ami-e ou de la famille, il n'est même pas nécessaire de le-la convaincre que ça consommera que dalle (oui, il y a vraiment des gens chatouilleux sur ce sujet).



    En faveur d'un ordinateur de bureau, on a les arguments suivants (liste non ordonnée) :

    • C'est des architectures x86 et amd64 standard alors que certains logiciels ne sont pas disponibles ou plantent dans leur version arm64 ou armhf. Exemple : http://www.guiguishow.info/2013/08/08/auto-hebergement-sur-raspberry-pi/#toc-3876-opendnssecsofthsm

    • C'est adapté à tous les usages alors qu'un Owncloud sur un OLinuXino, ça pédale un peu. Même chose pour un Tiny-Tiny RSS bien peuplé. Bref, ça dépend du nombre de logiciels gourmands que vous voulez utiliser.

    • C'est évolutif, extensible et polyvalent genre je désire une nouvelle fonctionnalité gourmande en RAM ? Hop, une barrette à pas chère et c'est fait. Envie que votre machine serve désormais de routeur & pare-feu pour votre réseau local ? Hop, une carte réseau en plus.

    • Pas besoin d'un PC pour joueur, n'importe quel PC premier prix est sur-qualifié pour faire office de serveur personnel. Le point bloquant est souvent la quantité de RAM.


    Brique Internet ?

    Le concept de la Brique Internet est génial et les efforts accomplis sont colossaux mais, pour en avoir debug 2-3 fin 2015, je pense que ce n'est pas encore utilisable par tout le monde et qu'il y a encore plein de bugs parfois bloquants à résoudre. Du coup, je ne la recommande pas encore à des novices. Si tu t'y connais et que t'as le temps de debug : juste go et contribue à l'améliorer. Si tu t'y connais mais que t'as pas le temps, installe ton propre serveur, t'iras plus vite.

    Pensez à vérifier que les logiciels qui vous intéressent sont bien disponibles dans YunoHost (l'interface au-dessus de Debian pour administrer facilement la Brique). Dans le cas contraire, ce n'est pas bloquant, y'a moyen de les installer à la main mais ça perd de son charme "plug and forget".


    Toujours utiliser un VPN

    Un VPN avec une IP publique statique et aucun port bloqué, genre ceux fournis par les membres de la FFDN, dédié à votre serveur, c'est juste royal pour l'autohébergement (liste non ordonnée) :

    • Là encore, le déplacement du serveur est facilité : pas besoin de changer d'IP donc pas besoin de modifier votre zone DNS et d'atteindre que les caches se vident. Le VPN est vraiment ce qui rend l'autohébergement "plug and forget".

    • Pas besoin de configurer le DNAT / l'ouverture de port sur la box. Pas besoin d'uPnP et autres saloperies dans le réseau. Installez et configurez le service désiré sur votre serveur et basta.

    • Pas de blocage de ports comme le 25 (ce qui empêche d'envoyer des mails).

    • De même, pas besoin de faire de DDNS auprès de services externes qui fermeront un jour et qui forcent à ne pas héberger vous-même toute votre infra DNS (c'qui est quand même un peu en contradiction avec l'envie de s'auto-héberger).

    • De l'IPv6 même si votre FAI n'en fournit pas.



    Bref, je n'envisage pas l'auto-hébergement sans VPN tellement ça simplifie la vie.


    Redondance = boarf

    Quand on débute, on se dit qu'on doit avoir une autre machine quelque part, qui tourne en permanence et qui agit en secondaire de notre serveur. Pour quand on a plus d'Internet. Pour quand on n'a plus d'électricité. Pour les orages qui nous obligent à débrancher le matos.

    La redondance a un coût : il faut synchroniser la base de données ou les fichiers statiques qui alimentent votre site web entre vos deux serveurs, il faut synchroniser votre roster Jabber, il faut synchroniser vos mails et tout ce qui va avec (états du logiciel de greylisting, états de l'antispam, etc.), etc. Tout cela entraîne de la maintenance humaine et créer de la conf pas forcément triviale à mettre en production et à entretenir dans le temps.

    Tout ça pour quoi ? On a quand même de l'électricité 99,9999 % du temps et de l'Internet 95 % du temps. Il n'y a pas non plus un orage par jour. Bref, les interruptions de service se produisent beaucoup moins souvent que ce que l'on psychotise quand on débute. Vraiment. De plus, durant un orage ou une coupure de courant ou d'Internet, vous n'utiliserez pas votre serveur secondaire… Quel intérêt d'en avoir un ?

    Sans compter que les serveurs de courrier électronique doivent garder les mails qui vous sont destinés. La durée standard est de 5 jours. Bien sûr, il y a des gens qui ne respectent pas l'esprit des normes (le mail n'est pas synchrone !) mais c'est quand même rare. C'est généralement des marchands genre agence de voyage & co avec qui vous ne communiquez pas en permanence donc la probabilité de perdre un mail est faible. Les personnes qui visitent votre site web perso et qui vous causent sur Jabber peuvent bien tolérer quelques heures d'indisponibilité, non ?



    Bref, monter un MX secondaire, un NS secondaire, un HTTPd secondaire, etc. m'apparaît très clairement overkill. Je n'ai pas de temps à consacrer à cela par rapport aux faibles avantages que cela va m'apporter. Je préfère réagir en cas de panne et m'adapter plutôt que d'essayer de prévoir toutes les pannes qui, au final, n'arriveront pas et laisseront place à une panne imprévue.

    En revanche, je m'assurais d'avoir du matos de rechange à la maison. Genre des supports de stockage neufs (carte SD pour ordi monocarte, disque dur / SSD pour ordinateur de bureau). Genre un ordinateur monocarte de secours (et encore… ça se commande & livre vite, ces bestioles) Genre un adaptateur secteur <-> USB de secours dans le cas d'un ordi monocarte (voir http://shaarli.guiguishow.info/?gEtikA ). Pas la peine d'avoir des pièces de rechange pour un ordi de bureau sauf si votre ville et alentours n'a pas un vendeur de matos informatique.



    Stéphane Bortzmeyer a aussi écrit un article centré sur l'absence de besoin vital de redonder le mail.


    Y-a-t-il une différence entre héberger chez moi ou dans l'asso du coin ?

    Ça dépend. Si l'asso héberge toute son infra chez un gros hébergeur style OVH ou Online ou derrière une ligne xDSL style Completel ou Orange, boarf, on ne gagne pas grand'chose, on n'a pas acentré les usages d'Internet, le contenu est toujours centralisé chez de gros prestataires. Certes, ce n'est plus Google et Facebook mais still. Si l'asso locale dispose de sa propre infrastructure Internet ou dépend d'un FAI ou d'un hébergeur associatif, alors là, l'autohébergement peut être avantageusement remplacé par une machine virtuelle dans cette asso.

    Il y a aussi une question de confiance que l'on accorde mais c'est bien pareil pour votre FAI.

    L'asso du coin a quand même des avantages : une machine virtuelle louée évite d'avoir à s'occuper des problématiques de pannes matérielles. L'asso du coin peut parfois gérer toute la partie technique, vous laissant ainsi l'opportunité de vous former petit à petit.


    Détails techniques

    Je me concentre sur le DNS car une fois que votre nom pointe sur votre serveur, tous les services fonctionnent d'eux-mêmes et il n'y a pas de délais auxquels il faut prêter attention.


    Cas d'une installation simple

    Pour migrer votre serveur en panne : soit vous utilisez un VPN avec une IP statique et il n'y a rien à faire. Soit vous changez d'IP et il faut modifier cette information dans votre zone parente via votre bureau d'enregistrement et ça prend du temps (la garantie que la migration sera totalement effective, pour tout le monde vient du TTL de la zone parente). Soit vous avez la main sur votre serveur de noms secondaire (parce que vous l'hébergez ou parce qu'il est hébergé chez un-e ami-e) et vous pouvez le passer temporairement en master sur votre zone et ainsi modifier et diffuser un nouveau fichier de zone. Le délai avant que la migration soit totalement effective dépend du TTL de votre zone, je vais y revenir.


    Cas d'une installation redondante

    Pensez bien à configurer le délai d'expiration de votre zone DNS. En effet, en l'absence de contact avec le serveur primaire, le secondaire conservera votre zone uniquement durant un certain temps, celui défini dans le champ « expire » du SOA de votre zone. Adaptez ce délai à vos prévisions. Genre des vacances durent en moyenne 2-3 semaines. Un retour SAV d'un PC, c'est 2-4 semaines. Même chose pour une ouverture de ligne ADSL / câble. Si c'est cas vous concernent, prévoir un délai d'expiration d'un mois soit 2592000 secondes n'est pas idiot.

    Pour les mails, si vous ne synchronisez pas vos mails (avec Dovecot, par exemple, voir http://jonathan.michalon.eu/shaarli/?76Smjg), mais que votre secondaire se contente simplement de les mettre en queue, pensez à augmenter la durée de rétention de votre secondaire. Voir https://wiki.arn-fai.net/technique:emails#configurer_un_serveur_de_mails_secondaire_simpliste


    Dans tous les cas

    Mettez des TTL courts dans vos zones. Genre 30 minutes (1800 secondes) ou 1 heure (3600 secondes). Ainsi, les caches seront vidés automatiquement après cet intervalle, vous apportant de la flexibilité : ajouter une info de votre zone et en supprimer une se devient rapidement effectif pour tout le monde. Attention également à changer le TTL négatif aka le dernier champ du SOA. Ce TTL indique combien de temps un récursif gardera en mémoire le fait qu'une information n'existe pas dans votre zone avant de reposer la question. Des TTL courts ne sont clairement pas un problème sur les réseaux et machines d'aujourd'hui, surtout pour un domaine peu fréquenté ce qui est le cas de l'autohébergement, normalement.

    Soyez quand même conscients que cela apporte de la flexibilité uniquement tant que vous restez dans votre zone. Exemple : si vous voulez changer l'IP de votre serveur de noms, vous dépendez forcément des TTL de votre zone parente pour changer les glue records genre 172800 secondes (2 jours) dans fr. Si pas de glue record parce que vos NS ont des noms d'une autre zone, vous dépendez bien entendu du TTL de cette autre zone.

    Si vous utilisez DNSSEC, n'oubliez pas que les clés n'ont pas de durée de vie (donc on peut manquer une rotation sans problèmes) mais que les signatures ont une durée de vie. Autrement dit : choisissez bien la durée de vie de vos signatures car votre signeur devra être en état de marche avant l'expiration de vos signatures. Là encore, les vacs c'est 2-3 semaines, un retour SAV c'est 2-4 semaines, etc. donc partir sur une durée de vie d'un mois pour les signatures, c'est tout sauf idiot. :)

    Wed Sep 28 18:30:55 2016 - permalink -
    - http://shaarli.guiguishow.info/?wgU1VQ
  • xkcd: Fixing Problems

    Tellement vrai : un fix en entraîne toujours un autre. :)

    Wed Sep 28 10:59:27 2016 - permalink -
    - https://xkcd.com/1739/
  • Tout ce qu'apportent les nouvelles versions de logiciels packagés dans Debian Jessie

    J'ai déjà parlé des tracas et des changements induits par le passage de Debian Wheezy à Jessie, voir http://shaarli.guiguishow.info/?fMCWbQ , mais je n'ai pas encore parlé de toutes les nouvelles fonctionnalités apportées par les nouvelles versions de logiciels packagés que j'ai remarquées. Liste non exhaustive, forcément.

    • Grub : même si ce n'est pas pris en charge de manière native par Debian-Installer, il est possible de chiffrer totalement son système, y compris la partition /boot. Voir http://shaarli.guiguishow.info/?SKMhQA

    • dnssec-trigger, qui permet, sur un laptop, d'activer une validation DNSSEC locale tout en tenant compte des spécificités de chaque réseau (blocage de ports, absence de prise en charge de DNSSEC, etc.), est désormais packagé dans Debian. Voir http://www.bortzmeyer.org/dnssec-trigger.html

    • openssh-client prend désormais en charge les condensats SHA256 dans les enregistrements SSHFP. Voir http://shaarli.guiguishow.info/?QWcOtQ

    • Le correcteur grammatical Grammalecte fonctionne désormais parfaitement. Je suis incapable de me souvenir de ce qui n'allait pas du temps de Wheezy, juste que ça n'allait pas. Voir http://linuxfr.org/news/grammalecte-correcteur-grammatical

    • Le noyau prend désormais en charge le NAT IPv6 (NAT66). C'est utile quand on veut faire de la redirection de port genre tous les ports pointent sur le port du serveur VPN.

    • Dovecot implémente la fonctionnalité NOTIFY d'IMAP qui permet au serveur de notifier immédiatement l'arrivée de nouveaux mails au client mail sans avoir besoin d'ouvrir une connexion par dossier stocké dans la boîte de messagerie comme le fait la fonctionnalité IDLE d'IMAP. Malheureusement, ce n'est toujours pas au programme de Thunderbird : rien de neuf depuis mi-2014 sur le bugtracker de Mozilla ( https://bugzilla.mozilla.org/show_bug.cgi?id=479133 ).

    • Netfilter récupère désormais les contre-mesures à l'usurpation d'adresses IP, en IPv4 comme en IPv6 dont la partie IPv4 était auparavant gérée par une autre partie du noyau et des sysctl. Voir https://wiki.arn-fai.net/technique:bcp38

    • La libc supporte désormais la résolution des noms totalement en TCP. Pour l'activer, il faut ajouter « options use-vc » dans /etc/resolv.conf

    • La version packagée de hplip prend nativement en charge l'imprimante-scanner HP OfficeJet 2620 . Voir http://shaarli.guiguishow.info/?8C_v0Q

    • Il devient possible de renforcer la configuration TLS de plusieurs logiciels serveur comme dovecot, ejabberd et apache httpd. Voir http://shaarli.guiguishow.info/?vjODJw

    • Même chose pour openssh-client qui prend en charge de nouveaux algos cryptographiques : ed25519, curve25519, chacha20-poly1305, aes128-gcm, aes256-gcm, hmac-sha2-256-etm, hmac-sha2-512-etm . Voir http://shaarli.guiguishow.info/?qQJoJQ

    • La fonctionnalité RRL, limitation du trafic pourri destiné à un serveur DNS faisant autorité, est désormais implémenté dans la version packagée de BIND et de nsd. Voir http://www.guiguishow.info/2014/08/23/comment-mettre-en-place-un-serveur-dns-recursif-cache-ouvert-dans-de-bonnes-conditions/#toc-5206-rrl

    • On peut désormais utiliser les I/O adapters d'OpenDNSSEC donc on peut se monter un serveur master furtif, en charge de signer les zones. Voir http://www.guiguishow.info/2012/08/21/domain-name-system-attaques-et-securisation/#toc-2827-gestion-des-cls . De plus, ldns, la librairie utilisée par OpenDNSSEC prend désormais en charge les enregistrements TLSA introduit par DANE.

    • Postfix prend désormais en charge DANE.



    J'ai déjà commencé ma liste de ce que la prochaine version stable de Debian, nommée Stretch, devrait apporter :

    • La qname minimisation sera disponible dans Unbound. Voir http://shaarli.guiguishow.info/?CBki4Q

    • OpenVPN prendra en charge TLS v1.2. Voir http://shaarli.guiguishow.info/?r6npkg
    Wed Sep 28 01:57:03 2016 - permalink -
    - http://shaarli.guiguishow.info/?v-amDg
  • Media.fdn.fr [ Assemblée Générale 2015 de FDN et points de droit intéressants ]

    Dans la partie informelle de l'AG 2015 de FDN, il s'est dit des choses extrêmement intéressantes sur l'action juridique de l'asso. J'avais pris des notes mais je ne les ai pas publiées. Je les publie aujourd'hui car je pense qu'il y a des bouts intéressants qui n'ont pas été repris dans des interventions publiques plus récentes comme celle à PSSES 2015. J'ai essayé de ne pas spoiler les avancements des procédures qui n'étaient pas connus lors de cette AG.


    3 dossiers en cours

    L'équipe juridique commune à LQDN, FDN et FFDN, qui allait devenir les exégètes amateurs bossait sur 3 dossiers à ce moment-là :

    • Rétention des données de connexion.

      • Une 15aine d'années de lutte. Slogan du milieu des années 2000 : « Data Retention is not solution ». Combat perdu : plusieurs directives européennes (2002 et 2006) ont quand même organisé cette rétention.

      • Nouveauté : en avril 2014, la CJUE s'est prononcée et a dit que conserver tout, sur tout le monde, sans faire le tri, en permanence est contraire à la charte des droits fondamentaux de l'UE. La directive a été cassée. Une directive est transposée dans chacun des droits nationaux des États membres. Il faut donc les faire sauter. Cela se fait simplement auprès de la grande cour du droit administratif de chaque État. Sauf qu'en France, le cadre de la rétention des données de connexion est antérieur à la directive. La France étant l'un des pays qui poussait le plus fort pour une rétention massive et longue.

      • Il faut un prétexte ("la loi est pourrie" c'est un pseudo-argument, par un prétexte) pour aller toquer au Conseil d'État, cour de première instance dans le cadre d'un décret puisque celui-ci à une portée nationale, aucun tribunal administratif local n'est plus compétent qu'un autre. Or, le 24 décembre 2014, le gouvernement a publié le décret d'application de l'article 20 de la loi de programmation miliaire (LPM) qui prévoit qu'un nombre considérable de services administratifs peuvent accéder aux données de connexion (qui ne sont pas vraiment définies, « informations et documents ») sans passer par un juge et sans l'ombre d'un contrôle. On peut donc attaquer le décret et amener le CE à constater que tous les textes qui causent de data retention sont contraire au droit européen et espérer faire tomber tout le tas de merde.

      • Arguments principaux :

        • La loi (la LPM donc) ne précise pas ce qu'elle entend par « tout document et information » que l'administration peut récupérer. C'est précisé dans le décret. Sauf que garantir des bornes en matière d'atteinte aux libertés, ça relève du législatif, pas de l'exécutif. Incompétence négative du législateur (il devait faire quelque chose et ne le fait pas).

        • Le décret devait organiser le contrôle de l'accès aux données par la CNCIS. Incompétence négative du gouvernement.

        • Le décret est précis sur les informations et documents récupérables mais tout est flou : le décret envoie sur des articles de loi qui renvoient sur des articles qui se renvoient entre eux. Le tout forme un patchwork qui ne va pas dans le sens du texte genre il y a des obligations désirées qui n'apparaissent pas. Ce flou est totalement contraire au principe de prévisibilité du droit : les lois doivent être claires et compréhensibles.
      • 8-10 pays d'Europe ont déjà fait sauter la merde donc de bonnes chances de gagner. Mais, on ne sortira pas avec 0 conservation de données : on aura juste des points d'exception mieux cadrés au principe général d'interdiction de rétention (article L34-1 du CPCE).
    • Les décrets d'application de la loi de renforcement des mesures antiterrorisme de 2014 (dite loi Cazeneuve) sont sortis début 2015, à la suite de l'attentat de Charlie Hebdo. Cette loi instaure notamment le blocage administratif secret (le motif n'est connu de personne, pas même de l'éditeur) de sites web terroristes et faisant l'apologie du terro, par les FAI, sur décision de la police (sans juge, donc). Cette loi instaure aussi le déréférencement des mêmes sites web, dans la même absence de cadre.

      • Arguments principaux :

        • Le décret oblige les opérateurs à la délation puisque l'internaute est renvoyé vers une page l'informant du blocage. Cette page se situe sur les serveurs du Ministère de l'Intérieur. Ces serveurs récupèrent l'adresse IP et tout un tas d'information concernant le requérant. Cette mesure n'était pas prévue par la loi. Or, vu qu'il y a atteinte à des libertés, ça devrait être câblé par la loi.

        • Le décret n'est pas clair genre "une adresse électronique contient un domaine précédé d'un nom d'hôte". C'est important parce que du coup, pourrait être filtré tout ce qui comporte un nom de domaine. Une URL précise comporte un domaine. Une adresse mail aussi. Or, pour bloquer une URL, il faut du DPI donc ce n'est pas la même atteinte aux libertés.

        • Les mesures de blocage (avec juge ou pas) ne sont pas proportionnées : de meilleurs moyens existent pour atteindre les objectifs fixés par la loi. Genre ça serait mieux d'attaquer les producteurs du pédoporn', pas les intermédiaires techniques. La CEDH s'est déjà exprimée contre un arrêté ministériel français de 1939 qui visait à encadrer les publications provenant de l'étranger. Les décisions étaient publiques. Toujours bon de rappeler ce bout de jurisprudence.

        • Aucun contrôle effectif (secret). Le pouvoir de la police n'est pas encadré. Coucou les abus.
      • Peu de chances de gagner : l'ambiance est à la parano généralisée + le Conseil Constitutionnel a déjà validé que le filtrage du pédoporn' est OK. Mais là, on va au Conseil d'État pour poser des questions de formes et de cadrage du texte donc ce n'est pas pareil.
    • Il faudra botter le cul de la loi sur le renseignement.


    D'autres gens ne pourraient pas faire le job ?

    • La CNIL a été consultée sur ces projets de loi, elle a dit non mais elle a un avis purement consultatif. Et elle n'attaque jamais le gouvernement.

    • Le défenseur des droits (qui est une autre autorité indépendante) ? Il intervient uniquement sur des cas concrets d'envergure comme le blocage manifeste d'un site web important (comme celui du PS). Pas sûr qu'il ait envie d'intervenir sur les dossiers numériques, il n'a jamais fait un pas dans ce sens. Pas sûr qu'il puisse intervenir sur une procédure auprès du Conseil d'État car on n'y conteste pas une atteinte franche au droit des requérants, on conteste une possible atteinte aux droits de tout le monde.

    • Les FAI commerciaux d'envergure nationale sont capables d'attaquer des décrets quand ça cause pognon genre Free qui attaque la loi HADOPI pour être sûr qu'une compensation financière soit prévue au fait d'identifier des abonné-e-s. Mais là, osef de l'intérêt général et puis, il ne faut pas trop se fâcher trop fort avec le gouvernement car ces temps-ci, il distribue de la thune pour le déploiement de la fibre optique.


    Chonologie de la rétention des données de connexion et du renseignement

    • 1991 : loi sur les interceptions de sécurité faites par l'administration suite au scandale des écoutes illicites de l'Élysée (Mitterrand surveillait les journalistes pour pas qu'on cause de sa fille).

    • 1996 : tentative d'amendement au paquet télécom du député Fillon pour imposer de demander au CSA une "autorisation d'émettre" avant ouvrir un site web. La même année, c'est l'affaire Estelle Hallyday contre Altern : un des 35000+ sites web hébergés par Altern re-publie des photos parues dans la presse. Qui est responsable ? L'hébergeur (Altern) ou l'éditeur du site web ? La justice tranche pour "hébergeur responsable des contenus". On notera que la magistrate en appel était alors Marie-Françoise Marais (oui, l'ex-présidente de l'HADOPI). S'en suivent des jurisprudences identiques où les juges utilisent les textes prévus pour la TV faute de textes plus adaptés.

    • 2004 : on arrive à la LCEN, à la séparation des responsabilités entre hébergeur et éditeur et au principe de subsidiarité : un hébergeur n'est pas condamnable pour les propos tenus par un éditeur mais on peut lui demander de fermer un site web dans le cadre d'une procédure judiciaire et escalader s'il refuse.

    • 2005-2006 : la loi de lutte contre le terrorisme ajoute de nouvelles possibilités, pour l'administration, de demander des données de connexion ainsi que de nouvelles possibilités de géolocalisation. Le Conseil Constitutionnel avait été saisi par le Parlement et avait répondu que 1) il faut un contrôle judiciaire (ce que le projet de loi ne comportait pas) ; 2) les données de connexion accessibles aux administrations = OK, même pour de la police administrative.

    • Mars 2006 : directive européenne sur la conservation forcée des données de connexion. Moment très drôle en Allemagne : l'équivalent du Conseil Constitutionnel a dit "non". Du coup, choix compliqué : changer la Constitution allemande pour pouvoir transposer la directive ou illégalité vis-à-vis de l'UE ? L'Allemagne a choisi de jouer la montre donc illégalité vis-à-vis de l'UE.

    • 2011 : décrets d'application de la LCEN qui tentent de préciser les données à collecter. Il y avait eu le bazar autour de la volonté du gouvernement que les intermédiaires techniques communiquent le mot de passe en clair.

    • Avril 2014 : la directive européenne de 2006 (200624CE) est annulée par la CJUE.


    Chronologie du blocage administratif de sites web

    • 2001 : directive européenne EUCD. On la connait pour les DRM transposée en droit français par la DADVSI mais elle autorise aussi les ayants droit à demander en justice à un FAI de bloquer un site web qui contrevient à ses droits.

    • 2009 : la partie blocage de sites web de l'EUCD est transposée en droit français par la HADOPI 1. Oui, il y a bien des articles de filtrage de sites web avec un juge dans HADOPI.

    • 2010 : loi sur les jeux d'argent en ligne. Instaure l'ARJEL et le blocage judiciaire de sites web qui ne payent pas leur patente à l'État.

    • 2011 : LOPPSI2 : blocage de sites web pédopornographiques sans juge sur décision secrète du Ministère de l'Intérieur. Le Conseil Constitutionnel valide car pedoporn trop grave pour s'occuper des droits et libertés.

    • 2014 : loi Cazeneuve. Nouvelle finalité pour le blocage sans juge sur décision secrète du Ministère de l'Intérieur : lutte contre le terrorisme et l'apologie du terrorisme.


    Points de droit intéressants :

    • Un décret, comme beaucoup de décisions de l'administration, s'attaque dans les 2 mois. Ça peut être un simple courrier "on attaque". On a alors 3 mois pour envoyer un mémoire ampliatif qui contient l'ensemble de l'argumentaire.

    • Note : une décision de l'administration peut être une réponse négative, c'est-à-dire une absence de réponse. ;)

    • On attaque un décret plutôt que les actes administratifs de blocage car c'est plus efficace : l'annulation d'un décret permet d'évincer (= de transformer en code mort) des pans entiers de loi associée, le temps que de nouveaux décrets soient pris en bonne et due forme (qui ne peuvent donc pas reprendre les conneries qui ont causé leur perte devant le CE). Contester les actes administratifs, ça suppose d'en avoir connaissance puis d'interroger le ministère de l'Intérieur puis le tribunal administratif pour contester puis de faire appel puis d'aller en "cassation"-like devant le Conseil d'État. Sauf qu'en France, on ne peut pas aller en cassation (droit administratif ou judiciaire, pas d'importance) sans avocat.

    • Au Conseil d'État, tout se passe par écrit : le réquérant attaque, le ministère concerné répond, etc. Le dossier se conclut par une audience de 25 minutes environ dans laquelle le rapporteur lit son rapport. Il est rare que les avocats prennent la parole. Durée : plus d'un an pour une procédure simple (sans question sur la constitutionnalité du texte, sans question à la CJUE). Dans le cadre de la rétention des données de connexion, on part sur 2-5 ans de procédure.

    • Conseil d'État < CJUE < CEDH.

    • Les gouvernements français tentent en permanence de ne pas tenir compte des décisions rendues par les grandes Cour de l'UE quand elles sont prises à l'encontre d'autres pays même quand un texte similaire existe en France, en mode "ce pays est un pays de sauvage, la décision ne nous concerne pas, on est des gens bien, nous". Il faut souvent re-attaquer la France pour qu'elle se bouge. Exemple : garde à vue sans avocat.

    • Pour bloquer un site web de manière judiciaire, il faut une décision de justice. Quelqu'un doit attaquer les FAI devant un tribunal et le juge doit condamner les FAI à bloquer le site web en question. On attaque donc quelqu'un qui est coupable de rien pour qu'il soit condamné à faire quelque chose qui n'est pas une peine et qui ne cherche pas à le punir. Personne n'attaque les 1800 opérateurs. De même, la police peut choisir à quels opérateurs elle transmet la liste des sites web à bloquer dans le cadre des lois LOPPSI2 et Cazeneuve, le décret n'impose pas de la transférer à tous les opérateurs. Ce n'est pas une rupture d'égalité devant la loi. Déjà, la décision de justice n'est pas une condamnation de l'opérateur. Ensuite, si un petit opérateur genre FDN recevait la liste, il serait obligé de filtrer mais comme il n'a pas été notifié des blocages à mettre en place, il n'est obligé à rien. Illustration absurde : si la loi disait "tous les citoyens doivent répondre "oui, chef !" quand un gendarme leur parle", tant qu'un gendarme ne te parle pas, tu n'es pas obligé de dire "oui, chef !". Un blocage "préventif" à l'initiative du FAI serait une violation du CPCE.

    • Est-ce que la pratique de DNS menteur est interdite ? Ce n'est pas clair. Y'a un bout de texte dans la partie réglementaire du CPCE qui a l'air de dire que oui. Des gens de l'ARCEP pensent que oui. Mais ce n'est pas clair, il n'y a jamais eu de décision sur le sujet, cet article n'a jamais été utilisé pour attaquer un FAI, donc on n'est pas sûr de l'interprétation qu'en aurait un juge.

    • Données de connexion à conserver :
      • FAI : il s'agit d'associer une IP à ce que tu as comme informations. 56k "toto/toto" = tu donnes le numéro de téléphone appelant ; VPN open-bar : rien ou IP source ; Wi-Fi ouvert = adresse MAC (comme à l'aéroport de Toulouse-Blagnac) ; Si c'est un-e abonné-e et qu'on a des infos sur lui-elle (identité, adresse postale, adresse mail, autre), on doit les donner. Il est strictement interdit (CPCE) de noter qui a été visité tel site. Il est interdit de conserver tout ce qui touche au contenu ou à la navigation.

      • Éditeurs de contenus : trace de chaque étape dans le cycle de vie d'un élément de contenu. Exemple : sur un commentaire de blog, il faut savoir donner l'IP du posteur s'il est externe à l'association ou bien le nom de l'utilisateur du blog si la modification a été faite en interne.

      • Dans tous les cas :
        • Si service payant, il faut garder les informations relative au paiement.

        • S'il y a la création d'un compte, il faut communiquer « Les données permettant de vérifier le mot de passe ou de le modifier, dans leur dernière version mise à jour ». Ce n'est plus le mot de passe en clair comme dans la première version du décret de 2011 mais les hashs et la réponse aux questions secrètes. Voir https://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000023646013&dateTexte=20160927 et http://www.nextinpact.com/archive/69954-mot-passe-conservation-donnees-cnum.htm
    Tue Sep 27 19:29:53 2016 - permalink -
    - http://media.fdn.fr/html/ag2015.html
  • Avenir(s) d'internet

    Mes notes concernant la conférence « Big Brother, entre réalité et science-fiction » qui a eu lieu à Strasbourg le 10 décembre 2015 dans le cadre du cycle de conférences et d'ateliers « Avenirs d'Internet ».

    Il n'y avait pas de slides. L'enregistrement audio est disponible ici : https://hackstub.netlib.re/docs/avenirsdinternet/enregistrements/montageSonConf1/confavenirsdinternet-zimmermann-henryQ4.ogg .

    Jérémie Zimmermann

    • Les productions hollywoodiennes introduisent une idée perverse : le gentil a raison d'aller tirer sur tout ce qui bouge car lui est humain, lui a une famille, lui éprouve des sentiments.

    • Il y a une porosité entre science et fiction. La science inspire la fiction, la fiction inspire la science. Exemple : les ordiphones Motorola StarTAC qui ressemblaient au « Communicator » de Star Trek. Autre exemple : les inventions de Jules Verne qui ont mis les scientifiques sur la voie.

    • Une autre idée viciée répandue est de considérer que toute innovation est forcément acceptable. Le futur est inévitable, comme dans Terminator. On s'arrête pour réfléchir : on nous impose l'innovation. Où est notre liberté de choix ?

    • Des drones pilotés existent pour conduire des frappes. Alors des robots tueurs Terminator qui prendront des décisions basées sur des données, des infos, des profils, on n'en est pas loin. Peut-être qu'il y aura un opérateur qui confirmera ou non la frappe en agitant un pouce, comme au temps de Jules César.

    • La surveillance de masse, le profilage, tout ça, sont vus comme un progrès ou comme une dérive, selon les points de vue.

    • Les sujets autour des libertés à l'heure du numérique sont tellement complexes qu'il faut prendre des symboles pour y attacher nos idées politiques. Exemple : « neutralité du Net », ça ne parle à personne. « Discrimination des communications sur Internet », c'est déjà plus parlant. Il y a une rhétorique à construire pour faire passer nos messages.

    • La réalité a déjà dépassé la fiction. Est-ce que la fiction c'est pour nous habituer ou pour nous faire réfléchir ?

      • On n'a pas les Precogs de Minority Report à sauver mais on a des ordinateurs froids qui contiennent toutes nos conversations, tout nos déplacements, etc. sur les X dernières années.

      • Robocop est une satire du monde, du Cartel industriel. Robocop ne suivra pas les ordres car il est humain.

      • Terminator est une machine implacable avec des Google Glass.

      • Tout ça montre qu'on a les atrocités du cinéma dans nos poches, sous forme de joujou charmant. Les puces fermées que contiennent nos ordiphones dont on sait que des accès à distance sont possibles mais dont on ne sait pas ce que font ces puces. Ces machines nous ciblent. La différence, c'est que les tueries du Terminator se voient alors que la surveillance de masse est invisible.
    • Même chose pour le pistage via les likes Facebook.

    • La surveillance nous oblige à nous autocensurer, à nous brider : quand on se sent surveillé-e, on ne dit pas "fuck le boss" au boulot, on ne se rend pas à une réunion d'homoxuel-le-s ou aux alcooliques anonymes.

    • En une 15aine d'années, on est passé de l'ère des machines documentées à l'ère des machines Terminator. Exemple : le fonctionnent de l'Amiga était connu et la documentation était livré avec la machine. [ NDLR : J'ajoute un exemple perso que j'ai vécu : http://www.guiguishow.info/2013/12/31/va-te-faire-foutre-uefi/ ]

    • Les biais hollywoodiens nous empêchent de voir les liens entre fiction et réalité.

    • Connaissance volée, ressources communes volées, démocratie volée. On est déjà dans Fahrenheit 451 : on n'a plus le droit de lire les documentations de nos machines. Et, en cachette, on lit les docs Snowden.

    • La protection de la vie privée, c'est la protection de nos intimités. C'est se laisser la possibilité d'êtres libres seul-e ou à plusieurs. C'est la possibilité d'expérimenter sans se faire juger. C'est important.


    Léo Henry

    Lecture de deux nouvelles d'anticipation écrites par un collectif d'auteurs.


    Q&R

    Je n'ai pas pris de notes de la session de questions-réponses.



    Sur un plan perso, c'était ma première rencontre avec jz. Son côté humaniste m'avait soufflé et remonté le moral alors que je n'étais que rage et désespoir à ce moment-là (loi Renseignement, sortie des décrets "filtrage" de la loi anti-terro de 2014, état d'urgence, déchéance de nationalité, exclusion et rejet de l'autre évoqués en permanence dans les infos, etc.). Bref, je garde un excellent souvenir de notre longue conversation. < 3

    Tue Sep 27 14:43:13 2016 - permalink -
    - https://hackstub.netlib.re/blog/cycle-avenirs-dinternet/
  • Le chaudron puant : Reflets

    A six mois de la présidentielle, l’ambiance en France est très particulière. Médiatiquement, politiquement et socialement, les discours les plus primaires et les plus réactionnaires ont recouvert la plupart des réflexions. L’espace politique français — au sens large — est passé des débats de société de fond aux polémiques les plus puantes. Ce constat est possible non pas par la seule observation des chaînes de télévision ou de radio les plus plébiscitées, mais aussi par les titres de la presse papier et internet, ainsi — et surtout — que les échanges sur les « grands » réseaux sociaux. Le chaudron commence à bien bouillir, rempli d’ordures, et son odeur se répand de plus en plus fortement, recouvrant la plupart des paroles, actes ou initiatives « progressistes ».

    Oui, alors les côtés « scoop » et le côté « c'était mieux avant » qui transparaissent dans cet article, pleeeaase quoi. Surtout que l'article cite bien des illustrations du Chirac du début des 90's qui disait déjà de la merde. La déchéance de nationalité ne date pas non plus des élections à venir. Frontex non plus. Le bullshit servi au moment des élections régionales était le même qu'en 2002. « Les Français sont des veaux » (donc incultes, qui suivront le mouvement impulsé par le chef) c'est du De Gaulle.

    C'est le même boxon à chaque présidentielle, au moins sur les 3 dernières. Le débat d'entre-deux tours entre Sarko et Ségo était déjà du grand n'importe quoi rempli de trucs faux. Non mais sérieux, deux gens tout à fait normaux sont priés d'être experts sur tous les sujets et d'en débattre, comme ça, taktak. Ça ne peut pas fonctionner. La personnification des élections est un problème.

    Sans compter que le poste est prestigieux et exclusif donc forcément que tu vas raconter nawak et jouer sur les peurs des uns et des autres pour y parvenir.

    Au-delà de ça, je n'ai jamais entendu un débat intéressant, ça part toujours en règlement de compte ("vous avez fait ça dans le passé et c'était de la merde qui nous plombe aujourd'hui) et en clivage, ça part en "je te coupe la parole sans arrêt", ça part toujours en débat dans des sous-sous-sous-sujets, ça part toujours en noyage de poisson. Le temps vient à manquer (et même si on organisait des débats de 12 ou 24h ou 36h, ça ne changerait rien, c'est un problème de mentalité). Il n'y a jamais rien de constructif, rien à en tirer. C'est inaudible et le débit mitraillette est impossible à suivre. Je pense par exemple à l'échange entre Copé et Duflot sur BFMTV la semaine passée mais c'est clairement général et depuis aussi longtemps que je m'en souvienne.


    [...]

    Désormais, le populisme se déclare comme un mode politique de proximité du peuple, de parler vrai [au peuple], de se préoccuper des problèmes du peuple, de vouloir le bien du peuple, etc… La réalité du populisme est pourtant toute autre, puisqu’il est à la fois historiquement et politiquement le ferment du fascisme. Le plus grand populiste de l’histoire contemporaine est Mussolini. Ses discours, son comportement, toute sa sinistre carrière politique sont basés sur ce concept de populisme. Le Duce a été copié de nombreuses fois, et peut-être jamais égalé, encore que…

    Nationalisme, patriotisme, racines [des origines], grandeur [perdue] à restaurer, analyses et solutions simples, à la portée de tous, gouvernance de « bon père de famille », paternalisme donc, et déclaration des « ennemis » à abattre, ou des minorités à contraindre sont les principaux ingrédients qui nourrissent la recette du populisme dans ce chaudron pestilentiel.

    [...]

    Pour résumer le populisme français : il se situe dans la croyance qu’une majorité d’électeurs sont mécontents, qu’ils sont plutôt incultes, qu’on peut leur faire croire que leurs problèmes sont avant tout causés par une partie de la population étrangère à la « patrie originelle » (gauloise ?), ou cause de blocages créés par des groupes d’intérêts qui prennent tout le monde en otage (les syndicats en général) et que le bons sens, l’évidence dans les décisions à prendre, sont celles que prendraient n’importe quel « bon père de famille ».

    Dans ce registre, le populisme résume chaque cause d’un problème à un unique facteur. Pour le concept du chômage et de « l’emploi » : c’est à cause des « charges » sur les salaires (qui sont en réalité, les cotisations sociales pour abonder les recettes publiques et maintenir le système de répartition collectif) qui empêchent la compétitivité. Pour l’insécurité, c’est le communautarisme, le refus de l’intégration et le radicalisme religieux.

    Bonne définition du populisme, je me garde ça.


    [...] Le débat sur la énième réforme de l’éducation nationale s’est effectué sur les horaires, l’apprentissage pur des fondamentaux ou l’éveil des enfants en groupe, le rétablissement de l’uniforme pour certains, la sécurité scolaire et introduire des tablettes informatiques pour faire rentrer le numérique dans l’éducation nationale…

    Ben… comment dire… je vais faire dans le populisme mais il suffit d'écouter les parents (et ça ne date pas d'hier) : ça cause de choses extrêmement matérielles donc horaires, menus de la cantine (histoire de pas refaire des frites le soir si y'en a eu le midi, lol), poids du cartable, sécurité de l'école, etc. À moment donné, nier que les débats sont à l'image du monde, c'est se voiler la face et c'est dangereux. Il faut bien se dire que les grands idéaux comme apprendre à apprendre, l'école décentralisée (à la maison, distance, tout ça), ça ne sort pas de terre comme ça, faut attendre que ça germe donc en attendant, il faut bien gérer la situation concrète, matérielle. Ce n'est pas contradictoire, c'est une question de proportion. Et c'est comme ça dans tous les domaines de la vie.


    [...)

    En fait dans l’esprit de la fachosphère IRL ou sur le réseau, il existerait une société immuable, figée, depuis les années 50, une France du Général de Gaulle, qui n’aurait pas bougé. Ou si, qui aurait été forcée de se cacher dans des caves, tandis que les Sarazin, les Chinois, les Martiens, peut-être, auraient peu à peu investi les appartement, les maisons et les commerces laissés vacants par la population gauloise, fuyant vers les caves.

    [...]

    Par extension, l’immigration qui ferait tant de mal aux Gaulois, selon l’extrême-droite, est une sorte de cellule dormante des islamo-nazis. A l’inverse, les Gaulois, sont des gens bien sous tout rapport. Encore une fois, la globalisation est à l’œuvre. Ce serait considérer que tous les Gaulois sont des gens parfaits alors qu’une foule d’études scientifiques très sérieuses prouvent qu’il y a de nombreux crétins durs dans cette population. Même des gens agressifs, violents, délinquants, terroristes, assassins, homophobes, sexistes… Bref de tout, comme partout. Mais sortir de la généralisation, c’est un peu compliqué pour notre fachosphère.

    Oui, la peur du changement et le bouc-émissaire sont hyper connus : "nous on atteint la perfection, il ne faut plus rien changer, c'est l'autre qui a tort et vu qu'il est pas comme moi bah lala".


    [...]

    Nous sommes arrivé à un moment où le tempo de l’actualité est rythmé à moitié par les tweets ravageurs de politiciens ou des citations de leurs discours, d’extraits d’interviews. Le tout en 140 caractères maximum. Ou avec un post sur un mur. L’approximation, la fausseté, voire les mensonges les plus flagrants sont ainsi relayés à la vitesses des tuyaux numériques. Un petit maire de droite extrême bien raciste ordonne une interdiction de tenue de plage portée par quelque femmes d’origine maghrébine, et c’est un buzz médiatique qui dure un mois. Un mois… Emportements, militantisme, rejet, agacement, indignation, tout y passe…

    C’est en fait une nouvelle période qui s’est ouverte, celle de la création des sujets d’actualités politiques par la foule, ou par les « stars des réseaux sociaux », qu’elles soient des politiques ou non. Les groupes militants de tous bords sont donc très friands de ce phénomène, puisqu’en quelques clics, voire quelques aides automatisées (principe de l’astroturfing), une foule se crée, prête à en découdre, à défendre, attaquer, se plaindre, s’indigner, mais dans tous les cas : fait parler d’elle et surtout de son sujet.

    Oui, le traitement de l'information est un vrai problème. Mais, d'un côté, je me dis que les petites phrases assassines sont des révélateurs, qu'elles donnent le ton. Macron et son costard, on sait à quoi s'attendre en choisissant le projet de société de ce mec-là. Sarkozy et ses Gaulois, on sait aussi à quoi s'attendre. Ça reste trop succinct, certes mais ça donne une idée. L'absence d'autres voix, d'autres choses que des petites phrases est problématique, pas de problèmes avec ça.


    [...]

    Un article reprenant celui de Viner cherche à comprendre ce qu’il se passe au delà de l’amplification des rumeurs et de l’emballement des foules sur les réseaux sociaux. Un phénomène très important est celui de l’influence des algorithmes et de l’enfermement des usagers des réseaux dans leurs propres convictions, dans leurs propres sphères de croyance.

    Là encore, rien de nouveau : le bistro du coin et ses habitués avaient leurs sphères de convictions. Les familles ont aussi leurs sphères de convictions qui perdurent. Nous avons aussi de telles sphères avec nos ami-e-s. Donc le coup des méchants réseaux sociaux, pleeeaaase, quoi, ils ne font qu'abolir les distances donc fusionner des sphères de convictions.

    Tue Sep 27 11:00:15 2016 - permalink -
    - https://reflets.info/le-chaudron-puant/
  • Mon avis sur quelques films à gros budget 2013-2016

    J'avais noté deux-trois trucs sur les films que j'ai visionnés en 2014-2015-2016. J'décide de publier ça ici… Ça me sers à me souvenir de ce que j'ai déjà regardé ou non, ça permet à quelques lecteurs de venir me troller et aux autres d'apprendre que j'ai des loisirs parfois douteux. :P

    Je ne présenterai pas les films, libre à vous d'aller chercher le scénario sur les sites web habituels.


    Terminator 5 Genisys

    Mon avis est compliqué.

    • D'un côté, ce film a de très bonnes séquences sur le monde hyper connecté d'aujourd'hui (et supposément de demain) et les répercusions associées genre Skynet = cheval de Troie (ce n'était pas clairement affirmé dans les précédents opus, même dans le 3) ou genre le fait qu'être absent des réseaux sociaux est considéré comme louche. Le tout me rappelle la vision de dystopie technologique de Jérémie Zimmermann (qui s'appuie d'ailleurs sur Terminator 1 & 2).

    • D'un autre côté, à part ce que j'ai mentionné au point précédent, ce film est juste du grand n'importe quoi : le Terminator qui se prend pour Emmett Brown (oui, oui, le doc' de Retour vers le futur), le manque de dynamisme et d'intéressement de Sarah Connor ('tain, rendez-nous Linda Hamilton, sérieux), des trucs totalement illogiques genre le Terminator qui se reconstruit y compris son bras précédemment arraché / endommagé alors que ce modèle n'a pas la propriété d'être du métal liquide malléable, etc.

    Bref, au final : l'ensemble est plutôt du grand nawak et est plutôt décevant. Mais, il a le rythme d'un Terminator pour passer le temps.


    Jurassic World

    L'intégralité du scénario est attendue et capilotractée : des paquets de décisions illogiques s'enchaînent pour amener l'intrigue (l'apogée étant de courir bien en évidence devant le T-Rex, une bestiole qui te rattrape immédiatement…). Je note quand même une bonne réplique sur les drones armés en lesquels on ne peut pas avoir confiance car ils sont facilement piratables. :D

    Bref, c'est juste du Jurassic Park à l'ancienne, juste du divertissement, il ne faut pas chercher plus loin. Mais, il vaut mieux regarder autre chose. :-


    World War Z

    Bon… Là, c'est clair, on a touché le fond. Des zombis partout, sensibles au bruit, un mec qui a tous les bons contacts pour faire héberger sa famille en lieu sûr, une idée saugrenue sur l'origine du mal, des scènes méga-prévisible (genre l'escalade de l'enceinte de sécurité qui, évidemment n'a pas pu se produire avant l'arrivée de Brad alors que la ville était tout aussi bruyante,…). Même quand on veut s'écrouler devant un film, il ne faut pas choisir celui-là. :-

    Ça vaut aussi pour tous les Spider-Man après les 2 premiers originaux. :- Pleeeaaase, quoi. :-


    Die Hard 5 : belle journée pour mourir

    Mêmes remarques que pour Terminator et Jurasssic World : incohérences à gogo (l'apogée étant de flinguer des gus en combinaison antiradiation, sur un terrain radioactif, tout en étant en simple T-shirt puis d'entrer et de respirer tranquillou dans un bâtiment qui était dangereusement radioactif deux minutes plus tôt…). Bref, c'est juste du divertissement, il faut juste admirer les explosions. On est au-dessus du niveau de World War Z, c'est déjà ça. :-



    J'ai à peu près le même avis sur Olympus has fallen : des méchants étrangers, un seul patriote américain pour sauver le président US, des tirs et des explosions. Du cinéma d'action à consommer et à oublier, quoi. Il y a quand même un petit quelque chose qui le sépare de Die Hard 5 que je n'arrive pas à identifier… Peut-être l'effet nouveauté ou l'effet "service de protection du président US"… C'est probablement cela qui fait que j'avais bien aimé ce film, plus qu'un Die Hard 5 ou un Terminator 5. On notera que ce film et sa suite, London has fallen, sont de parfaits représentants de la culture américaine : "c'est nous les plus forts, personne peut nous battre, nous sommes les seuls survivants".


    Le Transporteur : héritage

    Plus de Jason Statham. :( Mais la recette demeure : des règles violées, des bastons et de la conduite. Niveau cascades : moi aussi je fais sauter en finesse et en une seule tentative les capuchons des bornes à incendie avec le coffre de ma voiture mais bien sûr… :)))) Niveau scénario : j'adore (ou pas) les coïncidences joyeuses qui permettent à un plan totalement WTF et bancal de se dérouler sans accroc (oui, y'a une référence mais c'pas la question). Niveau incohérences : je n'ai rien compris à la scène de vidage du compte bancaire, c'est techniquement illogique (pourquoi faire ça sur le bateau ?). Je n'ai pas compris non plus comment/pourquoi autant de personnes mettent autant de temps à se prendre une balle dans une rixe entre voyous qui a lieu dans une toute petite salle sur un petit bateau en présence de tireurs fous…

    Même si c'est répétitif vis-à-vis des précédents opus, ça se regarde plus agréablement que World War Z ou Die Hard 5, y'a pas photo. :)


    50 nuances de Grey

    Le film est loufoque dans son ensemble. Mention spéciale pour la scène de lecture partagée du contrat dans laquelle le mec confond rougissement et "reflet" d'un coucher de soleil. Pas mal pour un grand séducteur !

    Globalement, je n'ai pas aimé l'angle sous lequel les relations humaines et le sexe sont déroulés :

    • Non, on ne signe pas une saloperie d'accord de non-divulgation avant une partie de jambes en l'air (même Max Mosley ne fait pas ça :D https://fr.wikipedia.org/wiki/Max_Mosley#2005-2009_:_dernier_mandat_entre_.C3.A9cologie.2C_r.C3.A9duction_des_co.C3.BBts.2C_conflits_et_scandale ). C'est hallucinant d'envisager cela ;

    • Non, c'pas cool du tout de présenter le BDSM comme étant seulement l'expression d'une folie (c'est l'expression employée sans humour par le mec), d'une volonté démesurée de contrôle ou d'une envie exprimée par des personnes ayant subi un viol. C'est plus que ça, c'est autre chose que cela et c'est très dommageable de réduire cet ensemble de pratiques à ça, bonjour les clichés qui vont demeurer dans la tête des gens. :S


    Vice Versa

    J'ai aimé le concept du film : la matérialisation de nos sentiments. Mais le film est clairement ennuyeux au bout d'un moment (avec le gag récurrent de Tristesse, avec la chute dans l'oubli, etc.), il aurait gagné à être plus court. Je me demande toujours quelques petites choses : pourquoi avoir choisi un déménagement comme générateur de l'intrigue ? Pourquoi avoir modélisé uniquement 5 sentiments ? Pourquoi ces 5 là ?


    Imitation Game et Steve Jobs (2016) :

    Deux biographies-fictions. La première sur Alan Turing, principalement sa vie à Bletchley Park où il tentait, en compagnie d'autres personnes, de casser Énigma ainsi que quelques bouts de son adolescence. La deuxième sur le co-fondateur d'Apple, axé sur les dizaines de minutes qui ont précédé trois lancements produit majeurs (le Mac, le NeXt et le Lisa) où ses proches lui ont apparemment dit leurs 4 vérités.

    Bien que ça soit basé sur des biographies, même autorisée par le concerné pour celle sur Jobs, ça reste de la fiction genre personne n'est capable de se souvenir de toutes les petites phrases prononcées par tout le monde des dizaines d'années dans le passé, surtout celles prononcées en toute intimité. Du coup, il faut prendre ça à la légère, comme une vue d'ensemble et ne pas mémoriser les détails.

    En ces temps de dénigrement et de rejet de l'Autre et de soi-même, je trouve intéressant le "rappel" (désolé, je ne trouve pas mes mots) de l'homosexualité de Turing qui ne l'a pas empêchée de faire de grandes choses parce que justement, on ne peut pas opposer ces deux faits. De la même manière, je trouve intéressant de démystifier Steve Jobs : c'était un homme d'affaires, pas un technicien, il s'est vautré plusieurs fois avant de lancer des produits à succès et c'était un monstre sur le plan moral et humain.

    Je dois reconnaître que j'ai bien aimé ces deux films. Je recommande de les visionner.


    Gravity

    Une mission spatiale qui se passe mal, une Sandra Bullock qui tente de revenir sur Terre en enchaînant problème sur problème. C'est un peu idiot mais j'dois bien reconnaître que l'intrigue m'a tenu en haleine malgré les grosses ficelles… Ça ne laisse pas un souvenir impérissable mais ça se regarde, quoi. Je trouve que Sandra joue son personnage jusqu'au bout, comme au temps de Traque sur Internet ou Speed.


    Interstellar

    J'ai beaucoup aimé le début du film et la thématique globale : pousser la science toujours plus loin, comprendre le monde qui nous entoure, chercher des alternatives, etc. J'ai aussi beaucoup aimé la représentation des autres dimensions sous lesquelles on pourrait percevoir notre univers, notamment le temps. Ça ne vaut pas lourd scientifiquement parlant mais ça fait rêver et c'est ce que j'ai apprécié dans ce film.


    Citizenfour et The Internet's Own Boy: The Story of Aaron Swartz

    Deux documentaires (pas des biopics / reconstitutions mais d'authentiques images). Le premier sur la rencontre entre Snowden et les journalistes pour balancer les pratiques immorales de la NSA. Le deuxième sur Aaron Swartz. Ces deux films portent clairement, et de première main, les projets de société défendus par ces deux hommes : contre la surveillance de masse pour le premier, pour la société du savoir pour tous et toutes pour le deuxième. Et ça, c'est cool.

    Je sais que ces films sont à l'origine de militantisme actif chez plusieurs personnes de ma connaissance et je trouve ça merveilleux. Je recommande de les visionner.


    Hunger Games 3 - la révolte

    Autant j'avais bien aimé les deux premiers volets, ils étaient plutôt conformes à l'esprit des livres (à l'idée que je m'en fais, en tout cas), autant je trouve que le 3e épisode est une adaptation ratée : les spots de propagande sont terriblement mal joués par Jennifer Lawrence et il manque la finesse politique / tactique qui est plus prononcée dans les livres, àmha. Bref, c'est un film "on regarde puis on oublie".


    Divergente 1 - 2 - 3

    Pour le coup, je n'ai pas lu les livres. Je suis fan des deux premiers volets car on y trouve un certain nombre de marqueurs intéressants comme la division stupide de la société sur des prétendues qualités (pour mieux régner ?), gué-guerre pour gouverner de la part de toutes les factions, etc. Le 3e volet est un gros foutoir : on veut éblouir le spectateur avec de la technologie, petit clan pour diriger une ville, stéréotype du méchant de service qui ruine la complexité introduite par les deux précédents volets où il n'y a pas un seul méchant contre des gentils mais une diversité d'opinion, etc. Du tome 3, je retiens l'illustration qu'un conflit termine toujours par des peines capitales expiatoires, la classification sain-e / défaillant-e similaire à sorcier-e / moldu-e qui ne peut que conduire à des inégalités et à des conflits, ainsi que le fait que de vouloir un génome humain parfait a failli conduire l'humanité à sa perte.

    Tout comme pour Hunger Games, j'pense sincèrement que ces films valent la peine d'être vus si l'on fait abstraction des naiseries.

    J'ai un peu le même avis pour X-Men: Days of Future Past (et la saga entière d'une manière générale) : une fois que les sursauts causés par les incohérences et les impossibilités physiques sont passés, j'aime beaucoup le message véhiculé (tolérance entre personnes) car il ne l'est pas d'une manière bi-polaire (bien / mal) : tous les camps tentent de tirer la couverture à eux à plusieurs moments en faisant des trucs crades. Servir ou desservir les idéaux ?


    Idiocracy

    Ça fait facilement plus de 5 ans qu'on m'avait conseillé de regarder ce film. J'ai une relation amour-haine avec ce film. D'un côté, j'aime l'idée d'une satire cinématographique pour montrer vers quelle forme de société, de constructions humaines on ne veut pas aller (pognon roi, retour à l'état de nature où le plus musclé l'emporte, désastres écologiques, absence d'avancées techniques, etc.). De l'autre côté, résumer le monde à "tout le monde est un abruti fini sauf moi", c'est réducteur et ça n'apporte rien. Du coup, l'éclairage apporté par ce film est intéressant mais il est incomplet. Ce film positionne aussi notre époque comme étant la plus trop mieux au niveau sciences / culture / intelligence, mais est-ce vraiment le cas ? Si ça se trouve, une construction sociale plus rudimentaire apporterait le bonheur à l'humanité mais un effet d'estrade empêche de se rendre compte de cela.

    Je recommande le visionnage de ce film, pour le côté satirique. Ce shaarli est parrainé par Carl's Jr. ;)

    Tue Sep 27 00:12:08 2016 - permalink -
    - http://shaarli.guiguishow.info/?Ms6HRA
  • How the Internet works: Submarine fiber, brains in jars, and coaxial cables | Ars Technica

    Un excellent article, avec des photos, qui nous parle des câbles sous-marins qui transportent Internet (et toutes nos communications en général), des stations d'atterrissement de ces câbles, des datacenters où sont installés les ordinateurs des opérateurs réseau et des fournisseurs de services ainsi que des quelques réseaux de distribution qui amènent le Ternet dans le logement de tout un chacun. Bref, on aperçoit le côté très matériel d'Internet que l'on oublie souvent. Je recommande vivement la lecture de cet article.

    Quelques ressources complémentaires :

    • http://shaarli.guiguishow.info/?9kAT1g : compte-rendu d'une émission de radio dans laquelle étaient évoqués le financement des câbles sous-marins, les enjeux géopolitiques de ces câbles, les consortiums qui sont derrière leur installation et leur exploitation, etc ;

    • http://www.bortzmeyer.org/tubes.html : compte-rendu de lecture du livre « Tubes: A journey to the center of the Internet » qui s'attache aussi à présenter l'aspect physique, matériel, concret d'Internet.


    [...]

    But how does it work? Have you ever thought about how that cat picture actually gets from a server in Oregon to your PC in London? We’re not simply talking about the wonders of TCP/IP or pervasive Wi-Fi hotspots, though those are vitally important as well. No, we’re talking about the big infrastructure: the huge submarine cables, the vast landing sites and data centres with their massively redundant power systems, and the elephantine, labyrinthine last-mile networks that actually hook billions of us to the Internet.

    [...]

    The secret world of cable landing sites

    [...] Providing an Internet service goes beyond the mere capabilities of a single ISP on this sceptred isle or, indeed, the capabilities of any single ISP anywhere in the world.

    First we’re going to take a rare look at one of the most unusual and interesting strands of the Internet and how it arrives onshore in Britain. We’re not talking dark fibre between terrestrial data centres 50 miles apart, but the landing station where Tata’s Atlantic submarine cable terminates at a mysterious location on the west coast of England after its 6,500km journey from New Jersey in the USA.

    Connecting to the US is critical for any serious international communications company, and Tata’s Global Network (TGN) is the only wholly owned fibre ring encircling the planet. It amounts to a 700,000km subsea and terrestrial network with more than 400 points of presence worldwide. [...] At any one time Tata’s Tier 1 network is handling 24 percent of the world’s Internet traffic, so the chance to get up close and personal with TGN-A (Atlantic), TGN-WER (Western Europe), and their cable consortium friends is not to be missed.

    The site itself is a pretty much vanilla data centre from the outside, appearing grey and anonymous—they could be crating cabbages in there for all you’d know. Inside, it’s RFID cards to move around the building and fingerprint readers to access the data centre areas, but first a cuppa and a chat in the boardroom. This isn’t your typical data centre, and some aspects need explaining. In particular, submarine cable systems have extraordinary power requirements, all supported by extensive backup facilities.

    [...] He brought with him some subsea cable samples to show how the design changes depending on the depth. The nearer to the surface you get, the more protection—armour—you need to withstand potential disturbances from shipping. Trenches are dug and cables buried in shallow waters coming up onto shore. At greater depths, though, areas such as the West European Basin, which is almost three miles from the surface, there’s no need for armour, as merchant shipping poses no threat at all to cables on the seabed. At these depths, cable diameter is just 17mm, akin to a marker pen encased by a thick polyethylene insulating sheath. A copper conductor surrounds multiple strands of steel wire that protect the optical fibres at the core, which are inside a steel tube less than 3mm in diameter and cushioned in thixotropic jelly. Armoured cables have the same arrangement internally but are clad with one or more layers of galvanised steel wire, which is wrapped around the entire cable.

    Without the copper conductor, you wouldn’t have a subsea cable. Fibre-optic technology is fast and seemingly capable of unlimited bandwidth, but it can’t cover long distances without a little help. Repeaters—effectively signal amplifiers—are required to boost the light transmission over the length of the fibre optic cable. This is easily achieved on land with local power, but on the ocean bed the amplifiers receive a DC voltage from the cable’s copper conductor. And where does that power come from? The cable landing sites at either end of the cable.

    Although the customers wouldn’t know it, TGN-A is actually two cables that take diverse paths to straddle the Atlantic. If one cable goes down, the other is there to ensure continuity. The alternative TGN-A lands at a different site some 70 miles (and three terrestrial amplifiers) away and receives its power from there, too. One of these transatlantic subsea cables has 148 amplifiers, while the other slightly longer route requires 149.

    Oui, il y a des répéteurs tous les 80 kilomètres environ. Source : http://shaarli.guiguishow.info/?9kAT1g


    [...]

    “To power the cable from this end, we’ve a positive voltage and in New Jersey there’s a negative voltage on the cable. We try and maintain the current—the voltage is free to find the resistance of the cable. It’s about 9,000V, and we share the voltage between the two ends. It’s called a dual-end feed, so we’re on about 4,500V each end. In normal conditions we could power the cable from here to New Jersey without any support from the US.”

    [...] Yet looking at the cable sample itself, with a mere eight strands of optical fibre inside, you can’t help but think that, for all the effort involved, there should be more. “The limitations are on the size of the amplifier. For eight fibre pairs you’d need twice the size of amplifier,” says John, and as the amplifier scales up, so does the need for power.

    At the landing site, the eight fibres that make up TGN-A exist as four pairs, each pair comprising a distinct send and receive fibre. The individual fibre strands are coloured, such that if it’s broken, and a repair needs to be done at sea, the technicians know how to splice it back together again. Similarly, those on land can identify what goes where when plugging into the Submarine Line Terminal Equipment

    [...] “Once the cable has been found and returned to the cable-repair ship, a new piece of undamaged cable is attached. The ROV [remotely operated vehicle] then returns to the seabed, finds the other end of the cable and makes the second join. It then uses a high-pressure water jet to bury the cable up to 1.5 metres under the seabed,” he says.

    “Repairs normally take around 10 days from the moment the cable repair ship is launched, with four to five days spent at the location of the break. Fortunately, such incidents are rare: Virgin Media has only had to deal with two in the past seven years.”

    [...]

    “Forward error correction is used to understand the signal that’s being sent, and modulation techniques have changed as the amount of traffic going down the signal has increased," says Osborne. [...]

    DWDM (Dense Wavelength Division Multiplexing) technology is used to combine the various data channels, and by transmitting these signals at different wavelengths—different coloured light within a specific spectrum—down the fibre optic cable, it effectively creates multiple virtual-fibre channels. In doing so the carrying capacity of the fibre is dramatically increased.

    One of the main issues affecting this application of photonics communications is the optical dispersion of the fibre. It’s something designers factor in to the cable construction, with some sections of fibre having positive dispersion qualities and others negative. And if you need to do a repair, you’ll have to be sure you have the correct dispersion cable type on board. [...]

    Vache. :O


    To the left of both boxes are power cables inside metal pipes.

    :O


    [...]

    The yellow fibre trunking snakes overhead to the racks that will perform various tasks, including demultiplexing the incoming signals to separate out different frequency bands. [...] “It depends what the client wants,” adds Osborne. “If they want a single 100G circuit that’s coming out of one of those boxes it can be handed over directly to the customer. If the customer wants a lower speed, then yes, it will have to be handed over to further equipment to split it up into lower speeds. There are clients who will buy a 100G direct link but not that many. A lower-tier ISP, for example, wanting to buy transmission capability from us, will opt for a 10G circuit. “The bulk of the transport on the cable is either used for our own Internet or is being sold as transport circuits to other Internet wholesale operators—the likes of BT, Verizon, and other international operators who don’t have their own subsea cables buy transport from us.”

    Tall distribution frames support a patchwork of optical cables that divvy up 10G connectivity for clients. If you fancy a capacity upgrade then it’s pretty much as simple as ordering the cards and stuffing them into the shelves—the term used to describe the arrangements in the large equipment chassis. John points out a customer’s existing 560Gbps system (based on 40G technology), which recently received an additional 1.6Tbps upgrade. The extra capacity was achieved by using two 800Gbps racks, both functioning on 100G technology for a total bandwidth of more than 2.1Tbps. As he talks about the task, one gets the impression that the lengthiest part of the process is waiting for the new cards to show up.

    All of Tata’s network infrastructure onsite is duplicated, so there are two of rooms SLT1 and SLT2. One Atlantic system internally referred to as S1 is on the left of SLT1, and the Western Europe Portugal cable referred to as C1 is on the right. And on the other side of the building there’s SLT2, with the Atlantic S2 system together with C2 connecting to Spain.


    Terrestrial room

    In a separate area nearby is the terrestrial room, which, among other tasks, handles traffic connections to Tata’s data centre in London. One of the transatlantic fibre pairs doesn’t actually drop at the landing site at all. It’s an “express pair” that continues straight to Tata's London premises from New Jersey to minimise latency. Talking of which, John looked up the latency of the two Atlantic cables; the shorter journey clocks up a round trip delay (RTD) of 66.5ms, while the longer route takes 66.9ms. So your data is travelling at around 437,295,816 mph. Fast enough for you?

    On this topic he describes the main issues: “Each time we convert from optical to electrical and then back to optical, this adds latency. With higher-quality optics and more powerful amplifiers, the need to regenerate the signal is minimised these days. Other factors involve the limitations on how much power can be sent down the subsea cables. Across the Atlantic, the signal remains optical over the complete path.”

    [...]

    To one side is a bench of test equipment and, as seeing is believing, one of the technicians plumbs a fibre-optic cable into an EXFO FTB-500. This is equipped with an FTB-5240S spectrum analyser module. The EXFO device itself runs on Windows XP Pro Embedded and features a touchscreen interface. After a fashion it boots up to reveal the installed modules. Select one and, from the list on the main menu, you choose a diagnostic routine to perform.

    Hahaha, winwin XP. :')


    [...]

    Never far from the heavy lifting in data communications, a Juniper MX960 universal edge router acts as the IP backbone here. In fact, there are two onsite confirms John: “We have the transatlantic stuff coming in and then we can drop STM-1 [Synchronous Transport Module, level 1], GigE, or 10GigE clients—so this will do some sort of multiplexing and drop the IP network to various customers.”

    The equipment used on the terrestrial DWDM platforms takes up far less space than the subsea cable system. Apparently, the ADVA FSP 3000 equipment is pretty much exactly the same thing as the Ciena 6500 kit, but because it’s terrestrial the quality of the electronics doesn’t have to be as robust In effect, the shelves of ADVA gear used are simply cheaper versions, as the distances involved are much shorter. With the subsea cable systems, the longer you go, the more noise is introduced, and so there’s a greater dependence on the Ciena photonics systems deployed at the landing site to compensate for that noise.

    One of the racks houses three separate DWDM systems. Two of them connect to London on separate cables (each via three amplifiers), and the other goes to a data centre in Buckinghamshire.

    [...]

    The power of nightmares

    You can’t visit a landing site or a data centre without noticing the need for power, not only for the racks but for the chillers: the cooling systems that ensure that servers and switches don’t overheat. And as the submarine cable landing site has unusual power requirements for its undersea repeaters, it has rather unusual backup systems, too.

    Enter one of the two battery rooms and instead of racks of Yuasa UPS support batteries—with a form factor not too far removed from what you’ll find in your car—the sight is more like a medical experiment. Huge lead-acid batteries in transparent tanks, looking like alien brains in jars, line the room. Maintenance-free with a life of 50 years, this array of 2V batteries amounts to 1600Ah, delivering a guaranteed four hours of autonomy.

    Battery chargers, which are basically the rectifiers, supply the float voltage so the batteries are maintained. They also supply the DC voltage to the building for the racks.

    Inside the room are two PFEs (Power Feed Equipment) all housed together within sizeable blue cabinets. One is powering the Atlantic S1 cable and the other is for Portugal C1. A digital display gives a reading of 4,100V at around 600mA for the Atlantic PFE and another shows just over 1,500V at around 650mA for the C1 PFE.

    John describes the configuration: “The PFE has two separate converters. Each converter has three power stages. Each one can supply 3,000V DC. So this one cabinet can actually supply the whole cable, so we have an n+1 redundancy, because there’re two onsite. However, it’s more like n+3, because if both convertors failed in New Jersey and a convertor here failed also, we could still feed the cable.”

    :O


    Revealing some rather convoluted switching arrangements, John explains the control system: “This is basically how we turn it on and off. If there is a cable fault, we have to work with the ship managing the repair. There are a whole load of procedures we have to go through to ensure it’s safe before the ship’s crew can work on it. Obviously, voltage that high is lethal, so we have to send power safety messages. We’ll send a notification that the cable is grounded and they’ll respond. It’s all interlocked so you can make sure it’s safe.”

    The site also has two 2MVA (megavolt-ampere) diesel generators. Of course, as everything’s duplicated, the second one is a backup. There are three huge chillers, too, but apparently they only need one. Once a month the generator backup is tested off load, and twice a year the whole building is run on load. As the site also doubles up as a data centre, it’s a requirement for SLAs and ISO accreditation.

    In a normal month, the electricity bill for the site comfortably reaches five figures.

    Pas mal. :D


    Datacenter

    At the Buckinghamshire data centre there are similar redundancy requirements, albeit on a different scale, with two giant collocation and managed hosting halls (S110 and S120), each occupying 10,000 square feet. Dark fibre connects S110 to London, while S120 connects to the west coast landing site. [...]

    [...]

    So we’ve got 400 locations with multiple devices which connect into one big network, which is one autonomous system. It provides IP, Internet, and point-to-point services to our customers. Because it has a mesh topology [400 interconnected devices]—any one connection will take a different route to the MPLS cloud. We also provide network services—on-net and off-net services. Service providers like Virgin Media and NetApp terminate their services into the building.”

    In the spacious Data Hall 110, Tata’s managed hosting and cloud services are on one side, with collocation customers on the other. Data Hall 120 is much the same. Some clients keep their racks in cages and restrict access to just their own personnel. By being here, they get space, power, and environment. All the racks have two supplies from A UPS and B UPS, by default. They each come via a different grid, taking alternative routes through the building.

    “So our fibre, which comes from the SLTE [ NDLR : la station d'atterisage / « landing site » du câble sous-marin ;) ] and London, terminates in here,” says Paul. Pointing out a rack of Ciena 6500 kit, he adds, “You might have seen equipment like this at the landing site. This is what takes the main dark fibre coming into the building and then it distributes it to the DWDM equipment. The dark fibre signals are divided into the different spectrums, and then it goes to the ADVA from where it’s distributed to the actual customers. We don’t allow customers to directly connect into our network, so all the network devices are terminated here. And from here we extend our connectivity to our customers.”

    A typical day for Paul and his remote-hands colleagues is more about the rack-and-stack process of bringing new customers on board and remote-hands tasks such as swapping out hard drives and SSDs. It doesn’t involve particularly in-depth troubleshooting. For instance, if a customer loses connectivity to any of their devices, his team is there for support and will check that the physical layer is functioning in terms of connectivity, and, if required, will change network adapters and suchlike to make sure a device or platform is reachable.

    He has noticed a few changes in recent years, though. Rack-and-stack servers that were 1U or 2U in size are being replaced by 8U or 9U chassis that can support a variety of different cards including blade servers. Consequently, the task of installing individual network servers is becoming a much less common request. In the last four or five years, there have been other changes, too.

    “At Tata, a lot of what it provides is HP and Dell—products we’re currently using for managed hosting and cloud setups. Earlier it used to be Sun as well but now we see very little of Sun. For storage and backup, we used to use NetApp as a standard product but now I see that EMC is also being used, and lately we’ve seen a lot of Hitachi storage. Also, a lot of customers are going for a dedicated storage backup solution rather than managed or shared storage.”

    [...]

    The NOC's NOC

    The layout in the NOC (network operations centre) area of the site is much the same as you’d find in any office, although the big TV screen and camera linking the UK office to the NOC staff in Chennai in India is a bit of surprise. It’s a network test of sorts, though: if that screen goes down, they both know there’s a problem. Here, it’s effectively level one support. The network is being monitored in New York, and the managed hosting is monitored in Chennai. So if anything serious does happen, these remote locations would know about it first.

    Haha la supervision de la connectivité avec un écran. :D


    George describes the setup: “Being an operations centre we have people calling in regarding problems. We support the top 50 customers—all top financial clients—and it’s a really high priority every time they have a problem. The network that we have is a shared infrastructure, so if there’s a major problem then a lot of customers may be impacted. We need to be able to update them in a timely fashion, if there’s an ongoing problem. We have commitment to some customers to update every hour, and for some it’s 30 minutes. In the critical incident scenario, we constantly update them during the lifetime of the incident. This support is 24/7.”

    Being an international cable system, the more typical problems are the same for communications providers everywhere: namely damage to terrestrial cables, most commonly at construction sites in less well-regulated territories. That and, of course, wayward anchors on the seabed. And then there are the DDoS (distributed denial-of-service) attacks, where systems are targeted and all available bandwidth is swamped by traffic. The team is, of course, well equipped to manage such threats.

    “The tools are set up in a way to monitor the usual traffic patterns of what is expected during that period during a day. It can examine 4pm last Thursday and then the same time today. If the monitoring detects anything unusual, it can proactively deal with an intrusion and reroute the traffic via a different firewall, which can filter out any intrusion. That’s proactive DDoS mitigation. The other is reactive, where the customer can tell us: 'OK I have a threat on this day. I want you to be on doubt.’ Even then, we can proactively do some filtering. There’s also legitimate activity that we will receive notification of, for example Glastonbury [ NDLR : un festival musical international réputé], so when the tickets go on sale, that high level of activity isn’t blocked.”

    Latency commitments have to be monitored proactively, too, for customers like Citrix, whose portfolio of virtualisation services and cloud applications will be sensitive to excessive networking delays. Another client that appreciates the need for speed is Formula One. Tata Communications handles the event networking infrastructure for all the teams and the various broadcasters.

    “We are responsible for the whole F1 ecosystem, including the race engineers who are on site and are also part of the team. We build a POP [point of presence] on every race site—installing it, extending all the cables and provisioning all the customers. We install different Wi-Fi Internet breakouts for the paddocks and everywhere else. The engineer on site does all the jobs, and he can show all the connectivity is working for the race day. We monitor it from here using PRTG software so we can check the status of the KPIs [key performance indicators]. We support it from here, 24/7.” Such an active client, which has regular fixtures throughout the year, means that the facilities management team must negotiate dates to test the backup systems. If it’s an F1 race week, then from Tuesday to the following Monday, these guys have to keep their hands in their pockets and not start testing circuits at the data centre. Even during the tour, when Paul pointed out the F1 equipment rack, he played safe and chose not to open up the cabinet to allow a closer look.

    Vache :O


    Oh, and if you’re curious about the backup facilities here, there are 360 batteries per UPS and there are eight UPSes. That’s more than 2,800 batteries, and as they’re all 32kg each, this amounts to around 96 tonnes in the building. The batteries have a 10-year lifespan, and they’re individually monitored for temperature, humidity, resistance, and current around the clock. At full load they’ll keep the data centre ticking over for around eight minutes, allowing plenty of time for the generators to kick in. On the day, the load was such that the batteries could keep everything running for a couple of hours.

    There are six generators—three per data centre hall. Each generator is rated to take the full load of the data centre, which is 1.6MVA. They produce 1,280kW each. The total coming into the site is 6MVA, which is probably enough power to run half the town. There is also a seventh generator that handles landlord services. The site stores about 8,000 litres of fuel, enough to last well over 24 hours at full load. At full fuel burn, 220 litres of diesel an hour is consumed, which, if it were a car travelling at 60mph, would notch up a meagre 1.24mpg—figures that make a Humvee seem like a Prius.

    [...]

    The last mile [ NDLR : entre les datacenters (dans lesquels sont installés les machines des FAI et des fournisseurs de services) et chaque habitation ]

    Inside Openreach's [ NDLR : filiale de l'opérateur historique monopolistique UK, BT. Cette filiale détient le réseau physique. ] new VDSL2 cabinets is a DSLAM (digital subscriber line access module, in BT parlance). In the case of older ADSL and ADSL2, DSLAM kit tends to be found farther away at the exchange, but its use in the street is to amplify the fibre-optic cable signal connected to the exchange to enable a broadband speed increase to the end user. Using tie pair cables, the mains-powered DSLAM cabinet is linked to the existing street cabinet, and this combination is described as a primary cross-connection point (PCP). The copper cabling to the end user’s premises remains unchanged, while VDSL2 is used to deliver the broadband connectivity to the premises from the conventional street cabinet.

    [...]

    It’s a far cry from Virgin Media’s HFC network, which currently has homes connected at 200Mbps and businesses at 300Mbps. Virgin Media uses fibre-optic cables to deliver its services to streetside cabinets, which distribute broadband and TV over a single copper coaxial cable (a twisted pair is still used for voice).

    It's also worth mentioning that DOCSIS 3.0 is the leading last-mile network tech over in the US, with about 55 million out of 90 million fixed-line broadband connections using coaxial cable. ADSL is in second place with about 20 million and then FTTP with about 10 million. Hard numbers for VDSL2 deployment in the US are hard to come by, but it appears to be used sporadically in some urban areas.

    Ok, FTTP, c'est le terme pour englober toutes les technos fibres qui arrivent en fibre jusqu'à l'abonné (FTTH, FTTB, etc.). Ok, donc Virgin déploie du FTTC (comme le FTTLA mais l'armoire de rue est plus proche des abonné-e-s. :- Je pense que l'équivalent français est de la fibre jusqu'aux sous-répartiteurs) et Openreach fait du VDSL2, de la montée en débit sur suivre, en somme.


    There's still plenty of headroom with DOCSIS 3 that will allow cable ISPs to offer downstream connection speeds of 400, 500, or 600Mbps as needed—and then after that there'll be DOCSIS 3.1 waiting in the wings. [...] The DOCSIS 3.1 spec suggests more than 10Gbps is possible downstream and eventually 1Gbps upstream. These capacities are made possible by the use of quadrature amplitude modulation techniques—the same as used on short-distance submarine cables.

    [...]

    [...) we’d be remiss if we completely ignored the other side of the last-mile (or last-100m) equation: mobile devices and wireless connectivity.

    Case in point: the recent emergence of almost blanket Wi-Fi hotspot coverage in urban areas. First it was a few plucky cafes and pubs, and then BT turned its customers’ routers into open Wi-Fi hotspots with its "BT with Fon" service. Now we’re moving into major infrastructure plays, such as Wi-Fi across the London Underground and Virgin’s curious “smart pavement” in Chesham, Buckinghamshire. For this project, Virgin Media basically put a bunch of Wi-Fi access points beneath manhole covers made of specially made radio-transparent resin. Virgin maintains a large network of ducts and cabinets across the UK that are connected to the Internet—so why not add a few Wi-Fi access points to share that connectivity with the public?

    [...]

    “The biggest issue tends to be challenging conventional thinking. For example, traditional wireless projects involve mounting a radio as high as permission allows and radiating with as much power as regulations permit. What we tried to do was put a radio under the ground and work within the allowed power levels of traditional in home Wi-Fi," he says.

    [...]

    [...] future of wired Internet

    The next thing on the horizon for Openreach’s POTS network is G.fast, which is best described as an FTTdp (fibre to distribution point) configuration. Again, this is a fibre-to-copper arrangement, but the DSLAM will be placed even closer to the premises, up telegraph poles and under pavements, with a conventional copper twisted pair for the last few tens of metres.

    The idea is to get the fibre as close to the customer as possible, while at the same time minimising the length of copper, theoretically enabling connection speeds of anywhere from 500Mbps to 800Mbps. G.fast operates over a much broader frequency spectrum than VDSL2, so longer cable lengths have more impact on its efficiency. However, there has been some doubt whether BT Openreach will be optimising speeds in this way as, for reasons of cost, it could well retreat to the green cabinet to deliver these services and take a hit on speed, which would slide down to 300Mbps.

    [...]

    The last few years have also been exciting for smaller, independent players such as Hyperoptic and Gigaclear, which are rolling out their own fibre infrastructure. Their footprints are still hyper-focused on a few thousand inner-city apartment blocks (Hyperoptic) and rural villages (Gigaclear), but increased competition and investment in infrastructure is never a bad thing.

    Mon Sep 26 14:06:48 2016 - permalink -
    - http://arstechnica.com/information-technology/2016/05/how-the-internet-works-submarine-cables-data-centres-last-mile/
  • Suisse: "oui" massif à la surveillance électronique par les services secrets - 25/09/2016 - ladepeche.fr

    Ce moment où la Suisse suit la France dans sa folie et ses conneries…


    Les Suisses ont massivement répondu "oui" dimanche par référendum à une loi autorisant les services secrets à surveiller les communications téléphoniques et les activités sur internet pour notamment déjouer les nouvelles menaces terroristes. Selon les résultats définitifs, deux tiers (65,5%) des électeurs ont accepté cette nouvelle loi sur le renseignement, [...]

    En revanche, ils sont 59,4% à avoir dit "non" à une hausse des retraites dont le gouvernement avait souligné la charge financière très élevée qu'elle représentait. Ils ont aussi rejeté à 63,6% une initiative populaire défendue par les Verts qui demandaient une réduction de la consommation des ressources naturelles. [...]

    Oui, la solidarité et la planète, on s'en fout, après tout, il faut empêcher les terroristes…


    [...]

    La Suisse n'est "pas une cible, mais elle peut être une base arrière ou logistique ou financière pour ces terroristes", a fait valoir sur le plateau de la télévision suisse publique RTS le vice-président du Parti démocrate-chrétien (PDC), Yannick Buttet.

    Ha, y'a même pas de terroristes ? « base arrière financière ». Genre les Suisses vont renoncer à l'argent sale. Hahahahaha, trolololololo.


    [...]

    Au cours de la campagne, les opposants à la loi avaient aussi rappelé le "scandale des fiches" qui avait défrayé la chronique en 1989 lorsque les Suisses avaient appris avec stupeur que 900.000 d'entre eux étaient fichés par la police en fonction de leurs opinions politiques, syndicales et autres.

    Oui bah regarde les français-e-s ont bien oublié les écoutes de l'Élysée (première partie des années 80) et même l'affaire des fadettes (2011) donc bon…


    [...]

    Les autorités suisses sont toutefois aussi parvenues à convaincre les électeurs que seuls une dizaine de cas par an seraient concernés par la nouvelle loi "au vu de la situation actuelle en matière de menace".

    Trolololololololololololo. L'état d'urgence français devait aussi être ciblé… Et finalement perquisitions à gogo, assignation à résidence à gogo, interdictions de rassemblement, tout ça pour toutes autres choses que du terrorisme.


    Elles ont aussi souligné que les mesures devraient à chaque fois donner lieu à un feu vert du Tribunal administratif fédéral et du ministre suisse de la Défense.

    Oui, oui, le bon vieux juge administratif. :)))) On se souvient bien de son incapacité à défendre les libertés durant l'état d'urgence.


    Les services secrets suisses pourront désormais, si la gravité d'une menace concrète le justifie, surveiller de façon préventive les envois postaux et les communications téléphoniques de particuliers ainsi que leurs activités sur internet, s'infiltrer dans des réseaux informatiques et procéder à des fouilles de locaux, de véhicules ou de bagages notamment. Ils pourront aussi intercepter toutes les communications internationales qui transitent par la Suisse via le réseau câblé et perturber l'accès aux informations sur les réseaux informatiques à condition que ces systèmes soient utilisés dans des attaques visant des infrastructures sensibles.



    Autre source : http://www.24heures.ch/front/storybundle/Des-services-mieux-armes-et-mieux-surveilles/story/30464691

    Avec la nouvelle loi sur le renseignement, les agents du SRC pourront surveiller des communications (courrier, téléphone, courriel), observer des faits dans des lieux privés, si nécessaire en installant des micros ou de caméras, ou perquisitionner secrètement des systèmes informatiques et y installer des «chevaux de Troie».

    [...]

    Les recherches seront soumises à une autorisation limitée dans le temps. Elles nécessiteront l'aval du Tribunal administratif fédéral (TAF), puis du chef du Département fédéral de la défense, qui devra consulter ses collègues de justice et police (DFJP) et des affaires étrangères (DFAE). Les cas d'importance particulière pourront être présentés au Conseil fédéral.

    S'il y a urgence, le SRC pourra demander le feu vert a posteriori. A la fin de toute opération, la personne surveillée devra en être informée, sauf si des intérêts publics prépondérants s'y opposent ou si la protection de tiers est compromise.

    [...]

    Le développement de l'arsenal du SRC s'accompagne d'un nouveau dispositif de surveillance. Une autorité indépendante sera créée. Le chef de ce nouvel organe sera nommé par le Conseil fédéral. A plus long terme, le Service de renseignement pourrait même être surveillé par une instance extérieure à l'administration. D'autres organes seront à pied d'oeuvre: Délégation des commissions de gestion du Parlement, Délégation des finances, Département de la défense et Conseil fédéral. Une instance autonome s'ajoutera pour examiner l'exploration radio et d'Internet.



    Autre source : http://www.24heures.ch/suisse/peuple-dirait-oui-loi-renseignement/story/15089504

    La palme du soutien à la nouvelle loi vient de Vaud, où plusieurs personnalités de gauche se sont mobilisées en faveur du texte. Le «oui» a atteint 74,2%. Suivent Nidwald avec 70.1% et Zoug avec 69,2%.

    Bâle-Ville, qui a connu une affaire de fichage il y a quelques années, est en revanche le canton le plus réfractaire à renforcer les moyens donnés au SRC. Il n'a donné son aval qu'à 55%. Schaffhouse a accepté la loi par 60,5% et Appenzell Rhodes-Extérieures par 61,3%.



    Via https://twitter.com/aeris22/status/780076119642996737

    Sun Sep 25 19:04:43 2016 - permalink -
    - http://www.ladepeche.fr/article/2016/09/25/2426073-suisses-votent-contre-nouvelle-loi-renseignement.html
  • Migrer mon blog vers un générateur de sites web statiques ?

    En 2015, plusieurs personnes ont fait du lobbying ( :D ) pour que je migre mon blog, un WordPress, vers un générateur de sites web statiques. Je m'étais mis ça de côté dans ma TODO. Je viens de prendre le temps de m'intéresser à la question.


    Pourquoi migrer ?

    • WordPress est un CMS complet, avec des tonnes de fonctionnalités dont je ne me sers pas. C'est relou de mettre à jour un truc dont je ne me sers pas pour avoir des nouvelles fonctionnalités dont je ne me servirai pas. Dans le mois qui suit la sortie d'une nouvelle version, il y a une faille de sécurité qui touche toutes les anciennes versions… Pleaaaase. Notons que depuis 2015, j'ai stocké l'enchaînement de commandes que j'utilise pour mettre à jour dans un fichier texte et je pourrais envisager de créer un script sans trop de problèmes. Quoi qu'il en soit, le temps nécessaire pour mettre à jour mon WordPress a diminué ces derniers temps.

    • En 2015, je trouvais l'idée séduisante car les commentaires de mon blog étaient alors envahis par le spam. Genre mon anti-spam (Spam Karma) laissait quasiment tout passer et je devais nettoyer les commentaires très régulièrement pour ne pas avoir de merde publiée sur mon blog et ne pas voir la taille de ma sauvegarde de la base de données grossir démesurément. En avril 2016, je me rendais compte que cette inefficacité était dû au passage à PHP 5.6.X dans Debian Jessie qui met l'extension MySQL au placard au profit de PDO, ce qui fait que la fonction mysql_real_escape_string(), utilisée par mon antispam, n'est plus disponible. Voir http://shaarli.guiguishow.info/?1_-YHw


    Contrainte

    La seule contrainte que je me suis fixée est la suivante : toutes les URL existantes doivent fonctionner après la migration. Toutes. Simplement parce que les URL cools / sympas ne changent jamais. Pérennité de l'information et du moyen d'y accéder, tout ça.

    Évidemment, je souhaiterai aussi que les liens de mes tables des matières, qui pointent sur les sous-titres de mes billets, continuent aussi à fonctionner. Si ce n'est pas le cas, c'est ennuyeux mais ce n'est pas dramatique : l'utilisateur-rice atterrira quand même sur la bonne page web, juste il-elle ne sera pas propulsé-e au bon endroit dans le contenu de la page, c'est moins grave.


    Continuer à publier sur mon blog ?

    Cette question est importante. Si je décide que je ne veux plus publier sur mon blog, alors c'est simple : je dégaine wget ou httrack et je crée une copie statique de mon blog et c'est cette copie que je publie. Pas besoin d'un nouveau moteur de blog, même statique. Si je veux pouvoir ajouter des articles sur mon blog, alors oui, une migration vers un autre outil semble plus appropriée.

    Je souhaite publier occasionnellement des articles sur mon blog. Le format shaarli + markdown n'est pas forcément le plus adapté. L'audience n'est pas non plus la même.


    Quel générateur de site statique utiliser ?

    Des générateurs de sites statiques, il en existe plusieurs centaines.

    Mes critères de choix (liste ordonnée) : logiciel libre, pas écrit dans un langage de kikoo / inadapté (JavaScript / Node.js, Java, Go, Erlang, C/C++, Haskell, etc.), importation possible depuis WordPress, une bonne documentation et une communauté d'utilisateur-rice-s.

    Avec ces critères, les logiciels suivants émergent du lot : Jekyll (Ruby), Octopress (basé sur Jekyll) et Pelican (Python). Je note aussi Lektor qui propose une interface d'admin en Node.js pour créer / modifier / supprimer les pages. Je connaissais aussi ikiwiki, codé en Perl, plus adapté pour les wikis, comme son nom l'indique.

    J'ai choisi Pelican. Parce que je sais coder en Python et que je connais (un peu) Jinja2 (moteur de template) depuis que j'utilise ansible. Au cas où j'aurais besoin de mettre les mains dans le cambouis. Et un peu aussi parce que 2 des 3 lobbyistes qui m'ont invité à migrer mon blog utilisent Pelican (oui, effet de prescription, oui, je suis un mouton).


    Pourquoi ne pas migrer ?

    Avant de migrer, j'ai voulu me faire une liste de tout ce qui pourrait foirer. J'imagine que ça pourra servir à d'autres donc voici une petite liste non-exhaustive des problèmes potentiels que j'ai identifiés (liste ordonnée, du moins relou / problématique au plus problématique) :

    • Est-ce qu'une migration vers Pelican me permet de virer des softs ? Non, j'ai toujours besoin de PHP pour shaarli et j'ai toujours besoin de MySQL pour Tiny Tiny RSS. J'ai testé beaucoup d'agrégateurs RSS (voir http://www.guiguishow.info/2011/08/07/agregateur-rss/ et http://www.guiguishow.info/2013/03/18/passer-de-newsfox-a-kriss-feed/ ) avant d'en trouver un qui fait le job que j'attends de lui donc il est exclu que j'en change. Shaarli me convient très bien donc il ne dégagera pas. Bon, virer WordPress permet déjà d'avoir moins de code sur le serveur donc ça restreint fortement la surface d'attaque.

    • Est-ce que ça me débarrasse de WordPress ? Hé bah non, car j'administre d'autres WordPress. Genre association, tout ça. Bon, OK, ça ne sera bientôt plus le cas mais still…

    • Pelican prend en charge trois formats pour rédiger le contenu : asciiDoc, reStructuredText et markdown. Je suis habitué à utiliser markdown pour créer mes slides Beamer et pour mettre en forme mes shaarlis. Donc ça va, il n'y a pas une barrière supplémentaire à l'entrée.

    • Ma plus grande crainte était d'avoir des URL différentes. Mais en fait, non. Genre, pour avoir le même format « /année/mois/jour/titre/ » que mon WordPress, ça se dit comme cela dans pelicanconf.py ( voir http://docs.getpelican.com/en/3.6.3/settings.html ) :

      ARTICLE_URL = '{date:%Y}/{date:%m}/{date:%d}/{slug}/'
      ARTICLE_SAVE_AS = '{date:%Y}/{date:%m}/{date:%d}/{slug}/index.html'

    Même chose pour les pages, les archives, les catégories, etc.

    • L'absence de PHP signifie l'absence de commentaires. Pourtant, des personnes ont écrit d'excellents commentaires sur mon blog. Je trouve que supprimer (ne pas importer) les commentaires, c'est un manque d'éthique ou de politesse ou de je ne sais quoi : ces personnes ont fait l'effort d'écrire et m'ont appris des trucs. Bien sûr, dans les articles correspondant, j'ai mentionné les commentaires intéressants mais je n'ai pas forcément intégré lesdits commentaires au billet. Des infos intéressantes seraient donc perdues dans la migration. Je trouve ça dommage. Évidement, il est hors de question que j'utilise un service externe genre Disqus. Visiblement, il existe des solutions. Soit en utilisant une base sqlite (lol, site statique, tout çà) comme isso et d'autres. Soit avec du mail dedans ( https://github.com/getpelican/pelican-plugins/tree/master/pelican_comment_system ). Ce deuxième système a la classe. \o/ Pour importer les commentaires WordPress dedans : https://gist.github.com/tiramiseb/048db9c21c3fac8a44fd76cddaa17834 .

    • Il faut que je retrouve un thème sombre, extensible et qui utilise un maximum la place qu'on a sur nos écrans (pas centré sur 400 pixels comme mon blog actuel, car c'est ridicule). Et rien que ça, ça va être une plaie. Et comme l'existant ne me conviendra pas, il faudra forcément que je le modifie. J'ai autre chose à faire, sérieux. :-

    • Mon blog et mon shaarli sont entremêlés : des contenus pointés par mon shaarli sont stockés dans mon /wp-content/uploads. Oui, on évite de lier deux machines ou deux logiciels entre eux, règle de base. De la même manière, du contenu hébergé dans /wp-content/uploads n'a pas vraiment de lien, ni avec mon blog, ni sur ce shaarli. Exemple : les vidéos des journées FédéRez 2013. Là encore, cette organisation est stupide : j'aurai dû créer un autre virtualhost avec un autre domaine (genre datalove.guiguishow). Rien d'irréparable, juste il faut faire le ménage et écrire les redirections qui vont bien sachant que, puisqu'on est entre virtualhosts, il faut gérer http/https et ne pas rediriger bêtement tout en http ou tout en https.

    • L'absence de PHP signifie l'absence d'un champ de recherche. Or, c'est clairement la fonctionnalité que j'utilise le plus pour retrouver ce que j'ai écrit, pour retrouver des commandes, etc. Hors de question d'être dépendant d'un service externe et encore moins de Google. Visiblement, il existe un plugin avec du JSON et du jQuery dedans pour faie le job : http://moparx.com/2014/04/adding-search-capabilities-within-your-pelican-powered-site-using-tipue-search/ . Remplacer PHP par une bouse bien lourde en JavaScript, j'aime le concept… Ou pas. Utiliser YaCy ?

    • L'import depuis WordPress ne sera pas parfait, il suffit de lire des témoignages pour le vérifier : http://jonathan.michalon.eu/passage-a-pelican.html ou http://blog.jasonantman.com/2014/02/converting-wordpress-posts-to-pelican-markdown/ . J'ai testé et j'ai constaté les problèmes suivants :

      • Le nom d'auteur importé est le login dans WordPress, pas le nom de plume (oui, WordPress peut séparer les deux). Un coup de sed peut être nécessaire ;

      • Certains caractères comme « < », « > » sont échappés dans le markdown, lors de l'import. Il n'y a rien dans l'export XML WordPress, c'est vraiment Pandoc qui ajoute l'échappement durant l'import. Il faut les identifier et les sed ;

      • Sur mon WordPress, la table des matières de chaque article est créee dynamiquement par une extension (Table of Contents Generator codée par Scott Yang). Donc forcément, les tables des matières ne sont pas exportées par WordPress. Il faut donc les refaire à la mimine ou prévoir de se coder un script. ÉDIT DU 25/09/2016 À 21H05 : ou utiliser https://github.com/getpelican/pelican-plugins/tree/master/extract_toc FIN DE L'ÉDIT ;

      • Il faut importer soi-même les images car l'importateur se contente de faire un lien vers l'existant. De même, les légendes sont importées avec leur style CSS qui, du coup, fait partie de la nouvelle légence (genre « [caption id="attachment_36' class="aligncenter" width="300" caption="ma légende"] ». Pour corriger les légendes, il faudra forcément utiliser des regex look-behind. Pour l'import des images, c'est tout à la mimine. Dans mon cas, on parle d'environ 300 images, hein ;

      • Tous les liens sur des images (afin de les voir en grand) sont en http uniquement et sont des liens absolus… C'est comme cela que WordPress les stocke. Sur mon blog, j'ai un plugin pour réécrire les liens en https quand l'utilisateur se ramène en https : Content over SSL. Avec Pelican, j'imagine qu'il doit y avoir une syntaxe Apache pour arriver au même résultat ;

      • De la même manière, il faut corriger les liens internes genre ceux qui pointent vers wp-content/uploads puisque ce dossier a vocation à disparaître après la migration ;

      • Pelican ne supporte pas le multi-catégories : chaque article a une seule catégorie et des tags. Voir https://github.com/getpelican/pelican/issues/350 . Du coup, l'importateur fusionne toutes les catégories d'un même article en une seule genre un article dans les catégories nommées « divers » et « humeur » se retrouve dans une catégorie nommée « divers-humeur ». Forcément, cela fait exploser le nombre de catégories et ruine l'effet même des catégories puisque chaque article se retrouve dans une catégorie au lieu d'une union de catégories.

      • Sur mon WordPress, pour mettre en valeur les bouts de code et les commandes et pour faire de la coloration syntaxique, j'utilise l'extension wp-syntax. Sauf que cette extension prend un temps colossal à parser dynamiquement les articles. Du coup, pour chaque nouveau billet, je copie le code html qu'elle génère (« <div class="wp_syntax"><pre lang="langage">mon merveilleux code ici</pre></div> ») directement dans le billet puis je désactive l'extension. Forcément, ça ne marche plus suite à l'importation : le code est isolé dans le markdown. Il faut jouer avec des regex (et des regex capturantes) pour corriger tout ça et positionner les délimiteurs attendus ( voir http://docs.getpelican.com/en/3.6.3/content.html#syntax-highlighting ). Bref, y'a de quoi bien se prendre la tête. :S

      • Sans compter d'autres mauvaises surprises. Relire 138 articles dont la plupart sont des pavés, ça prendra forcément beaucoup de temps.



    Vu tous ces points, on se rend compte que la migration depuis WordPress va nécessiter beaucoup de travail, notamment l'import depuis WP, la personnalisation du thème et l'installation d'un moteur de recherche. Une mise à jour de WordPress me prend 5 minutes montre en main (+ 5 minutes supplémentaires le temps de basher WordPress sur IRC :P ). Une faille de sécurité WordPress est tombée en moyenne tous les 2 mois sur la dernière année. Il me faut donc 5 minutes tous les 2 mois soit 30 minutes par an. La question devient donc : combien de mises à jour de WordPress faudrait-il avant que le passage à Pelican soit rentabilisé ? On sent bien qu'on est sur plusieurs années d'équivalence.


    Notes diverses sur Pelican

    • ÉDIT DU 25/09/2016 À 21H10 : y'a un article sympa sur Pelican dans GNU/Linux magazine France numéro 184. FIN DE L'ÉDIT.

    • Avec jessie-backports, l'installation se résume à : apt-get installl python-ps4 python-lxml pandoc pelican

    • Importer depuis Wordpress au format markdown :
      • Dans l'interface d'admin WordPress : « Outils » -> « Exporter », laisser cocher « Tout le contenu » -> « Télécharger le fichier d'export ». Source : http://marieguillaumet.com/exporter-et-importer-wordpress-quelques-astuces/

      • pelican-quickstart puis cd dans le dossier de votre nouveau blog puis pelican-import --wpfile ../export.xml -m markdown -o content [--dir-page --dir-cat] . Attention : si votre blog contient de bon gros pavés, il faudra pas mal de RAM pour effectuer la conversion. Genre 512M de RAM ne suffisent pas pour convertir mon blog, pandoc se fait tuer par l'OOM-killer de Linux.

      • make html pour générer localement votre blog. make serve pour lancer un serveur web minimaliste local et accéder à votre blog via localhost:8000 . Il est tout à fait possible de make html pendant qu'un make serve est en cours de fonctionnement.

      • pelicanconf.py : définir les paramètres à utiliser pour générer la copie locale, votre site web de dev'. publishconf.py : la même mais pour le site web de prod'.



    En résumé, j'ai creusé (un peu) le monde des générateurs de sites web statiques et j'ai approfondi Pelican. Mais, je ne migrerai pas mon blog existant car cela représente trop de travail pour assurer la qualité de l'import.

    Sun Sep 25 16:25:02 2016 - permalink -
    - http://shaarli.guiguishow.info/?ahX0EA
  • YaCy - Le logiciel libre moteur de recherche [ Mon avis sur YaCy ]

    Ça fait plusieurs années que j'avais envie de tester YaCy. C'est désormais chose faite. \o/

    YaCy est un moteur de recherche pour le web (attention, y'a d'autres types de moteurs de recherche genre indexation de fichiers). Pas un proxy devant Google comme l'était StartPage (devenu depuis un métamoteur de recherche, apparemment) ou le défunt Scroogle. Pas un métamoteur qui agrège les résultats d'autres moteurs existants comme Seeks ou Searx. YaCy fait tout lui-même : parcourir (crawler) le web, indexer les contenus, chercher dans l'index.

    Mieux que ça, YaCy fonctionne en pair à pair : chaque ordinateur sur lequel il est installé rejoint un même réseau et contribue à stocker une partie de l'index commun voire il parcourt le web pour le remplir. Le seul bout de point central que j'ai identifié à première vue, c'est que le code du soft contient l'adresse de quelques serveurs qui seront contactés au démarrage de l'instance YaCy pour récupérer rapidement une liste (incomplète, imparfaite, etc.) de nœuds YaCy. Car l'initialisation avec seulement la DHT, ça prend du temps. Un peu comme les trackers BitTorrent qui existent par commodité. Ils ne sont ni indispensables ni immuables.

    Du coup, on retrouve les caractéristiques désirables habituelles : logiciel libre, sous le contrôle de l'utilisateur, P2P, pas censurable, etc.

    Notons que la participation au réseau P2P est facultative : YaCy peut servir à indexer, en privé, un intranet. YaCy peut servir à proposer un moteur de recherche sur votre site web personnel en lieu et place d'un "applet" qui lance un « site:monsite.exemple mot-clé_saisi » sur Google.

    Les bons points

    • Y'a un dépôt Debian. \o/

    • Toute la machinerie P2P est impressionnante. Même chose pour le parcours du web : ça juste fonctionne, c'est bluffant.

    • L'interface web d'administration est, là aussi, impressionnante avec des graphes de conso, un rapport d'activité temps réel, une cartographie du réseau et des pairs, des graphes de relations entre les sites web, etc. Les informations de debug sont peut-être un peu too much, j'vais y revenir.

    • Il est possible d'indexer un site web à partir de son flux RSS. Et YaCy peut le consulter régulièrement pour indexer tout seul les nouveautés. Je trouve ça cool.

    • YaCy peut aussi être utilisé en proxy HTTP. Ainsi, il parcourt tous les sites web que vous consultez sauf ceux avec des variables GET et POST et ceux… en https. Autant dire que ça n'a plus grand intérêt aujourd'hui et encore moins si vous utilisez l'extension HTTPS everywhere de l'EFF. Mais l'idée est intéressante. Note : pour que le mode proxy fonctionne, il faut configurer votre navigateur et activer le mode proxy transparent dans l'interface d'admin de YaCy, « System Administration » -> « Proxy Access Settings ». Sinon, chaque site web vous ramènera à votre portail YaCy.


    Les mauvais points

    • Comme la plupart des applis en Java (on retrouve ça avec Kafka, Storm ou Zookeeper, par exemple), la verbosité est mal configurée par défaut, ce qui fait que YaCy consigne absolument tout dans ses logs : quel pair lui dit bonjour, envoi/réception de fragments de DHT, etc. Bref, ça bourrine bien le support de stockage. Et il n'y a aucune option dans l'interface web pour changer ce comportement. Ma méthode :

      sudo sed -i 's/INFO/WARNING/' /var/lib/yacy/LOG/yacy.logging
      sudo systemctl restart yacy


    • Lors de la première connexion à l'interface web d'administration de YaCy, l'installation basique vous informera que votre port n'est pas ouvert. Il faut ouvrir le port tcp/8090, en IPv4 et en IPv6. Attention : la vérification de la bonne ouverture des ports se fait en demandant à des pairs du réseau YaCy dont ça prend un peu de temps avant de vous informer que le port est bien ouvert. Méthode de bourrin pour aller plus vite : soit configurer votre pare-feu avant le premier démarrage de YaCy, soit redémarrer YaCy. :D

    • YaCy fonctionne encore majoritairement en IPv4. C'est cette adresse qui est diffusée dans le réseau, celle qui est présentée comme adresse principale. Aucune option pour changer cela. J'ai aussi tenté un « -Djava.net.preferIPv6Stack=true » trouvé sur les forums, sans succès.

    • Entre le mode crawler, le mode proxy, le mode extranet, site web, etc., il faut bien reconnaître que YaCy est complexe et monolithique (tout dans le même jar).


    Les points rédhibitoires

    • La grande force de Google Search, c'est la pertinence des résultats retournés. Or, il faut bien reconnaître que YaCy touche le fond. J'ai l'impression d'être revenu à Altavista et Voila que j'ai connu avant Google. Je pense que le travail de YaCy doit se concentrer sur ça. J'ai bien noté l'existence de sortes de "dicos de synonymes" pour enrichir l'index et permettre à YaCy de "comprendre" que tels mots sont des villes (et du coup d'afficher des cartes et des résultats plus pertinents), que tels mots sont des systèmes GNU/Linux, etc. Bref, donner du sens aux requêtes, ne pas être terre-à-terre, mot pour mot. Y'a tout un travail colossal autour de ça. Mais on est vraiment loooooin derrière les moteurs de recherche d'aujourd'hui : taper « Google » ne conduit pas à des résultats comportant google.(fr|com), même chose pour Amazon. « gouvernement français » ne conduit ni à des résultats Wikipedia (pourtant indexés ! ), ni aux sites web officiels de la République. :D

    • L'aspect qui me dérange le plus d'un point de vue éthique, c'est que YaCy journalise énormément de choses : les pairs en contact (est-ce que ce pair a juste dit bonjour ou est-ce qu'il a effectué une recherche (le contenu de la recherche n'est pas loggé), etc.), les dates de modification de la conf', les performances de chaque partie du soft, mais aussi les recherches effectuées en local ou via l'API de recherche à distance. Alors oui, c'est stocké uniquement pour la durée d'exécution de YaCy mais c'est extrêmement discutable : je ne veux pas d'un Google-like, même si c'est sur ma machine. Une faille de sécurité et ça peut fuiter, par exemple. Le contenu d'une recherche ne doit pas être stocké. Je n'ai pas trouvé comment désactiver cette fonctionnalité déplaisante.


    Notes diverses

    • Quelques comportements difffèrent de ceux de Google :

      • Toutes les URL qui pointent vers une même page (http, https, ID inexistant qui ramène à la page principale, etc.) sont conservées et affichées lors d'une recherche.

      • Dans les résultats de recherche, la date affichée sous un résultat n'est pas celle à laquelle le contenu a été publié/modifié (ou prétend l'avoir été) mais la date de la dernière consultation de la page par le réseau YaCy.

      • Les résultats peuvent fluctuer rapidement. Exemple : vous lancez une recherche, vous ne trouvez rien sur la première page des résultats donc vous allez en page 2 et pouf, l'ordre des résultats sur la page 1 a totalement changé. Exemple non exhaustif, d'autres usages mettent aussi cela en évidence. Simplement parce que YaCy a reçu des résultats depuis le réseau P2P après avoir affiché les résultats contenus dans les premières réponses. Évidemment, c'est dû à la nature du compromis entre la vitesse d'affichage désirée des résultats et la nature chaotique des réseaux P2P (un pair ne répond plus ou pas assez vite), mais ça peut être déroutant.
    • Dans les résultats d'une recherche, je n'ai pas compris comment fonctionnent les boutons « recommander » / « supprimer ». Ça n'influe pas durablement (entre deux recherches successives des mêmes termes) l'ordre ou la présence des résultats. :/ C'est peut-être réservé au mode intranet / moteur de recherche pour un site web donné ?

    • Tout nœud YaCy est amené à stocker une petite partie de la DHT. Cela se fait en arrière-plan ainsi que lors des recherches, ce qui fait qu'un contenu ajouté dans l'index global par une machine n'est pas perdu lorsque cette machine disparaît du réseau YaCy. Testé et approuvé : 2 mois après le départ de ma machine du réseau YaCy, le contenu original qu'elle avait ajouté à l'index est encore présent. Chaque machine participante au réseau est aussi amenée à publier sa liste de pairs, ce qui permet de l'utiliser comme point d'entrée dans le réseau.

    • Le « .yacy » n'est pas un TLD au sens ordinaire du DNS, il n'y a pas de serveurs qui font autorité dessus. Pour les utiliser (genre nom_de_mon_nœud.yacy), il faut configurer votre navigateur pour utiliser votre instance YaCy comme un proxy HTTP (localhost:8090). Voir https://web.archive.org/web/20130325194934/http://yacy-forum.org/viewtopic.php?f=2&t=255 (oui, le forum a changé d'URL, c'pour ça que j'utilise archive.org).

    • La section « Index Deletion » de l'interface d'administration peut faire peur genre on peut croire à une possibilité de censure ou, en tout cas, à une possibilité pour quelqu'un qui a apporté du contenu au réseau, de le retirer, de gré ou de force. D'après mes tests, dans le mode "freeworld" (participation au réseau P2P YaCy), la suppression a bien lieu dans l'index local mais elle n'est pas propagée dans le réseau. Donc un résultat de recherche est ajouté à nouveau dans l'index à la prochaine recherche, quand le réseau sera a nouveau consulté. Je pense que cette fonctionnalité est utile dans les modes intranet / recherche privée.

    • Malgré ce que le projet raconte dans sa FAQ ( http://www.yacy-websearch.net/wiki/index.php/En:FAQ ), je pense qu'il faut prendre les devants et héberger des instances YaCy mutualisées, ce qui rendra le flicage inopérant.

    • Truc rigolo : YaCy peine vraiment à analyser la structure d'un shaarli et ne parvient pas à récupérer le permalink : il y ajoute toujours un « = » final, ce qui ruine forcément la validité de l'URL. :-



    En résumé : je suis plutôt impressionné par la masse de taff abattue, par le fonctionnement P2P mais la pertinence des résultats rend un usage au quotidien vraiment difficile à envisager. Le problème, ce n'est pas de crawler toujours plus de contenus puisque même avec du bon contenu indexé, les résultats ne sont pas pertinents. Le problème c'est l'algo de construction et d'enrichissement de l'index et de tri des résultats. N'est pas Google qui veut. :(

    Fri Sep 23 20:10:24 2016 - permalink -
    - http://yacy.net/fr/index.html
  • xkcd: Datacenter Scale

    Héhé :)

    Jeter un disque défaillant ? Nan jeter toute la machine. Nan, jeter toute la baie. Nan, remplacer toute la salle. Nan, tout le datacenter.

    Fri Sep 23 11:14:42 2016 - permalink -
    - https://xkcd.com/1737/
  • Pale Moon — Wikipédia

    Pale Moon est un navigateur web open source dérivé de Mozilla Firefox. Il dérivait à l'origine de celui-ci en proposant des optimisations de compilation pour améliorer les performances, mais s'en détache depuis progressivement en réintroduisant des fonctions retirées par Mozilla comme la barre d'état et en refusant d'adopter des changements introduits en vue de la nouvelle interface dite Australis ou les DRM HTML5, au point de pouvoir être qualifié de fork.

    Suite à mon avis sur IceCat, Dudorino ( http://dukeart.netlib.re/shaarli/ ) m'a signalé l'existence de Pale Moon.

    C'est vrai qu'il correspond plus à ce que je recherche : les fonctionnalités craignos (social API, visionneuse PDF, webRTC, etc.) ne sont pas dans le code. Voir https://www.palemoon.org/technical.shtml . Pour l'instant, le site web du projet n'évoque pas EME ou la publicité à l'ouverture d'un onglet, seules des entrevues du dev' principal en parlent.

    Après, forker le moteur de rendu (Gecko), je ne suis pas convaincu. Genre implémenter toutes les nouveautés permanentes du monde web, ça prend du temps.

    Toutes les extensions existantes sont compatibles.

    Vu les releases notes, il y a visiblement un suivi de la sécurité. Ce n'est pas packagé dans Debian mais il y'a un dépôt Debian.

    Y'a une petite 60aine de contributeur-rice-s dont 6 vraiment actifs/actives ( voir https://github.com/MoonchildProductions/Pale-Moon/graphs/contributors ).

    D'après https://www.palemoon.org/redist.shtml , y'a quelques esbroufes autour de la licence de redistribution des binaires (pas d'usage commercial, usages restreints, attention à la marque, pas d'altération, pas de bundle, etc.).

    Rumor: "Pale Moon has redirected search engine revenue to its developer"
    TRUE
    Developing Pale Moon is a full-time job (and then some). It is not a hobby; it is a profession. The browser is free for anyone to download and use, and keeping development up, keeping myself supplied with food, paying rent, etc., and paying for the more than a few servers to provide all additional services needed for its presence on the internet (like the website server, release download mirrors, blocklist server, Pale Moon Sync, the forum, automatic update server, ftp, mail server, CDN) all costs money. This money has to come from somewhere besides donations, because donations simply do not cut it. There has to be enough on the other side of the equal sign. What did you expect; that I would continue to fund the Mozilla Corporation from an independent browser by keeping the search parameters to their Mozilla ones?
    In addition, every single other alternative browser out there does this to pay for itself, as well.

    ( https://forum.palemoon.org/viewtopic.php?f=4&t=7818 )

    Thu Sep 22 23:41:55 2016 - permalink -
    - https://fr.wikipedia.org/wiki/Pale_Moon
  • Nouvelle tournée de paramètres Firefox à changer

    Suite à mon essai de GNU IceCat, j'ai encore découvert des paramètres pas cool dans Firefox.

    • extensions.blocklist.enabled => false

      Enable the blocklist. Retrieve the list from the server specified in extensions.blocklist.url at the interval specified in extensions.blocklist.interval. If blocklisted extensions or plugins are already installed, disable them, and prevent blocklisted extensions from being installed in the future.
      ( http://kb.mozillazine.org/Extensions.blocklist.enabled )


    • layout.spellcheckDefault => 2

      Enable spellchecker for multi-line controls and single-line controls. (Default in Camino)
      ( http://kb.mozillazine.org/Layout.spellcheckDefault )


    • dom.battery.enabled => false
    • device.sensors.enabled => false
    • camera.control.face_detection.enabled => false
      => bon, ça parle tout seul.


    • media.gmp-manager.url => http://127.0.0.1/
    • media.gmp-manager.url.override => "data:text/plain,"
    • media.gmp-provider.enabled => false

      GMP is a special purpose extension point for authorised 3rd party codecs and EME (Encrypted Media Extensions) CDMs (Content Decryption Modules).
      ( https://wiki.mozilla.org/GeckoMediaPlugins )


    • browser.selfsupport.url => ""
      => Permet d'évaluer Firefox. La notification apparaît que pour une poignée d'utilisateurs mais Firefox (pour avoir simplement un échantillon) se connecte bien régulièrement chez Mozilla (pour savoir s'il fait partie du lot qui doit afficher la notification, j'imagine). Voir https://support.mozilla.org/fr/kb/rate-your-firefox-experience-heartbeat


    • browser.newtabpage.directory.source => "");
    • browser.newtabpage.directory.ping => ""
    • browser.newtabpage.introShown => true
      => Ça, c'est pour le très controversé ajout de pub lors de l'ouverture d'un nouvel onglet. Bon, a priorio, ça ne me concerne pas vu que j'ai configuré browser.newtab.url -> about:blank , mais bon.


    • social.directories" => ""
    • social.remote-install.enabled => false
    • social.share.activationPanelEnabled => false
    • social.shareDirectory => ""
    • social.toast-notifications.enabled => false
    • social.whitelist => ""
      => Ça, c'est pour virer ce qu'il reste de l'API Social de Firefox…



    On peut aussi empêcher la mise à jour automatique des moteurs de recherche mais je ne l'ai pas fait :

    • browser.search.update => false



    J'ai mis à jour mon shaarli sur ma configuration Firefox.

    Thu Sep 22 17:42:19 2016 - permalink -
    - http://shaarli.guiguishow.info/?0lDr4w
  • GNUzilla and IceCat - GNU Project - Free Software Foundation [ Mon avis sur GNU IceCat ]

    rms en a parlé lors de sa conférence à laquelle j'ai assisté, y'a plus d'un an (voir http://shaarli.guiguishow.info/?GX6MZw ). J'avais trouvé ça OMG-WTF-MDR-useless. J'avais noté de tester. Je viens de tester.

    IceCat, c'est la version GNU de Firefox. Objectifs ? Virer la marque déposée et les comportements que la Free Software Foundation refuse comme le fait d'avoir un dépôt d'extensions qui contient des extensions privatrices (c'est aussi un point de désaccord majeur avec Debian et la distribution non-free dans les dépôts officiels) ou le fait que Firefox va toquer chez Mozilla régulièrement (recherche de mise à jour, rapports, etc.).

    Note: avant d'être renommé IceCat, il se nommait IceWeasel. Mais Debian avait pris le nom le premier. Il faut donc bien faire la différence entre IceCat (GNU IceWeasel) et Debian IceWeasel, on ne parle pas de la même chose. :P


    Suivi de la sécurité

    Bon déjà, on notera qu'IceCat n'est pas packagé dans Debian donc niveau suivi de la sécurité, on se place là : faut le faire manuellement donc oubli & compagnie. Gênant pour un des softs les plus exposés aux menaces extérieures. D'autant plus qu'actuellement, la version d'IceCat distribuée par le projet GNU n'est pas la dernière ESR de Firefox (38.X versus 45.X) et qu'elle est abandonnée. :(


    Même source que Firefox

    Ensuite, on regarde le code source pour voir comment IceCat est construit à partir des sources de Firefox : http://git.savannah.gnu.org/cgit/gnuzilla.git/tree/ . Et on constate qu'on ajoute des favoris (vers la FSF) et des moteurs de recherche dans la barre de recherche, on change l'apparence (nom, logo, icônes, etc.), on prend quelques patchs chez Ubuntu et pis bah, c'est à peu près tout. Ça signifie que les fonctionnalités dont ne veut pas la FSF (Firefox Hello, EME, etc.) seront désactivées depuis about:config mais qu'elles seront toujours présentes dans le code.

    Du coup, à quoi bon avoir une version non mise à jour de Firefox ? Autant prendre n'importe quel Firefox et changer nous-mêmes les valeurs dans about:config. Voir http://shaarli.guiguishow.info/?9-JFuQ pour une liste de paramètres à changer.

    D'ailleurs, à ce propos, la majorité des paramètres est bien positionnée genre désactiver le safebrowsing (qui va toquer chez Google pour vérifier que chaque site visité n'est pas malveillant), désactiver le pré-chargement des contenus pointés par une page, désactiver Hello, etc.), mais, d'autres paramètres ne sont clairement pas OK : géoloc' activée, OCSP activé (il convient de conserver uniquement l'OCSP stapling qui, lui, ne balance pas votre IP et l'adresse du site web https que vous visitez à l'Autorité de Certification du site web en question), EME activé. :O WTF ?! Quel est l'intérêt d'IceCat dans ces conditions ?!


    LibreJS

    LibreJS est une extension ( https://addons.mozilla.org/fr/firefox/addon/librejs/ ) présente par défaut dans IceCat qui bloque les scripts JavaScript qui ne sont pas triviaux (AJAX, appel à des scripts externes, complexité, etc. Liste des critères : https://www.gnu.org/software/librejs/manual/html_node/JavaScript-Detection.html#JavaScript-Detection ) et qui ne sont pas sous licence libre (pour le déterminer, l'extension cherche la présence d'une licence en début de fichier ou de tag).

    En cas de JS non libre, l'extension affiche un onglet vertical à droite pour envoyer un rapport au site web. Inutile de dire qu'il apparaît sur 99,9 % des sites web. Son intelligence pour trouver un moyen de contact (email, twitter, etc.) est… extrêmement limitée donc échoue à chaque fois d'où un onglet bien inutile. :D

    À l'usage, LibreJS est juste inutilisable : la lenteur de chargement des pages web est exécrable : on est au-delà des 5 secondes par page. Même sur le site web de la FSF. C'est normal puisque l'extension pré-scanne tooooute la page web, en mode bloquant, avant que le navigateur effectue le moindre rendu.

    Au-delà de ça, ce n'est pas utilisable : le nombre de scripts bloqués est bien trop élevé. Impossible de consulter mon compte en banque. Impossible de naviguer sur le site oueb de mon libraire (je ne parle pas d'Amazon, hein), les cartes de météofrance ne s'affichent plus, Twitter devient inutilisable, etc.


    SpyBlock

    SpyBlock est un fork d'Adblock Plus sans l'option pour la publicité acceptable et qui est censé bloquer toutes les requêtes tierces quand on utilise la navigation privée.

    Sur ce point, je trouve que le projet GNU va trop loin :

    • Des extensions qui font ce job de manière correcte, y'en a ( voir http://shaarli.guiguishow.info/?5PqoyA ). Pourquoi un fork inutile de plus ?

    • La plupart des bonnes listes de filtres pour ces extensions (genre Fanboy's Social Blocking List ou EasyList / EasyPrivacy) sont sous licence libre genre CC-BY ou même GPL. Pourquoi le projet GNU maintient-il deux nouvelles listes qui sont bien pauvres en contenu ?


    Gestion des extensions

    IceCat n'empêche pas d'installer n'importe quelle extension Firefox, peu importe sa licence.

    En revanche, dans le panneau de gestion des extensions, la recherche est supprimée. Elle est remplacée par la liste des extensions FSF-compliant. Cette liste est extrêmement incomplète : plein d'extensions avec une licence reconnue comme étant libre par la FSF ne sont pas présentes genre Pure URL ou Decentraleyes.

    Là où je trouve ça totalement génial, c'est que le recensement de la FSF contient Adblock Plus ! Le truc qui autorise la publicité acceptable. Le truc qui modifie les sites web pour injecter la pub qu'il veut ! Voir http://shaarli.guiguishow.info/?bRMBww . Pour un projet qui se veut éthique (« GNUzilla is the GNU version of the Mozilla suite, and GNU IceCat is the GNU version of the Firefox browser. Its main advantage is an ethical one: it is entirely free software. »), je trouve ça croustillant. Hé oui, l'éthique ne se résume pas uniquement à la licence du code.


    Éviter le pistage / flicage

    IceCat prévoit quelques contre-mesures contre le pistage :

    • Ne pas sauvegarder les cookies tiers. Oui, c'est aussi configurable sur tout navigateur web qui se respecte.

    • Changer l'user-agent pour un truc plus standard. Ça se grille pas du tout avec l'obtention des noms des polices en JS. Ha mais comme LibreJS bloque tout, ça fonctionne, en fait, suis-je stupide ! :)))) Vu le nombre de sites web sur lesquels modifier l'user-agent faisait chier y'a quelques années…

    • Changer le referrer pour celui du site de destination. Un classique mais ne fonctionne pas partout du coup une extension me semble plus pratique pour activer/désactiver le brouillage du referrer à la demande plutôt qu'un paramètre dans about:config.

    • « Request pages in English » qui doit très probablement positionner l'entête HTTP « Accept-language » à « en-US ».

    Bref, rien de spécifique à IceCat.


    Fake

    J'ai aussi lu des choses fausses sur le web :

    • Le certificat racine de CACert n'est pas intégré au magasin des certificats x509 d'IceCat.

    • Protection contre les pixels espions (voir https://support.google.com/dfp_premium/answer/1347585?hl=en ). Non, IceCat ne bloque pas leur chargement. IceCat ne les laisse pas déposer de cookie comme tous les sites tiers (voir la section « Éviter le pistage »), comme un Firefox configuré de la sorte le ferait.



    En résumé : je vais rester sous Firefox. :D

    Thu Sep 22 17:41:27 2016 - permalink -
    - https://www.gnu.org/software/gnuzilla/
  • Arrêtez de voir des «hackers» partout - Libération

    Il est déjà assez pénible de voir le terme systématiquement renvoyé à la cybercriminalité pour ne pas devoir, en prime, faire la chasse aux fantasmes agités à tout propos.

    «Fausse alerte terroriste à Paris : un hacker de 16 ans interpellé», «Une Tesla piratée à distance par des hackers chinois», «Internet en Corée du Nord : des hackers dressent l’inventaire». On n’en a choisi que trois, mais des titres d’articles du même tonneau, ces derniers jours, il y en a eu des dizaines sur le Web. [...]

    Or, de quoi parle-t-on ici ? Dans le premier cas, d’un irresponsable canular téléphonique qui, pour spectaculaires qu’aient été ses résultats, ne nécessite pas de compétences poussées – que l’adolescent arrêté se présente comme un hacker ne fait pas du délit dont il est accusé une prouesse technique. Dans le second cas, d’une faille découverte par les chercheurs d’un laboratoire chinois en cybersécurité. Enfin, dans le troisième, d’un changement de configuration (possiblement par erreur) sur le serveur de noms de domaine de la Corée du Nord, changement qui a rendu accessible la liste de ces derniers et a été repéré, notamment, par un chercheur en sécurité informatique. Avec pour résultat d’offrir un accès inédit à la partie du Web la plus fermée au monde (et manifestement pas la plus florissante).

    On pourrait rappeler que pour les communautés hackers elles-mêmes, le terme renvoie d’abord à une façon d’appréhender la technologie : la comprendre, la bidouiller, la détourner, résumait Wikipédia il y a quelques années. Que le hacking – une culture, des pratiques – ne saurait donc se réduire au piratage informatique, même si ce dernier en est la dimension la plus médiatisée. [...] On pourrait même convoquer le Comité invisible qui, dans A nos amis, écrit : «Là où l’ingénieur vient capturer tout ce qui fonctionne pour que tout fonctionne mieux, pour le mettre au service du système, le hacker se demande "comment ça marche ?" pour en trouver les failles, mais aussi pour inventer d’autres usages, pour expérimenter.»

    A défaut de réussir à appréhender dans sa complexité le terme «hacker», du moins devrait-il être possible de ne pas le mettre à toutes les sauces. Il est certes plus vendeur de titrer sur le piratage d'une Tesla par de mystérieux «hackers chinois», avec toute l'imagerie que l'expression peut véhiculer, plutôt que sur la découverte d'une faille par des chercheurs en cybersécurité. [...]

    Via https://twitter.com/bearstech/status/778876525554860032 via https://twitter.com/bluetouff

    Thu Sep 22 11:24:09 2016 - permalink -
    - http://www.liberation.fr/futurs/2016/09/21/arretez-de-voir-des-hackers-partout_1505433
Links per page: 20 50 100
◄Older
page 189 / 298
Newer►
Mentions légales identiques à celles de mon blog | CC BY-SA 3.0

Shaarli - The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community