5571 links
  • GuiGui's Show

  • Home
  • Login
  • RSS Feed
  • Tag cloud
  • Picture wall
  • Daily
Links per page: 20 50 100
◄Older
page 53 / 99
Newer►
1965 results tagged nomarkdown x
  • FCC votes for net neutrality, a ban on paid fast lanes, and Title II | Ars Technica

    Version courte : la victoire n'est pas totale (les services spécialisés ne sont pas morts dans la bataille) et n'est pas encore assurée (possible contournement par le congrès).


    « The Federal Communications Commission today voted to enforce net neutrality rules that prevent Internet providers—including cellular carriers—from blocking or throttling traffic or giving priority to Web services in exchange for payment.

    The most controversial part of the FCC's decision reclassifies fixed and mobile [NDLR : excellent point ! En France, c'est bien sur les accès mobiles que l'on voit le plus d'atteintes en ce moment] broadband as a telecommunications service, with providers to be regulated as common carriers under Title II of the Communications Act. This decision brings Internet service under the same type of regulatory regime faced by wireline telephone service and mobile voice, though the FCC is forbearing from stricter utility-style rules that it could also apply under Title II.

    [...]

    The vote was 3-2, with Democrats voting in favor and Republicans against.

    [...]

    The core net neutrality provisions are bans on blocking and throttling traffic, a ban on paid prioritization, and a requirement to disclose network management practices. Broadband providers will not be allowed to block or degrade access to legal content, applications, services, and non-harmful devices or favor some traffic over others in exchange for payment. There are exceptions for "reasonable network management" [NDLR : jusque là, c'est excellent quoi qu'il manque la non surveillance et la non altération des communications] and certain data services that don't use the "public Internet." Those include heart monitoring services and the Voice over Internet Protocol services offered by home Internet providers.

    [NDLR : donc la neutraltié des réseaux a été tronquée et les services spécialisés ont gagnés car ils n'ont pas été fermement encadrés (ils sont tolérables seulement si aucune autre offre équivalente techniquement ou en service rendu à l'utilisateur n'existe). Bah oui : des offres VOIP concurrentes, il y'en a d'autres (OVH en France, par exemple). Pourquoi uniquement celle de l'opérateur qui vous fournit l'accès au Net devrait être priorisée au détriment des autres ? Dailymotion est une filiale d'Orange. Le lien (administratif mais aussi au niveau interconnexion réseau) est donc direct entre Orange et Dailymotion, ça ne passe pas par Internet donc Orange pourrait prioriser Dailymotion au détriment de Youtube avec ce régime de régulation. Autrement dit, toute PNI (interconnexion privée entre deux opérateurs) pourra contourner cette régulation àmha.]

    The reasonable network management exception applies to blocking and throttling but not paid prioritization. [NDLR : excellent point]

    There are additional Title II requirements that go beyond previous net neutrality rules. There are provisions to investigate consumer complaints, privacy rules, and protections for people with disabilities. Content providers and network operators who connect to ISPs' networks can complain to the FCC about "unjust and unreasonable" interconnection rates and practices. There are also rules guaranteeing ISPs access to poles and other infrastructure controlled by utilities, potentially making it easier to enter new markets. [...]

    The FCC could have tried to use Title II to require last-mile unbundling, in which Internet providers would have to sell wholesale access to their networks. This would allow new competitors to enter local markets without having to build their own infrastructure. But the FCC decided not to impose unbundling. As such, the vote does little to boost Internet service competition in cities or towns. But it's an attempt to prevent incumbent ISPs from using their market dominance to harm online providers, including those who offer services that compete against the broadband providers' voice and video products. [NDLR : huuum, ça compense un peu les services spécialisés... à voir l'implémentation derrière...]

    [...]

    Today's order could face both legal challenges and action from Congress. Republicans have proposed legislation that would eliminate Title II restrictions for broadband providers and vowed that the FCC vote is just the beginning of the debate.

    Although many ISPs publicly oppose the new rules, the industry is by no means united against the FCC. Sprint and T-Mobile US have each said the FCC's proposal would not hurt their business. And while a good number of small broadband providers oppose the imposition of Title II rules, others support Wheeler. The NTCA Rural Broadband Association, which represents rural ISPs, said yesterday that it supports applying Title II to broadband networks.

    Sir Tim Berners-Lee, inventor of the World Wide Web, spoke to the commission via video. He credited the openness of the Internet with allowing him to create the Web 25 years ago without having to ask "permission."

    [...]The full net neutrality order has not been published yet. The FCC's majority is required to include the Republicans' dissents in the order and "be responsive to those dissents," Wheeler said. The order will go on the FCC's website after that process. The rules will go into effect 60 days after publication in the Federal Register, with one small exception. Enhancements to the transparency rule must undergo an additional review by the Office of Management and Budget because they make changes to the one part of the 2010 net neutrality order that survived court challenge. [NDLR : attendons donc la publication complète et les analyses qui suivront] »


    Un dernier point me laisse dubitatif : on est sur de la régulation télécoms semblable à ce que pourrait faire l'ARCEP si le contexte législatif derrière le lui permettrait. Pour moi (comme pour d'autres comme Benjamin Bayart), la neutralité des réseaux doit relever de la loi avec des sanctions pénales à la clé car le pouvoir des FAI sur le citoyen est monstrueux.


    L'avis de l'EFF (trop optimiste à l'heure actuelle, à mon goût) : https://www.eff.org/fr/deeplinks/2015/02/fcc-votes-net-neutrality-big-win
    « That’s great for making sure websites and services can reach ISP customers, but what about making sure customers can choose for themselves how to use their Internet connections without interference from their ISPs? To accomplish this, the FCC has banned ISPs from blocking or throttling their customers’ traffic based on content, applications or services—which means users, hackers, tinkerers, artists, and knowledge seekers can continue to innovate and experiment on the Internet, using any app or service they please, without having to get their ISP’s permission first.

    [...]

    But now we face the really hard part: making sure the FCC doesn’t abuse its authority.

    For example, the new rules include a “general conduct rule” that will let the FCC take action against ISP practices that don’t count as blocking, throttling, or paid prioritization. As we said last week and last year, vague rules are a problem. The FCC wants to be, in Chairman Wheeler’s words, “a referee on the field” who can stop any ISP action that it thinks “hurts consumers, competition, or innovation.” The problem with a rule this vague is that neither ISPs nor Internet users can know in advance what kinds of practices will run afoul of the rule. Only companies with significant legal staff and expertise may be able to use the rule effectively. And a vague rule gives the FCC an awful lot of discretion, potentially giving an unfair advantage to parties with insider influence. That means our work is not yet done.  We must stay vigilant, and call out FCC overreach. »

    J'attends l'avis de LQDN/FFDN sur le sujet.
    Fri Feb 27 10:22:15 2015 - permalink -
    - http://arstechnica.com/business/2015/02/fcc-votes-for-net-neutrality-a-ban-on-paid-fast-lanes-and-title-ii/
    nomarkdown
  • Secure Secure Shell

    Ça date mais j'attendais que ça se stabilise après les révélations d'Appelbaum et Poitras lors du 31C3 car la sécurité dans l'urgence est le moyen le plus sûr de faire n'importe quoi et d'obtenir un résultat pire que la situation que l'on cherche à améliorer/résoudre. À ce sujet, se reporter à la fin du billet linké par ce shaarli qui cause justement des mauvais choix initiaux faits en réaction zélée à la présentation d'Appelbaum et Poitras.


    Je pense que la crypto dans SSH est de la poudre aux yeux. Le débat RSA versus EC, par exemple, est un faux débat certes très intéressant pour les cryptographes (car ça permet les avancées) mais pas pour un adminsys. Les limites pratiques de la cryptographie surviennent sur des choses beaucoup plus connes et concrètes : générateur de nombres pseudos aléatoires pas assez aléatoires, bug logiciel, cryptographie mal utilisée (de la crypto avec IE6 sous XP, comment dire ...), ... Les deux procédés (EC et RSA) sont toujours d'actualité. Le seul argument de plus en faveur des courbes elliptiques est leur faible taille (à niveau de sécurité jugé équivalent) et des temps de traitement plus courts donc une meilleure montée en charge. Débat intéressant : la NSA recommande officiellement d'utiliser les courbes elliptiques plutôt que RSA, avec, dans le lot la courbe P-256 normalisée par le NIST. Partant de là : la NSA sait-elle casser RSA (et c'est donc pour cela qu'elle conseille aux sociétés/administrations US de passer à EC) ou EC-P256 (et c'est donc pour un espionnage massif qu'elle conseille d'y migrer) ? Pour se protéger de la NSA, faut-il suivre les conseils de la NSA ou aller à l'encontre ? :)



    Typiquement, avec SSH, la sécurité repose sur d'autres paramètres, notamment :
        * Désactiver SSHv1 ;

        * Authentification des clients par clé ou, à défaut, par mot de passe avec, dans ce cas-là, un anti-bruteforce ;

        * Désactiver la possibilité pour root de se connecter à distance (compte classique + su : double sécurité), utiliser la directive de configuration « Users » (qui permet d'indiquer quels utilisateurs du système sont autorisés à se connecter à distance) ;

        * Vérifier la fingerprint de la clé du serveur lors de la première connexion ! Ne pas mettre "yes" aveuglement ! Les fois suivantes, ne pas ignorer les messages d'erreur de SSH ! Et dans un futur proche, utiliser DNSSEC + SSHFP (http://shaarli.guiguishow.info/?X1OYWg)

        * UseDNS à no car en cas d'attaque volumétrique ((D)DoS), une requête DNS est effectuée à chaque connexion pour écrire dans auth.log : le déni de service est aggravé.


    Une autre ressource intéressante pondue par Aeris : https://pad.lqdn.fr/p/ssh-hardening
    « Ciphers :
        * RC4 est notoirement troué, donc à supprimer --> voir à ce propos le changelog http://www.openssh.com/txt/release-6.7

        * CBC n’a pas d’avantage comparé à GCM ou CTR, à supprimer source ? GCM n’est pas breveté, et GCM/CTR supportent la parallélisation

        * Blowfish n’est pas recommandé à l’usage par Bruce Schneier (son concepteur) lui-même source ? ? https://www.computerworld.com.au/article/46254/bruce_almighty_schneier_preaches_security_linux_faithful/?pp=3

        * Privilégie les méthodes non AES (chacha-poly)

        * Trie des AES dans l’ordre de taille de clef

        * Préférence pour GCM, puis CTR

        * CAST128 est breveté


    HostKey :
        * Pas d’utilité des suites -cert (pas utilisé ?)

        * Privilégie les méthodes ECC sur RSA/DSA

        * Privilégie les méthodes non NIST (ED) sur celles NIST (ECDSA)


    Kex :
        * Suppression des suites SHA-1 (trop faible)

        * Privilégier les ECC sur les DH

        * Privilégie les méthodes non NIST (CURVE) sur celles NIST (ECDH)


    MACs :
        * Suppression SHA-1 et MD-5 (trop faible)

        * Suppression des algos < 128 bits (64 & 96)

        * Trie dans l’ordre des tailles de hash (512, 256 puis 128)

        * Privilégier les -ETM (encrypt then mac)

        * Privilégier RIPEMD sur SHA-2 ?

        * Quid sécu UMAC comparée à HMAC / SHA-2 / RIPyMEND ? »


    Ce qui suit se place dans un contexte d'auto-hébergement : je suis le (quasi) seul utilisateur de mes machines, je n'ai pas de clients/adhérents/autres. Dans le cas contraire, il faut être très prudent dans les algorithmes que l'on désactive car on exclu souvent des logiciels clients. Exemple : PuTTY ne supporte pas hmac-sha512, WinSCP ne supporte pas curve25519-sha256, la version d'OpenSSH sur FreeBSD ne supporte pas hmac-sha512, ...


    Et rappelez-vous : je ne suis pas une bête en crypto, hein. ;)


    L'union des deux ressources précédentes donne ça :
    ---- HostKeyAlgorithms (côté client !)
    1) On vire les algos « -cert » car inutilisés, on ajoute « ssh-ed25519 » (algo récent, courbes elliptiques, hors NIST) :
        ssh-ed25519,ecdsa-sha2-nistp521,ecdsa-sha2-nistp384,ecdsa-sha2-nistp256,ssh-rsa

    2) Plus nazi : on vire ssh-dss. Puis on vire les ecdsa possiblement owned par NIST/NSA
        ssh-ed25519,ssh-rsa

    Ça donne ça :
        Pour Debian Jessie :
            Host *
                HostKeyAlgorithms ssh-ed25519,ssh-rsa

        Pour Debian Wheezy (ssh-ed25519 n'est pas présent dans la version 6.0 d'OpenSSH)
            Host *
                HostKeyAlgorithms ssh-rsa

    3) On continue côté serveur :
    Sous Wheezy, dans /etc/sshd_config, il doit rester une seule ligne :
        HostKey /etc/ssh/ssh_host_rsa_key

    Pour Jessie :
        HostKey /etc/ssh/ssh_host_ed25519_key
        HostKey /etc/ssh/ssh_host_rsa_key

    4) On peut aussi en profiter pour régénérer des clés robustes (attention donc à vos clients qui vous informerons, à raison, que la fingerprint de votre serveur a changé).
    cd /etc/ssh
    rm ssh_host_*key*
    ssh-keygen -t rsa -b 4096 -f ssh_host_rsa_key

    Sous Jessie on peut ajouter :
    ssh-keygen -t ed25519 -f ssh_host_ed25519_key


    ---- KexAlgorithms
    1) On vire les algos avec sha1 (car avancées cryptos, un des prochains algos qui tomberont, prendre de l'avance,...) :
        curve25519-sha256@libssh.org,ecdh-sha2-nistp256,ecdh-sha2-nistp384,ecdh-sha2-nistp521,diffie-hellman-group-exchange-sha256

    2) Plus nazi : on vire les ecdh possiblement owned par NIST/NSA
        curve25519-sha256@libssh.org,diffie-hellman-group-exchange-sha256

    Ça donne ça :
        Pour Debian Jessie :
            KexAlgorithms curve25519-sha256@libssh.org,diffie-hellman-group-exchange-sha256

        Pour Debian Wheezy (curve25519-sha256@libssh.org n'est pas présent dans la version 6.0 d'OpenSSH)
            KexAlgorithms diffie-hellman-group-exchange-sha256


    awk '$5 > 2000' /etc/ssh/moduli > "${HOME}/moduli"
    wc -l "${HOME}/moduli" # make sure there is something left
    mv "${HOME}/moduli" /etc/ssh/moduli


    ---- Ciphers
    1) On vire tous les ciphers faibles (arcfour (petit nom de RC4), 3DES) ou couverts par un brevet (cast128).
        chacha20-poly1305@openssh.com,aes256-gcm@openssh.com,aes128-gcm@openssh.com,aes256-ctr,aes192-ctr,aes128-ctr

    2) Nazi par GuiGui : virer les algos 128/192 bits puisque 256 bits disponibles
        chacha20-poly1305@openssh.com,aes256-gcm@openssh.com,aes256-ctr

    Ça donne ça :
        Pour Debian Jessie :
            Ciphers chacha20-poly1305@openssh.com,aes256-gcm@openssh.com,aes256-ctr

        Pour Debian Wheezy (chacha20-poly1305 et GCM ne sont pas implémentés dans la version 6.0 d'openSSH)
            Ciphers aes256-ctr


    ---- MACs
    1) On vire les fonctions de hachage faibles/cassées (MD5, SHA1)
        MACs hmac-sha2-512-etm@openssh.com,hmac-sha2-256-etm@openssh.com,hmac-ripemd160-etm@openssh.com,umac-128-etm@openssh.com,hmac-sha2-512,hmac-sha2-256,hmac-ripemd160,umac-128@openssh.com

    2) Pour moi encrypt-then-MAC (http://www.bortzmeyer.org/7366.html) passe après l'utilisation de bons algos, je fais + confiance aux fonctions de la famille sha2 (même si normalisées au NIST, l'important est leur robustesse démontrée par l'usage et surtout, la variété : utiliser des algos pas normalisés par le NIST en complément d'algos normalisés par le NIST), enfin, ripemd160 arrive en dernier
        Macs hmac-sha2-512-etm@openssh.com,hmac-sha2-256-etm@openssh.com,hmac-sha2-512,hmac-sha2-256,hmac-ripemd160-etm@openssh.com,umac-128@openssh.com,hmac-ripemd160

    3) Encore plus nazi : on vire umac-128 (que je ne connais pas), ripemd160 (car seulement 160 bits comme sha1), et on vire sha256 puisque sha512 est disponible
        MACs hmac-sha2-512-etm@openssh.com,hmac-sha2-512

    Ça donne ça :
        Pour Debian Jessie :
            MACs hmac-sha2-512-etm@openssh.com,hmac-sha2-512

        Pour Debian Wheezy (encrypt-then-MAC n'est pas disponible dans OpenSSH 6.0):
            MACs hmac-sha2-512


    On peut aussi blinder la conf' côté client et mettre les directives de configurations suivantes :
        Pour Debian Jessie :
            Host *
                HostKeyAlgorithms ssh-ed25519,ssh-rsa
                KexAlgorithms curve25519-sha256@libssh.org,diffie-hellman-group-exchange-sha256
                Ciphers chacha20-poly1305@openssh.com,aes256-gcm@openssh.com,aes256-ctr
                MACs hmac-sha2-512-etm@openssh.com,hmac-sha2-512

        Pour Debian Wheezy :
            Host *
                HostKeyAlgorithms ssh-rsa
                KexAlgorithms diffie-hellman-group-exchange-sha256
                Ciphers aes256-ctr
                MACs hmac-sha2-512

    Mais attention si vous vous connectez sur différents équipements qui n'ont pas le support de ces algorithmes (routeurs/switchs, appliances, ...) car le debug est un peu chiant pour identifier la cause.
    Fri Feb 27 02:10:42 2015 - permalink -
    - https://stribika.github.io/2015/01/04/secure-secure-shell.html
    nomarkdown
  • Generate an OpenSSL Certificate Request with SHA256 Signature | IT Igloo

    Il suffit de rajouter l'option « -sha256 » lors de la génération de la CSR. Pareil lors de la génération du certificat à partir de la CSR dans le cas d'un cert auto-signé ou d'une AC personnelle.
    Thu Feb 26 23:38:00 2015 - permalink -
    - http://itigloo.com/security/generate-an-openssl-certificate-request-with-sha-256-signature/
    nomarkdown
  • Stéphane Bortzmeyer sur Twitter : "Un petit pas pour M. Michu, un grand pas pour la sécurité du #DNS : le résolveur sur les Freebox valide désormais avec #DNSSEC."

    « Un petit pas pour M. Michu, un grand pas pour la sécurité du #DNS : le résolveur sur les Freebox valide désormais avec #DNSSEC.
    Et avec DLV, ce qui est une idée contestable. »

    On enchaîne avec quelques rappels de base :
    « Tous les domaines avec une config #DNSSEC incorrecte vont donc être inaccessibles depuis Free.
    Un résolveur validant peut être menteur. Voilà pourquoi l'idéal est de valider sur sa machine. »

    On commence déjà à voir ce que je décrivais ici http://www.guiguishow.info/2012/08/21/domain-name-system-attaques-et-securisation/#toc-2827-limites (deuxième paragraphe) : quand on met en place un serveur DNS récursif validant, les utilisateurs de ce récursif et, si votre récursif sert un nombre significatifs d'utilisateurs, les gestionnaires techniques de domaines invalides (d'un point de vue DNSSEC) vous font endosser une responsabilité qui n'est pas la vôtre en vous hurlant dessus quand ça ne marche pas... Même quand l'erreur est de leur côté. Premier exemple (DS dans la zone parente mais pas de DNSKEY dans la zone fille) :
    « Maëva ‏@lechat_et_moi :
    @freemobile @LALIGNEDEFREE comment on fait quand nos lecteurs du blog qui ont Free be peuvent pas accéder au blog depuis 2 mois?

    avicom ‏@agence_avicom :
    @lechat_et_moi @LALIGNEDEFREE nous sommes les hébergeurs, et ça ne vient pas de chez nous ! Aucun IP de Free n'accède au site.

    Free ‏@LALIGNEDEFREE :
    @agence_avicom @lechat_et_moi un traceroute.?

    Mathieu ‏@oustedaisse :
    @agence_avicom @lechat_et_moi @LALIGNEDEFREE en même temps, vu que la conf DNSSEC du domaine est pétée, c'est normal que ça marche pas...

    Mathieu ‏@oustedaisse :
    @agence_avicom @lechat_et_moi @LALIGNEDEFREE en haut avec DNSSEC actif en bas DNSSEC désactivé. Le pb est chez vous;) pic.twitter.com/ARhQrNasYb

    avicom ‏@agence_avicom :
    @lechat_et_moi @LALIGNEDEFREE On va regarder ça ! Merci @oustedaisse de votre aide on vous tient au courant ;)

    avicom ‏@agence_avicom :
    @oustedaisse @lechat_et_moi @LALIGNEDEFREE ça ne vient pas de là ! Même free n'utilise pas encore cette norme... En tout cas merci !

    Mathieu ‏@oustedaisse :
    @agence_avicom @lechat_et_moi @LALIGNEDEFREE Ha si, ça vient de là pourtant, regardez bien... Le même pb avec Google DNS également.

    avicom ‏@agence_avicom :
    @oustedaisse @lechat_et_moi @LALIGNEDEFREE DNSSEC est une nouvelle norme pour parler aux serveurs DNS de manière chiffrée comme DKIM
    [ NDLR : KAMOULOX ! Il n'y a rien d'exact dans ce tweet ! O_O ]

    Mathieu ‏@oustedaisse :
    @agence_avicom @lechat_et_moi @LALIGNEDEFREE dites... Je suis au courant merci.

    avicom ‏@agence_avicom :
    @oustedaisse @lechat_et_moi @LALIGNEDEFREE donc c'est une norme donc pas une nécessité...
    [ NDLR : bah oui, ne respectons pas les normes et faisons tous dans tambouille dans notre coin... utile pour communiquer entre nous ! ]

    Mathieu ‏@oustedaisse :
    @agence_avicom @lechat_et_moi non mais si vous foutez n'importe quoi dans la zone DNS il est normal que ça marche pas !! Et c'est le cas !

    avicom ‏@agence_avicom :
    @oustedaisse on a du avoir de la chance avec tous nos autres sites. Merci

    Mathieu ‏@oustedaisse :
    @agence_avicom a votre place je regarderai quand même http://www.zonemaster.net/test/3841  avant d'accuser les mauvaises personnes ;)

    avicom ‏@agence_avicom :
    @oustedaisse initialement on accuse personne, le faite est que ça bloque uniquement chez les utilisateurs Free

    Mathieu ‏@oustedaisse :
    @agence_avicom les NS Free (idem Google DNS) cherchent a valider la signature du champ DS. Si invalide > servfail cf http://bit.ly/17mnBCp  »

    Sources :
    https://twitter.com/bortzmeyer/status/570611097696378880
    https://twitter.com/bortzmeyer/status/570611239526768642
    https://twitter.com/bortzmeyer/status/570614987326169090
    https://twitter.com/bortzmeyer/status/570618916025835520
    https://twitter.com/agence_avicom/status/567617305065295874
    Thu Feb 26 10:19:44 2015 - permalink -
    - https://twitter.com/bortzmeyer/status/570611097696378880
    nomarkdown
  • Ansible, Chef, Puppet… Pourquoi ça ne juste marche pas :(

    « Imaginons avoir une infrastructure de notre parc informatique basée sur la virtualisation, ie. chaque service isolé dans son propre conteneur.
    A minima, on va vite se retrouver avec les conteneurs suivants : un Bind9, un Postfix, un Nginx, un Apache, un MySQL, un PostgreSQL…
    Gestion des rôles

    Tout comme dans un vrai code informatique, on voudrait profiter de mécanisme d'héritage, de polymorphisme et d'agrégation pour définir notre infrastructure, afin d'éviter la duplication et de conserver une base robuste à un changement future d'infrastructure.

    On doit pouvoir définir une description globale de tous les Apache (installation et configuration de Apache, ouverture des ports 80 et 443 du pare-feu, installation de RPaf…) et faire apparaître la notion de rôle.

    On veut quand même vouloir en redéfinir certains morceaux machine par machine (liste des virtualhosts servis, déploiement des certificats SSL…), un peu à la manière d'un héritage

    On doit pouvoir agréger les rôles, et signaler qu'un serveur Apache est aussi un serveur de courriel, par composition.
    Gestion des relations

    Tous les services d'une infrastructure sont inter-dépendants : le Nginx sert de reverse-proxy au serveur Apache, qui sert un site web qui utilise une base de données PostgreSQL, le Nginx a donc besoin de l'adresse IP du serveur Apache et des virtualhosts servis, le Apache a besoin de l'IP du serveur MySQL.
    Pire, les dépendances forment des boucles : le serveur Apache a besoin de l'IP du serveur Nginx devant lui pour configurer son module RPaf (qui permet d'avoir l'IP réelle du client dans les logs et non celle du reverse-proxy), le MySQL a besoin de l'IP du serveur Apache pour ouvrir son pare-feu…

    On a donc besoin de pouvoir définir son infrastructure d'une manière déclarative (le quoi) et non impérative (le comment), en évitant la redondance de l'information (l'IP d'une machine définie une et une seule fois), la duplication de code, le risque d'incohérence dans la configuration en cas de modification de l'infrastructure…
    Dans l'exemple précédent, on veut ne définir les IP que dans la description de l'hôte en question, et ne définir qu'à un seul endroit la relation entre un Apache et son proxy Nginx.

    Pour les relations, on aimerait même se minimiser le travail au cas où notre infrastructure soit amenée à évoluer demain, et donc pouvoir les définir de manière complexe, comme par exemple « un Nginx proxite tous les virtualhost des Apaches situés sur la même machine physique », et non se contenter de déclarer le proxy Nginx utilisé dans le descriptif du Apache, ou à l'inverse la liste de tous les Apache proxifiés dans le descriptif du Nginx (mais surtout pas les deux sous peine d'incohérence !)
    Gestion des tâches

    On doit faire le déploiement et la configuration en elle-même. Installation de paquets, édition de fichiers de configuration, création d'un utilisateur, redémarrage d'un service… L'outil doit fournir des primitives basiques et si possible avec une couche d'abstraction suffisante pour être indépendant de l'OS utilisé (on installe un paquet avec apt sous Debian mais avec yum sous Red-Hat).

    Et comme dans un langage informatique, il doit être possible de combiner ces primitives pour obtenir des résultats plus complexes. Par exemple, créer un administrateur, c'est créer un utilisateur, déployer sa clef SSH sur son compte et la déployer aussi sur le compte root.

    [...]

    Puppet : ça ne marche pas

    [...]

    Pour un service donné, l'outil fait clairement bien son job. On peut installer des paquets, déployer des fichiers tout fait ou via un template instancié à la volée avec les valeurs nécessaires. Le DSL est plutôt assez concis et donne des descriptifs faciles à lire une fois passé l'apprentissage des incantations magiques.

    Là où ça commence à pécher, c'est pour la gestion des relations… Puppet est basé sur un mécanisme client/serveur, ou plus exactement master/slave. Une machine, le puppet master, contient l'intégralité des descriptifs, rôles, fichiers et autres templates. Sur chaque machine gérée par l'outil tourne en permanence un démon puppet, le puppet agent, qui vient régulièrement vérifier s'il a des choses à faire, une fois par jour par exemple.
    Du coup, chaque machine est isolée et ne peut travailler qu'avec ce qui lui est directement destiné. Une machine n'a pas la possibilité d'aller voir ce qu'une autre machine a déployé, par exemple un Nginx ne peut pas lister les Apaches sous sa responsabilité, c'est à l'administrateur de lui indiquer explicitement la liste quelque part, ce quelque part devant obligatoirement être dans le périmètre du Nginx et pas uniquement dans celui des Apaches. Bref, c'est à l'administrateur de gérer manuellement les dépendances, sans aucune assistance de la part de l'outil pour lui dire qu'il a oublié de renseigner le nouvel Apache fraîchement arrivé dans la configuration du Nginx !
    [...]

    Pour palier à ce problème, il existe quand même un mécanisme de partage d'information, les ressources exportées.
    On veut par exemple que chaque installation d'un serveur Apache génère automatiquement une vérification Nagios sur le port 80.

    [...]

    Déjà, on vient de devoir créer une nouvelle classe de serveurs, nagios::target::apache. Pourtant, un serveur HTTP est juste un serveur HTTP. Pas un serveur HTTP + vérification du port 80. On a introduit de la redondance d'information…
    Qui dit redondance dit erreur possible. Je définis un nouveau serveur Apache dans mon infra mais je suis un jeune admin tout fraîchement démoulu de l'école ? Je n'ai pas les 10 ans d'historique et d'expérience de mes collègues ? Ben on m'a demandé d'installer un nouveau serveur Apache, donc j'ai juste mis la classe apache à ma nouvelle machine… et elle n'est donc pas monitorée par Nagios !
    Le simple fait d'avoir un port 80 en écoute devrait automatiquement entraîner le monitoring ! Parce que si l'admin sys en chef passe sous un poney demain et qu'il y a toutes les chances du monde qu'il soit le seul à avoir conscience qu'il y a un Nagios mort dans un coin, plus personne ne pensera à le faire !

    [...]

    La redondance appelant généralement à toujours plus de redondance, que se passe-t-il si on souhaite maintenant monitorer le port 80 et le port 443 ? Pas de soucis, il n'y a qu'à rajouter une vérification du port 443 dans la classe nagios::target::apache. Oh mais attendez, si mon serveur Apache n'a que du HTTP ou que du HTTPS ? Ah mais les tests Nagios vont se mettre à échouer sur le port non présent… Pas grave, il n'y a qu'à faire 2 classes, nagios::target::http et nagios::target::https et le tour est joué ! Ah mais oui, j'ai aussi un Munin tient. Ok, ben disons « munin::target::http » et « munin::target::https ».
    On voit bien le risque de fonctionner ainsi : à chaque modification de l'infrastructure, comme les dépendances ont été codées « à la main » dans l'outil, rien ne s'adapte tout seul, et toute modification devient intrusive… Un simple serveur Apache qui devrait n'avoir qu'une seule classe apache va se retrouver avec une foultitude de classes présentes uniquement dans un but technique et non métier.

    [...]

    En plus, on ne parle ici que d'une dépendance simple qui devrait en réalité s'exprimer ainsi : « j'active une vérification Nagios sur le port 80 si la machine possède la classe apache ou nginx et au moins un virtual-host sur le port 80 ».
    Imaginez maintenant devoir régler de cette manière une dépendance plus complexe de type « déploie des virtual-host nginx en reverse proxy pour chaque virtual-host de chaque Apache présent sur la même machine physique que toi, en utilisant comme IP de proxy l'IP du Apache ». Je vous tend déjà le tabouret et la corde…

    [...]

    Chef : ça ne marche pas non plus

    [...]

    Là où tout change c'est que Chef fournit de base une base de données Solr qui va stocker l'intégralité de la description d'une machine. Cette base est bien entendue requétable depuis les descriptions, ce qui permet de faire des choses assez sympathiques pour régler les problèmes précédents. [...] Par rapport à Puppet, on a aussi la notion de databags, qui permettent de séparer proprement la partie données de la partie traitement. Une telle séparation est très difficile à atteindre avec Puppet.

    [...]

    J'ai uniquement éditer les fichiers de données (databag), qui ne sont pas liés à une recette et peuvent donc contenir pas mal d'information, pour y ajouter les clefs SSH à déployer ainsi que les IP autorisées pour les accès SSH.
    Et la recette ssh va utiliser exactement le même jeu de données que la recette users, pour déployer tout ça proprement et remplir les fichiers de clefs et la config SSH. Impact sur la recette users : 0 ! Impact sur les anciennes classes des serveurs : 0 ! Ce qui n'aurait très clairement pas été le cas avec du Puppet (ajout d'une ressource exportée toute moche ou refacto lourde de l'infra pour introduire des classes fantômes) ! On obtient donc des configurations bien plus claires d'un point de vue sémantique avec Chef qu'avec Puppet.
    Tout ça grâce à la primitive search, qui va interroger la base de données Solr pour récupérer l'état de la configuration. Ce truc est extrêmement utile et fait toute la différence avec Puppet, l'intégralité de la configuration est accessible depuis n'importe quelle recette, ce qui évite la duplication d'information et/ou la création de classes fantômes pour gérer les dépendances. La recette Nginx passera par search pour lister les Apache de sa machine hôte (search(:node, "apache:* AND physical:#{node[:physical]}")), ou encore la recette DNS l'utilisera de la même manière pour récupérer l'IP du DNS tournant sur le même réseau pour renseigner resolv.conf.
    Chef, vainqueur par KO…

    [...]

    Le problème avec search, c'est que les données sont publiées dans la base Solr non pas quand vous les publiez sur le serveur Chef mais après l'exécution de l'agent Chef… Et ça change tout…
    Chef utilisant un agent sur chaque machine, on n'a aucun moyen de garantir l'ordre d'exécution du déploiement. Si par malheur le Nginx passe avant les Apaches, la config vue par Nginx est l'ancienne config et ne tient pas compte des potentielles modifications introduites par l'admin ! Pire, Chef a tendance à effacer toutes les configs existantes quand un admin publie ses modifications, le prochain passage sur le Nginx va donc virer tous les virtualhost de proxy et les Apaches vont se retrouver coupés du monde !
    On pourrait résoudre ce problème en désactivant tous les agents et en exécutant le passage de Chef « à la main », via un script qui ordonne correctement les machines à déployer et s'y connecte dans l'ordre via SSH par exemple. Ça ne résoud qu'une partie du problème car dans le cas d'une boucle de dépendances (Nginx proxite les Apaches qui ont besoin de l'IP du Nginx), il faudrait passer plusieurs fois sur chaque machine et avec des recettes différentes pour parvenir à avoir le bon résultat.

    [...]

    Ansible : et ben… ça ne marche pas mieux…

    [...]

    D'abord, je n'ai pas trouvé comment définir des méta-taches, ie. une tache réutilisable qui appelle plusieurs sous-taches. Typiquement, ma tache de création d'un utilisateur (humain) est décomposable en création d'un utilisateur (UNIX) et déploiement de sa clef SSH. La création d'un administrateur est la création d'un utilisateur (humain) et déploiement de sa clef SSH pour root.

    [...]


    Bon, continuons… Les groupes maintenant… J'ai dit un peu plus haut que les variables pouvaient être héritées via les variables de groupe. Mais Ansible a un concept d'héritage somme toute assez intéressant. [...] Naïvement, j'ai voulu faire des choses comme ça. Naïvement hein, vu que c'est juste une description de ce qu'est réellement mon infra…
    Toutes mes machines qui ont du SSH doivent avoir le port SSH d'ouvert. Toutes les machines qui font du Apache doivent avoir le port HTTP et HTTPS d'ouvert, ont pour adresse mail de contact une certaine chose commune et servent leur contenu depuis /srv/www. Et enfin, toutes les machines Apache derrière le même proxy Nginx seront configurées toutes pareilles niveau RPAF.

    [...]

    Voilààààààààà… L'héritage au sens Ansibli-ien du terme, c'est « Zyva, pourquoi j'ai déjà une valeur moi ? Allez zou, fait pas suer, j'écrase ! ». Du coup, j'en suis réduit à calculer moi-même le résultat du merge que j'aurais envie d'avoir eu, et à le coller dans le hosts_var/www.yml et à supprimer tous les groups_var. Très pratique le jour où il y a un paramètre commun à changer…

    [...]

    Dans mon déploiement, le service fail2ban restart nécessaire à la prise en compte des nouvelles règles de blocage de fail2ban est en réalité fait via un service firewall restart, vu que le firewall doit déployer des règles avant celle de fail2ban. J'ai donc besoin de faire [...] Question à 10 balles : où et comment je peux faire pour mutualiser le Restart firewall et ne définir sa tache associée qu'à un seul et unique endroit (principes KISS et DRY) ? [...] Bam… Ça passe très bien à l'exécution de la tache firewall mais ça plante violemment à celle de fail2ban, comme quoi le handler est manquant. Bon ok, j'ai peut-être été un peu vache avec toi Ansible, j'vais quand même te mettre le handler dans un truc un peu plus commun et pas directement dans le role firewall…

    [...]

    Mais en fait, non, j'ai fait une erreur, je n'ai pas tous mes serveurs qui déploient du fail2ban, mais juste ceux avec ssh. Gros naïf va… [...] Wait ? Wat ‽ J'ai bien lu ? C'est une blague à ce niveau-là, non ? Elle est où la caméra ? J'vais quand même pas devoir déclarer dans chaque groupe/rôle/whatever le role common juste pour avoir des handlers qui sont déjà théoriquement communs à toutes les machines, si ?

    Bref… Pour conclure, alors que Ansible me semblait assez prometteur et intéressant sur ses concepts (agentless + ssh + DSL pas trop dégeu), je me retrouve à devoir quasiment réfléchir à la place de l'outil pour lui prémâcher tout le travail, un peu comme si vous aviez une super machine sensée faire le café mais où vous deviez la remplir avec du café déjà tout fait qu'elle n'a plus qu'à réchauffer pour servir…

    [...]

    Ansible n'est qu'un outil pour orchestrer séquentiellement des tâches d'administration et non pas un outil de gestion de configurations comme prétendent l'être chef et puppet. »
    Wed Feb 25 23:55:58 2015 - permalink -
    - https://blog.imirhil.fr/ansible-chef-puppet-pourquoi-ca-ne-juste-marche-pas.html
    nomarkdown
  • « François contre Internet ». - Le Hollandais Volant

    « le nouveau jeu télévisé : François contre Internet.

    Le principe est simple : François jette un dé et en fonction du résultat, on utilise un prétexte pour faire chier les internautes. Je rappelle la règle :

    Le dé tombe sur :
        * 1 ou 4, le prétexte est le terrorisme ;
        * 2 ou 5, le prétexte est la pédophilie ;
        * 3 ou 6, le prétexte est l’antisémitisme.
    [NDLR : il est nul ce jeu : il manque propriété intellectuelle et

    *François jette le dé*

    Et ce sera… un 6, l’antisémitisme ! Bravo François ! On applaudit bien fort.

    Donc voilà, notre gagnant repart avec 3 lois destinées à stigmatiser l’Internet comme responsable de l’antisémitisme.
    François, je vous le rappelle, s’est déjà servi de son joker 49/3, mais il lui reste l’avis du public qu’il n’a toujours pas utilisé depuis 2012 ! Quel courage ce François. »

    Oui, il faut aussi savoir en rire sinon c'est la déprime (principe/définition du lulz : combattre en rigolant aussi). Si en plus cettte image drôle peut aider à diffuser l'info, ce n'est que du positif.
    Wed Feb 25 16:33:31 2015 - permalink -
    - http://lehollandaisvolant.net/?d=2015/02/24/17/35/11-francois-contre-internet
    nomarkdown
  • bird-config - Forge de la Fédération FDN

    De la conf' BIRD utilisée en prod' chez Gitoyen.
    Wed Feb 25 10:22:56 2015 - permalink -
    - https://code.ffdn.org/gitoyen/bird-config
    nomarkdown
  • Vers une "lutte sans merci contre le racisme sur Internet" - Liens en vrac de sebsauvage

    « « une lutte sans merci contre le racisme et l'antisémitisme sur Internet »
    ça sent le dommage collatéral à plein nez.

    « les infractions reconnues dans l'espace public doivent pouvoir l'être également dans l'espace Internet »
    Mais... c'est déjà le cas !
    Il faut absolument ARRÊTER de colporter la légende qu'internet est une zone de non-droit. C'est encore plus moche dans la bouche de la ministre de la justice.
    http://rue89.nouvelobs.com/2015/01/15/internet-zone-non-droit-bonne-blague-257092 »

    L'avis de Mitsu est également très intéressant :
    « J'abonde dans le sens de Sebsauvage: affirmer que les infractions ne seraient pas reconnues dans « l'espace Internet » est:

    → soit une effrayante incompétence juridique de la ministre de la justice
    → soit une effrayante lecture irréfléchie d'une note d'un assistant de cabinet particulièrement con et/ou malveillant
    → soit une effrayante malveillance à l'égard de l'internet et des libertés publiques de la part de la ministre de la justice

    (ou une combinaison des trois)

    Hélas, il m'est d'avis que ce sujet n'incombe que partiellement à la justice: ça entre dans le cadre plus large de la lutte contre les discriminations: l'éducation nationale. »

    Juste +1. Ha, sinon, contre d'autres formes de violence verbale (envers les handicapés, envers le genre et les orientations sexuelles de chacun, ...), le gouvernement ne fera rien ? Juste racisme/antisémitisme ? Où est l'égalité devant la loi ? Tout ça c'est juste pour réagir vite-fait mal-fait, brasser du vent, occuper le terrain... Bon d'un autre côté, un discours est adapté à l'auditoire.

    « Les paroles antisémites, racistes (mais aussi homophobes) ne relèveront aussi bientôt plus du droit de la presse, mais du droit pénal « avec des peines adaptées, dissuasives, éducatives » prévient le chef de l’État. Le racisme et l’antisémitisme seront par ailleurs bientôt des circonstances aggravantes « lors de la commission de délit de droit commun »

    [...]

    Sans négliger de stigmatiser l’internet zone de non-droit (« Le monde numérique n’est pas hors de notre réalité. Il ne pourra donc pas être hors de notre légalité »), il assure que « les grands opérateurs doivent être mis devant leurs responsabilités. Quand des sites de partage de vidéos en ligne diffusent des harangues antisémites ; quand, en un clic sur un moteur de recherche, on trouve des pages et des pages où se déploie impunément le négationniste, alors l’indifférence devient complicité. Et si vraiment les grands groupes Internet ne veulent pas être les complices du mal, ils doivent participer à la régulation du numérique. »

    La messe est ainsi dite : ou les intermédiaires deviennent plus actifs, ou ils seront coupables de complices d’antisémitisme, racisme et autres abus de la liberté d’expression. La rhétorique est classique (tu es avec moi, ou tu es contre moi), mais aussi assez habile puisque par définition, un hébergeur n’a pas à être actif au-delà des limites imposées par la loi. »

    Source : http://www.nextinpact.com/news/93175-antisemitisme-francois-hollande-accuse-complicite-intermediaires-indifferents.htm
    Tue Feb 24 14:24:39 2015 - permalink -
    - http://sebsauvage.net/links/?jwLUlw
    nomarkdown
  • Montée en débit : le grand hold-up - igwan.net

    Oooouuch, un bon cas pratique qui démontre qu'Orange est une société toute-puissante et que les clauses de non-discrimination du secteur télécoms (cf, par exemple : http://shaarli.guiguishow.info/?TdLuaw) sont loin d'être toujours appliquées. Bien joué la veille citoyenne, igwan.net ! :)

    « En 2011, l'ARCEP décide que Orange doit accepter de dégrouper ses sous-répartiteurs si certaines conditions sont remplies. En résumé, si la collectivité qui souhaite dégrouper un sous-répartiteur coule une dalle béton, amène l'électricité et paye l'abonnement, tire 6 paires de fibre entre le NRA d'origine et le sous-répartiteur à dégrouper, paye la fourniture et l'installation des armoires et s'engage à ne pas faire de FttH dans le coin pendant 3 ans - rien que ça - Orange est contrainte et forcée d'accepter le dégroupage.

    En contrepartie pour tous ces services, Orange verse une redevance symbolique à la collectivité qui varie selon la taille (le nombre de lignes) du répartiteur dégroupé, de l'ordre de 500 à 1200 euros par an. Une somme ridicule, on va le voir, au regard des investissements de la collectivité.

    [...]

    A Saint-Barthélemy, on a décidé qu'il devenait urgent, en prévision des élections de 2017, de soulager deux quartiers particulièrement mal desservis par l'ADSL du fait de lignes trop longues. Au lieu d'y déployer le FttH ("on va le faire promis, c'est juste que là pour 2017, c'est un peu juste") on demande aux PTT à Orange dans leur grande bontée de bien vouloir améliorer un peu leur réseau. Pour faire classe, et imprégner les esprits de la magie de la fibre optique, on a appelé ça le FttN.

    Au terme d'une procédure de marché public, c'est donc une entreprise locale qui va tirer le câble et aménager les sites d'accueil.

        Fourniture et tirage du câble : 108 500 € (17 € par mètre).
        Aménagement des sites : 188 620 € (94310 € par site).

    Il faut également payer à Orange une prestation pour l'installation des armoires. Dans le cas de Saint-Barthélemy (deux armoires d'environ 400 lignes) cette somme s'éleve à 110 500 euros.

    Pour installer le câble optique, il a fallu de plus sortir la pelleteuse : casser les routes et y poser des fourreaux. Oui, ces mêmes fourreaux dont l'absence était invoquée comme excuse pour ne pas déployer le FttH dans ces quartiers.

    Investissement total (hors génie civil routier, dont on considère qu'il n'est pas dédié et sera réutilisé pour le réseau FttH) : 407 620 euros pour 800 lignes, soit environ 500 euros par ligne "montée-en-débit".

    Mais tout n'est pas perdu pour la collectivité, car Orange va payer pour toutes ces fibres et la mise à disposition des sites, pas vrai ?

    2300 euros par an : c'est la somme que va débourser Orange pour la mise à disposition de 6 paires de fibres sur un linéaire de 6380 mètres (en plus de la mise à dispo des sites d'accueil, de leur entretien, de l'énergie électrique, ...).

    Mais attendez, il nous semblait que la collectivité avait déjà voté les tarifs de mise à disposition de fibre optique aux opérateurs télécom ! Les voici : [...] Si ces tarifs lui étaient appliqués, Orange devrait régler une redevance annuelle de 53 592 euros ainsi que de frais d'accès au service "sur devis", car le câble optique n'était pas préexistant.

    La collectivité est-elle en droit de pratiquer des tarifs différents selon les opérateurs ? L'article 1425-1 du Code général des collectivités territoriales semble bien répondre par la négative [...]

    Suivant ce constat, et si on vivait dans un état de droit, il resterait aux élus trois possibilités :
        * appliquer à Orange les tarifs votés par le conseil territorial ;
        * appliquer à tous les opérateurs les tarifs dont bénéficie Orange ;
        * rayer du fronton de l'hôtel de la collectivité le mot "égalité". »

    Via http://shaarli.cafai.fr/?XjkCyA
    Tue Feb 24 14:11:16 2015 - permalink -
    - http://blog.igwan.net/post/2015/02/22/Mont%C3%A9e-en-d%C3%A9bit-%3A-le-grand-hold-up
    nomarkdown
  • Fibre optique : la fin du grand mensonge

    « À l’occasion d’une interview avec l’Arcep lors de la remise de son rapport « Accompagner la transition du réseau téléphonique de cuivre vers les réseaux à très haut débit en fibre optique », Paul Champsaur, l’ex-patron de l’Arcep l'avoue clairement (voir la vidéo de l'entretien sur le site de l'Arcep à environ 14 mn 15s). Selon lui, 40 à 45% des Français ne verront sans doute jamais la lumière d’une fibre optique.

    [NDLR : « jamais » est une éxagération mais oui, pas avant très longtemps, ce qui fait que la fracture numérique va se creuser fortement (apparition de nouveaux usages -> besoin de capacité réseau supplémentaire / de faible latence -> pratiques différentes puisque nouvelles pratiques impossible à utiliser par manque de capacité réseau / latence décente -> exclusion). La future France ne peut exister que si le déploiement fibre est un succès ! Il n'y a rien à attendre du sat ou du wimax !]

    Selon lui, le plan très haut débit ne prévoit en effet pas un fibrage complet de la France mais la montée en débit à un minimum de 30 Mbit/s de tous les Français.

    Paul Champsaur explique que les grandes agglomérations seront sans doute couvertes par plusieurs réseaux en fibre concurrents, car ce sont des zones rentables pour les opérateurs. Les plus petites villes seront, elles, couvertes par un unique réseau optique opéré soit par Orange soit par SFR et sur lesquels les autres opérateurs se grefferont pour proposer leurs services.

    Mais quid des 45% de français hors de ces zones ?

    Pour Paul Champsaur, il est clair qu’ils ne sont pas près de voir la fibre. Tout d’abord, ce sont les collectivités territoriales et notamment les départements qui vont devoir financer la construction des réseaux (avec un financement à 50% par l’État et sans doute un peu d’aides européennes). Et fonction de leurs moyens, déjà très tendus, ils ne feront sans doute pas de miracles.

    Ensuite, se pose la question de la desserte des campagnes. Et là clairement, Paul Champsaur entérine une France à deux vitesses avec des villes fibrées et des campagnes desservies par le satellite, le Wi-Fi ou par des réseaux cuivres un peu dopés (avec une des dernières évolutions des technologies xDSL, telles que le VDSL2 - en s'approchant des abonnés - ou pour les mieux lotis du G.Fast). Selon lui, le fait de fibrer tous les habitants coûterait deux fois plus cher que ce qui a été jusqu’alors prévu jusqu'alors.

    [...]

    Si l’Etat est loin d’être irréprochable sur le sujet du haut débit, on peut légitimement se poser la question du rôle de l'autorité de régulation des télécoms entre 1998 et 2014. Si on peut la créditer d'avoir réussi à faire du dégroupage un vrai succès, elle a échoué à faire plier les opérateurs mobiles sur les zones blanches, échoué à faire respecter les obligations de couverture et les délais de déploiement de la 3G, échoué lamentablement dans le dossier de la boucle locale radio et du WiMax et ne s'est guère montré sous son meilleur jour à l'occasion des attributions récentes de fréquences 3G et 4G LTE.  

    [NDLR : pardon ? L'ARCEP a réussi à faire du dégroupage xDSL un vrai succès ?! Deux réseaux de collecte ADSL (hors offres à destination des entreprises) : Orange et SFR, le reste n'est que de la revente de ces offres de collecte ! Marché difficilement accessible aux TPE/PME locales et aux FAI associatifs à cause de conditions dégueulasses (FÀS, marché oligopolistique, dialogues de sourd, refus de vente, ..) ! Ne parlons même pas du VDSL !

    Après, l'ARCEP-bashing est facile mais elle fait ce qu'elle peut avec le corpus législatif actuel qui est insuffisant, la réglementation européenne qui la contraignent (notamment sur le dossier fibre où l'ARCEP est contrainte par l'UE de laisser faire le saint marché et donc de laisser la main aux opérateurs pour proposer le modèle de co-invest' bancal actuel) et les pressions (Bercy regorge d'anciens de chez FT/Orange, ne l'oublions pas ! Sans compter les autres opérateurs qui se battent (certes dans le cadre de la loi), cf : http://www.droitdesmarches.com/Comment-le-Conseil-Constitutionnel-a-prive-l-ARCEP-de-ses-pouvoirs-de-sanction-decision-QPC-du-5-juillet-2013-du-Conseil_a75.html)] »

    Via http://shaarli.cafai.fr/?B-r1RA
    Tue Feb 24 13:45:17 2015 - permalink -
    - http://www.lemagit.fr/actualites/2240240935/Fibre-optique-la-fin-du-grand-mensonge
    nomarkdown
  • affordance.info: Lutter contre la haine sur internet

    « D'abord il n'y a pas de "discours type de la haine" (diapos 3 et 4). A quelques rares exceptions qui font l'unanimité, comme la diffusion de ces vidéos de décapitation ou les insultes ouvertement racistes, la plupart des cas qui posent problème ne sont des discours de haine qu'au regard de certains contextes ou de certaines communautés : c'est le cas des caricatures du prophète, c'est aussi le cas de certaines "blagues" accolées au hashtag #UnBonJuif.

    La question est alors de savoir "qui décide" de laisser diffuser ces contenus (diapos 5 et 6), et surtout sur quels critères : 4 possibilités : la justice, nous-mêmes, le code (les algorithmes) ou les plateformes elles-mêmes.

    [...]

    Il faut remettre en perspective, à l'échelle du web-média, les bouleversements qui ont eu lieu dans notre perception (ou nos aspirations) de la légitimité d'un discours (diapos 8 à 11). Avec ces 3 grandes étapes qui furent, en 1996, la déclaration d'indépendance du cyberespace ("il n'y a pas de lois ici"), l'article "Code is Law" de Lessig en janvier 2000, et la récente déclaration de Mark Zuckerberg qui place, de facto, sa plateforme au-dessus et à l'extérieur des lois ("nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde"). Vous noterez l'emploi du présent dans la déclaration de Zuckerberg qui indique qu'il a déjà "acté" cette pratique et qu'il la considère comme parfaitement légitime (culture du 1er amendement de la constitution américaine), toute la question étant de savoir ce que devient cette pratique "libertarienne" si on la déplace dans un contexte moins "unanimiste" que celui de la réaction aux attentats contre Charlie Hebdo.

    Il faut ensuite acter l'état actuel des législations (américaines, françaises, etc.) qui disposent en l'état d'un arsenal de textes déjà largement suffisant (diapo 13) pour encadrer, pour "surveiller et punir" dirait Foucault, l'expression des discours de haine. Des lois certes controversées, mais des lois existantes et directement applicables. A condition de ne jamais zapper la case justice.

    [...]

    Il faut, enfin, accepter, reconnaître et comprendre un certain nombre de principes "simples" qui caractérisent les modes d'expression sur le réseau : le premier d'entre eux (diapo 13) est la "tyrannie des agissants" décrite par Dominique Cardon ("Internet donne une prime incroyable à ceux qui font"). Comprendre également la nature des processus d'engagement en ligne (diapos 18 à 21), lequel "engagement" déterminera ensuite la portée et le risque réel associé aux discours de haine qu'il sous-tend. Or en la matière, il faut constater, comme l'a rappelé l'affaire du "soutien au bijoutier de Nice", que 1 million de like n'équivaut pas à un million de soutiens, qu'une personne "soutenant" en ligne un certain type de discours n'est pas nécessairement prête à "s'engager" derrière ce discours, fut-il un discours de haine ou, d'ailleurs, un discours de paix. L'engagement en ligne est le plus souvent une forme de désengagement ("slacktivisme").

    A propos de l'engagement, Merleau-Ponty écrivait :

        "Tout engagement est ambigu puisqu’il est à la fois l’affirmation et la restriction d’une liberté : je m’engage à rendre ce service, cela veut dire à la fois que je pourrai ne pas le rendre et que je décide d’exclure cette possibilité."

    Or précisément, sur les internets, le "like" ou le slacktivisme est une forme d'engagement monoface : "liker" une "cause" ou un "discours" c'est exclure la possibilité de rendre réellement un service. Et la plupart du temps ... c'est tout.

    [NDLR : voilà pourquoi je déteste les pétitions en ligne qui sont du pur bullshit ! Envoyer des mails à nos représentants (ou aux responsables des actions auxquelles on s'oppose) ou organiser une soirée de réflexion (AFK ou non) apportera infiniment toujours plus de valeur qu'une pétition web débile.]

    [...]

    Ceci étant posé, oui, il y a bien un discours de haine présent sur internet. Comme d'ailleurs dans le PMU du coin. C'est vouloir les traiter de la même manière, c'est leur accorder la même importance qui serait une erreur. Car ces discours de haine sur internet obéissent à des logiques propres qui tournent autour de 4 effets contre-intuitifs
        * L'effet petit pois (comme dans le conte de la princesse au petit pois) fait que l'on se focalise souvent - et particulièrement dans le cadre de l'analyse des discours de haine - sur des phénomènes relevant de l'infinitésimal. Il s'agit d'une erreur sur "l'ordre de grandeur" de ces phénomènes ou de ces discours. Pour s'en convaincre on pourra relire ces deux illustrations de l'effet petit pois que furent le traitement du hashtag #jesuiskouachi ou celui de #jenesuispascharlie.

        * L'effet miroir consiste à interpréter ces mêmes phénomènes à l'inverse de ce qu'ils signifient réellement. Là encore, en termes d'ordre de grandeur, pour 100 000 "je suis charlie" on dénombrait à peine 100 "je ne suis pas charlie", et sur ces 100 "je ne suis pas charlie", 99 reprenaient le hashtag mais pour condamner celui qui l'avait utilisé.

        * L'effet Streisand, le plus connu et le plus ancien à l'échelle du web, consiste à croire que supprimer ces contenus serait "la" solution alors que chaque suppression ne fait qu'accélérer la duplication et l'audience des contenus, des propos ou des discours visés.

        * L'effet cigogne, enfin, qui est le résultat de la somme des 3 effets précédents et qui consiste à confondre corrélation et causalité. En gros "il y a beaucoup d'appels à la haine sur internet, donc internet incite à la haine". Ben non.

    Le problème est que la plupart des approches visant à lutter contre ces discours de haine, qu'il s'agisse du discours politique ou de l'action législative ignorent presque totalement ces 4 effets.

    [NDLR : à part l'effet Streisand/Flamby (selon le contexte / la valeur accordée globalement aux données censurées), les autres vices de raisonnement s'appliquent justement parfaitement au PMU du coin ! Internet n'est pas différent du PMU, de la rue, ... C'est les mêmes gens, les mêmes humains derrière qui font société, qui interagissent, qui échangent différemment, c'est tout ! Il faut différencier la manière d'échanger, de faire société des propos échangés. Un like/retweet de colère c'est juste assimilable à un "je suis bien d'accord, tous des pourris toute façon et on peut rien y faire" après quelques binouzes, rien de plus ! ]

    [...]

    On constate que tout le débat sur "comment lutter contre les discours de la haine" ne concerne pas "internet" mais concerne ses jardins fermés, c'est à dire les "plateformes" que sont Facebook, Twitter mais aussi de plus en plus Google en tant qu'écosystème de services (via Youtube notamment). Donc on agit au niveau des plateformes et pas au niveau d'internet (pour lequel, je répète, y'a déjà suffisamment de lois qui fonctionnent et s'appliquent).

    [...]

    On constate que ce sont les algos des plateformes qui ont à la fois pouvoir de police et de justice, dans la plus totale opacité, et qui décident de publier telle ou telle vidéo, de laisser passer tel ou tel #hashtag. Bref on constate que les algorithmes sont ces nouvelles "corporations du filtre" (l'expression est d'Umberto Eco) comme l'étaient hier les éditeurs et les rédactions de médias "papier".

    On constate que ces choix (laisser passer, laisser publier, etc.) relèvent d'un processus d'éditorialisation classique. On constate que les algorithmes font des choix d'éditorialisation classique.

    [NDLR : Nul ne peut ignorer le code ? Boarf, pas que. La censure automatisée est un problème certain mais : 1) la loi s'applique (si l'on ne laisse pas des multinationales être au dessus des lois des états, ce qui est un autre problème). 2) les algos, ce n'est pas encore Skynet, il y a des humains derrière, voir 1). 3) les actes de censure par des algos sont un vrai problèmes mais beaucoup de décision de censure sur les gros silos ne sont pas encore automatisée. ]

    Via https://twitter.com/Calimaq/status/569544085603627009
    Tue Feb 24 12:14:22 2015 - permalink -
    - http://affordance.typepad.com/mon_weblog/2015/02/lutter-contre-la-haine-sur-internet.html
    nomarkdown
  • NTP Measurements with RIPE Atlas - RIPE Labs

    Comment maintenir un système informatique à l'heure dans la vraie vie. :)

    « Different versions of RIPE Atlas probes maintain their clocks in different ways, and the differences are mainly caused by architectural differences.

    There are currently four versions of RIPE Atlas measurement devices:
        * The small, black v1 and v2 probes were custom made. The main difference between the two is that the v1 probes have 8 MB of internal memory and the v2 probes have 16 MB. Both types of probes have a total of 16 MB of flash memory for storage. Note that we don't distribute these probes anymore. But there are more than 2,500 out there in the network.
        * The current v3 probes are based on TP-LINK TL-MR3020 routers. These probes have 32 MB of internal memory, 4 MB of internal flash and 4 GB of USB flash.
        * Finally, RIPE Atlas anchors are small servers that run the Centos Linux distribution and the RIPE Atlas probe code as an application on top of that.

    [...]

    RIPE Atlas anchors run an NTP daemon that synchronises with pool.ntp.org. The pool.ntp.org project is a big virtual cluster of timeservers providing NTP service for millions of clients. The RIPE Atlas code cannot set the time itself - anchor hosts must allow unrestricted access for the NTP protocol.

    [...]

    For v1, v2, and v3 probes the situation is a lot more complex. First of all, some of these probes are in an environment where the NTP protocol is blocked or filtered somewhere in the network. Additionally, those probes do not have a battery backed-up, real-time clock.

    The lack of a battery backed-up clock requires some tricks to give a probe a sense of time shortly after it boots. The potential lack of access to NTP servers requires a fallback mechanism in case NTP is unavailable.

    This fallback is integrated with the code that submits the measurement results. Every three minutes, probes will try to submit their measurement results to the RIPE Atlas infrastructure using an HTTP POST request. The probe then uses the timestamp in the HTTP reply to verify and, if necessary, correct its local clock. Basically, the probe checks whether its local clock is within two seconds of the controller's clock. If not, and the entire HTTP request took less than one second, the probe updates its local clock.

    This mechanism is the only one the v1 probes use to synchronise their clocks. The reason is that the main memory on the v1 probes is too small to run a separate NTP daemon (ntpd). The v2 probes run an NTP implementation called 'ntpclient'. And v3 probes currently use OpenNTPD but will switch to ntpd in the near future.

    In addition to keeping the clock of a probe synchronised, we also want to include in the measurement results whether the timestamp is likely to be accurate or not. For example, when a probe boots but does not have Internet access, it cannot set its clock - but the probe will still perform measurements. In that case, when the probe later reports the measurement results, it is important to know that the timestamps might be incorrect.

    The way this is implemented is as follows. As described above, when a probe reports measurement results, it compares the timestamp in the HTTP reply with its local clock. If the time difference is less than two seconds and the entire HTTP request took less than one second, the probe records that at that time the clock was in sync.

    When a probe generates a measurement result, it includes a field called 'lts', which stands for "last time synchronised". In this field, the probe reports the number of seconds that have passed since the probe last recorded that its clock was in sync. So in the ideal case, the values should never exceed 180, because probes report results every three minutes. A probe uses the special value -1 to indicate that, since it last rebooted, it never found its clock to be in sync. Note that this code runs not only on the v1, v2, and v3 probes, but also on the RIPE Atlas anchors. »

    [...]

    How accurate are the RIPE Atlas probes' clocks?
    [...]

    RIPE Atlas v1 (blue) and v2 (green) probes show similar behaviour. Some probes are more than two seconds from 0, but not many. Also, v1 and v2 probes show a similar distribution. We can conclude that the NTP client program that runs on the v2 probes doesn't have any effect, i.e. not running it in the v2 probes is likely to give the same results.

    However, v3 probes (red) show an unusual distribution. As you can see in Figure 2 above, there is a thin spike in the middle, and the distribution of the rest of the v3 probes is not symmetric, but skewed a bit to the left.

    [...]

    This shows that the spike is a group of 557 v3 probes out of a total of 4,622 v3 probes that have their local clocks within 10 ms of ntp.atlas.ripe.net. In addition, most of the RIPE Atlas anchors (green) are also in that same range. Some v3 probes manage good time synchronisation, and it is not clear why the others don't. Regardless, it's important to note that this just means that some probes are more accurate, not that there is a problem with the less accurate probes.

    Most RIPE Atlas anchors also have good time synchronisation. As mentioned above, anchors are synchronised to pool.ntp.org. This means that an asymmetric path between the anchor and ntp.atlas.ripe.net may skew results.

    [...]

    We are currently testing NTP measurements within the RIPE Atlas infrastructure and, once these tests are successful, plan to make them available as a new measurement type (in addition to ping, traceroute and DNS measurements) to RIPE Atlas users. These NTP measurements will be available from all RIPE Atlas probes towards one of the NTP servers. This will allow RIPE Atlas users to measure the time between a collection of probes and a specific target.

    [...]

    In general, almost all RIPE Atlas probes are within two seconds of UTC, which means their clocks are in sync with the RIPE Atlas infrastructure. Big outliers that fall outside this range have the 'lts' field set, which signals that the probe's state (with regards to its time synchronisation) is unknown.

    A small group of v3 probes and most anchors are within 10 ms of UTC. We intend to switch to ntpd and pool.ntp.org for the v3 probes in the near future. At the moment it is not clear why the NTP client doesn't work on v2 probes and why the OpenNTPD works only on some of the v3 probes. »

    Via http://seenthis.net/messages/344907
    Mon Feb 23 12:11:56 2015 - permalink -
    - https://labs.ripe.net/Members/philip_homburg/ntp-measurements-with-ripe-atlas
    nomarkdown
  • Autorité de la concurrence - Rachat de SFR par Numéricable - Offres de référence relatives à l'accès de son réseau câblé et du réseau DSL de SFR et Completel.

    « Par décision 14-DCC-160 du 30 octobre 2014, l'Autorité de la concurrence a autorisé, sous réserve de plusieurs engagements, la prise de contrôle exclusif par Numericable Group de la Société Française de Radiotélephone (ci-après, « SFR »). Dans le cadre de ces engagements, Numericable s'est engagé à soumettre à l'agrément de l'Autorité de la concurrence des offres de référence relatives à l'accès de son réseau câblé et du réseau DSL de SFR et Completel.

    [...]

    Numericable s'est engagé à proposer à tout opérateur qui le souhaite deux offres d'accès à son réseau câblé. Une première offre, sous « marque blanche », doit permettre aux opérateurs MVNO qui ne déploient pas de réseau FttH et ne disposent pas de leur propre box d'accéder au câble. Une deuxième offre, dite « bitstream », doit permettre à tous les fournisseurs d'accès internet d'utiliser l'accès au câble pour proposer des offres très haut débit en utilisant leurs propres box et leurs propres interfaces clients.

    [...]

    Elles doivent donc être proposées à un prix excluant tout effet de ciseau tarifaire et laissant un espace économique suffisant aux concurrents pour se développer. Elles doivent également être proposées à des conditions transparentes, objectives et non-discriminatoires.
    [NDLR : non-discriminatoire avec des FÀS en centaines (par ligne) voire milliers (porte de collecte) d'euros sur la partie services de collecte DSL de Completel et SFR à destination des entreprises [NDLR : donc uniquement les liens ADSL/SDSL avec GTR et garantie de débit pour l'instant, pas les accès grand-public] et inconnus sur la partie offres d'accès au réseau câblé (l'annexe A n'est pas disponible sur le site de l'Autorité). De telles conditions n'excluent pas du tout les FAI associatifs et les TPE/PME locales, noooon, c'est sûr. Mais on n'a pas la même définition de la discrimination « L'engagement de non-discrimination doit permettre en particulier de garantir que les tiers disposeront de conditions identiques à celles appliquées par la nouvelle entité pour ses besoins internes. ».]

    Numericable s'est engagé à céder le réseau DSL de Completel pour permettre l'apparition d'un nouvel opérateur sur le marché des services de télécommunications fixes spécifiques entreprises. Dans l'attente de la réalisation de cet engagement, Numericable s'est également engagé à mettre à disposition les services de collecte DSL de Completel et SFR à destination des entreprises sur l'intégralité des NRA couverts par SFR  et Completel.

    Numericable s'est engagé à proposer cette offre d'accès à des conditions objectives, transparentes et non discriminatoires, pour permettre aux opérateurs de détail de disposer d'une offre leur permettant d'être compétitifs sur le marché de détail. L'engagement de non-discrimination doit permettre en particulier de garantir que les tiers disposeront de conditions identiques à celles appliquées par la nouvelle entité pour ses besoins internes.

    Les offres de référence communiquées par Numericable relatives à l'accès de son réseau câblé et du réseau DSL de SFR et Completel n'engagent pas, à ce stade, l'Autorité de la concurrence. Ils constituent des projets soumis à consultation et sont susceptibles de faire l'objet de modifications.

    [...]

    Afin d'éclairer l'examen de l'Autorité, les tiers intéressés sont invités à présenter leurs observations sur les propositions d'offres de référence communiquées par Numericable Group. Les observations pourront être adressées au service des concentrations de l'Autorité de la concurrence, au plus tard le 9 mars 2015 par voie postale ou électronique, à l'adresse suivante
    [NDLR : la FFDN a-t-elle un rôle à jouer dans cette histoire ? Est-ce pertinent ?] »
    Mon Feb 23 11:38:06 2015 - permalink -
    - http://www.autoritedelaconcurrence.fr/user/standard.php?id_rub=609&id_article=2491
    nomarkdown
  • Raspberry Pi Home Server - La guerre des clones !

    « L’explosion du marché des nanos ordinateurs est quelque chose qui n’est plus à démontrer. On commence même à en parler dans de médias grands publics. Orange, Banana, Raspberry. On baigne dans une vraie salade de fruits. Au point que lorsque l’on arrive dans ce monde, on peut bien se demander qu’est ce qui fait la différence entre chaque carte et comment faire son choix.

    [...]

    Pour le plaisir, j’ai quand même voulu illustrer la difficulté du choix d’une carte en prenant six constructeurs et en les comparant rapidement entre eux. Pour cela j’ai pris seize des cartes qui me semblent être assez connues et j’en ai fait un petit tableau (en english pour permettre à chacun de le lire) »


    L'initative est salutaire. Dommage qu'il manque CubieBoard et surtout, les OLinuXino qui sont d'excellente facture.

    Via http://news.korben.info/raspberry-pi-home-server-la-guerre-des-clones
    Mon Feb 23 11:17:36 2015 - permalink -
    - http://www.pihomeserver.fr/2015/02/23/raspberry-pi-home-server-la-guerre-des-clones/
    nomarkdown
  • man sshd [(Server|Client)AliveInterval]

    ServerAliveInterval (dans ssh_config) ou ClientAliveInterval (dans sshd_config) permettent d'envoyer un keepalive à l'autre partie après un timer d'inactivité.

    Super utiles face à un intermédiaire (entre un client SSH et un serveur SSH) qui a un suivi de connexion / NAT un peu stressé (exemple : trop de clients subitement (heure de pointe) donc durée de vie d'une entrée dans la table diminue pour préserver l'équité) ou zélé de base (implémentation douteuse) qui vire trop vite les états en cas d'inactivité.
    Mon Feb 23 01:24:51 2015 - permalink -
    - http://www.openbsd.org/cgi-bin/man.cgi/OpenBSD-current/man5/sshd_config.5?query=sshd_config&sec=5
    nomarkdown
  • SFR mobile et contrôle parental | Matronix.fr

    « En voulant accéder à mon instance FreshRSS en 3G depuis mon mobile, j’ai obtenu un blocage [...]

    Ce qu’il faut noter :

        Tous les forfaits SFR sans exceptions ont le contrôle parental d’activé (neutralité, toussa, connaissent pas). C’est idiot, une connexion en wifi et le problème est réglé.
        Pour faire sauter cette option activée par défaut, il faut envoyer une copie de sa pièce d’identité par courrier.
        Mais ce courrier n’est pas obligatoire, je vous laisse lire ;)

    Bref SFR, première et dernière fois, vous n’avez pas à décider de ce que je peux voir ou non. »
    Sun Feb 22 16:13:00 2015 - permalink -
    - http://www.matronix.fr/sfr-mobile-et-controle-parental/
    nomarkdown
  • NS-468 - [RJ45 et RJ11] Cable Tester

    http://www.gotronic.fr/art-testeur-de-cables-reseaux-ns468-15011.htm
    Sun Feb 22 14:55:24 2015 - permalink -
    - http://ftaelectronics.ca/manuals/NS-468CableTesterManual.pdf
    nomarkdown
  • Obama accuse, sous les critiques, l’Europe d’être protectionniste

    Autant de bullshit dans une déclaration, c'est mignon :)

    « Visiblement irrité par l'attitude des professionnels européens, Barack Obama poursuit sa critique : « Nous avons possédé Internet. Nos sociétés l'ont créé, développé, perfectionné d'une manière qu'ils ne peuvent pas concurrencer ». »

    La commutation de paquets (au lieu de commutation de circuit comme le réseau téléphonique), c'est le projet Cyclades, français, donc européen. Les protocoles de l'Internet sont normalisés à l'IETF, certes association de fait de droit états-unienne mais dont la participation est mondiale. On pourra trouver plein d'exemples de logiciels clés dans le fonctionnement d'Internet qui ne sont pas états-uniens.

    Les sociétés commerciales (ni même l'armée américaine) n'ont pas créées Internet tel qu'on le connaît aujourd'hui ! C'est des talents universitaires (et consommateurs de substances qui donnent des idées, il parait) à Berkeley (TCP/IP, remplaçant de NCP) ! Au contraire, les sociétés américaines (Netflix, Facebook, Google) détruisent Internet pour leur seul profit !


    « Il rejette également l'argument selon lequel les critiques à l'égard de sociétés américaines sont mues par la volonté de protéger les données personnelles. « Cependant, les sociétés spécialisées dans le numérique ont souvent des intérêts qui ne correspondent pas à la protection de la vie privée. Par exemple de nombreuses entreprises gagnent de l'argent grâce à la publicité et les données des utilisateurs vont permettre de mieux les cibler », ajoute-t-il. Barack Obama considère donc que les autorités européennes empêchent l'expansion des sociétés américaines pour des considérations concurrentielles et économiques. Une position fermement critiquée. »

    Différence fondamentale bien connue de point de vue entre l'Europe et les USA sur ce que doit être la vie privée. Ha, sinon, le business numérique c'est pas que de la pub et du profilage hein. Si c'est ça l'innovation ...


    « Stéphane Richard, est également très critique à l'endroit du président américain. Le patron d'Orange explique être « contre toute idée de privatisation du réseau Internet. Si les Etats-Unis ont effectivement créé le web, et nous leur en sommes très reconnaissants, Internet est désormais le bien de l'Humanité. »

    Ha ? Il confond web et Internet ? Le web nous vient, entre autres, d'un britannique (Europe donc) au CERN (Europe bis).

    « Tout le monde contribue à son développement. Et notamment les opérateurs télécoms, qui investissent dans les infrastructures ». Interrogé par Les Echos, le responsable précise que : « l'Europe n'est pas le paillasson numérique de l'Amérique. Nous aussi, nous sommes capables d'innover ». »

    Ha ? On sent le troll neutralité des plateformes (faux débat alimenté par le monde des télécoms/opérateurs réseau pour retarder l'apparition de l'obligation de neutralité des réseaux dans la loi) qui s'approche. :) Il va recommencer avec son bullshit de "les télécoms > *" ? On rappellera que Orange n'a jamais cru en Internet et continuait son délire "Minitel va tout roxxer" ! Niveau innovation c'est sûr que c'est possible, la preuve : il y'a Internet et Internet par Orange (pas IPv6, pas de port tcp/25, DGSE, ...). :)
    Sat Feb 21 21:49:25 2015 - permalink -
    - http://pro.clubic.com/actualite-e-business/actualite-754769-obama-orange-stephane-richard.html
    nomarkdown
  • Le source routing [simplifié en IPv6 uniquement] sous linux 3.12 et supérieur

    « En effet, avec une seule route par défaut, tous les paquets IP ressortiront via la même interface, pour ma part eth0. Auparavant il fallait jouer avec ip rules, créer plusieurs tables de routage et composer avec tout ça. Si cela vous intéresse, vous pouvez regarder sur lartc.org comment procéder. Pour ma part je trouve que ça fait un peu mal aux cheveux.

    Et bien depuis la version 3.12 du kernel Linux et la clause from, il suffit de deux commandes : ip -6 route add default dev tun0 from 2a00:5881:4008:400::/56 et ip -6 route add default dev eth0 from 2001:470:1f13:138::/64 si je veux répondre sur une IP dans chacun de ces réseaux, sur leur interface respective. Nous obtenons alors une table de routage du genre de :

    default from 2001:470:1f13:138::/64 dev eth0  metric 1024
    default from 2a00:5881:4008:400::/56 dev tun0  metric 1024
    2001:470:1f13:138::/64 dev eth0  proto kernel  metric 4
    2a00:5881:4008:400::/64 dev tun0  proto kernel  metric 256
    fe80::/64 dev eth0  proto kernel  metric 256
    default via fe80::250:fcff:fe4d:c3a4 dev eth0  metric 1024

    Ainsi, mon serveur saura quelle interface utiliser en fonction de l’adresse source. »

    Plus besoin de ip rule et table de routage multiples (voir http://shaarli.guiguishow.info/?xT-HMA), en v6 uniquement avec Linux >= 3.12 \o/
    Sat Feb 21 16:52:55 2015 - permalink -
    - https://www.swordarmor.fr/le-source-routing-sous-linux-312-et-superieur.html
    nomarkdown
  • /dev/posts/ - Recursive DNS over TLS over TCP 443

    « You might want to use an open recursive DNS servers if your ISP's DNS server is lying. However, if your network/ISP is intercepting all DNS requests, a standard open recursive DNS server won't help. You might have more luck by using an alternative port or by forcing the usage of TCP (use-vc option in recent versions of glibc) but it might not work. Alternatively, you could want to talk to a (trusted) remote recursive DNS server over secure channel such as TLS: by using DNS over TLS over TCP port 443 (the HTTP/TLS port), you should be able to avoid most filtering between you and the recursive server.

    [...]

    The GNU libc resolver has an (undocumented) option, use-vc (see resolv/res_init.c) to force the usage of TCP for DNS resolutions. This option is available since glibc v2.14 (available since Debian Jessie, since Ubuntu 12.04).

    In /etc/resolv.conf:
    options use-vc
    nameserver 2001:913::8

    [...]

    Other libc implementations:
        * The OpenBSD libc seems to have a tcp option for this.
        * Neither the FreeBSD libc, nor the DragonFlyBSD libc, nor the NetBSD libc, not the bionic libc (used by Android and FirefoxOS), nor the Mac OS/X / Darwin libresolv, seem to have a similar option.
        * dietlibc does not handle the options at all (and does not support RES_USEVC and DNS/TCP).
        * uclibc and musl do not have the option and does not handle DNS/TCP at all.
        * klibc do not have real DNS resolution.

    Similar libraries:
        * getdns does not handle the options field at all.

    [...]


    However, AFAIK, unbound currently (v1.5.1) does not verify the validity of the remote X.509 certificate (see connect_sslctx_create which is always called without the verifypem argument). In order to avoid MITM attacks, you might want to add a local stunnel between unbound and the remote DNS server.
    [NDLR : 'tain... Tout le code derrière (if(verifypem && verifypem[0]) -> if(!SSL_CTX_load_verify_locations(ctx, verifypem, NULL)) [on indique où se trouve les certifs d'AC.] -> SSL_CTX_set_verify(ctx, SSL_VERIFY_PEER, NULL) [vérification, SSL_VERIFY_PEER « the server certificate is verified. If the verification process fails, the TLS/SSL handshake is immediately terminated »] ) est prêt en plus :(  Je ne suis pas surpris, on avait ce même comportement de non authentification dans des librairies standards de certains langages comme python, php/curl, php/streams wrapper... et donc de vulnérabilité complète à une attaque active... ]

    [...]

    What about DNSSEC?
    If your local resolver verify the authenticity of the DNS reply with DNSSEC, it will be able to detect a spoofed DNS reply and reject it. But it will still not be able to get the correct reply. So you should use DNSSEC but you might still want to use DNS/TLS. »
    Thu Feb 19 22:03:27 2015 - permalink -
    - http://www.gabriel.urdhr.fr/2015/02/14/recursive-dns-over-tls-over-tcp-443/
    nomarkdown
Links per page: 20 50 100
◄Older
page 53 / 99
Newer►
Mentions légales identiques à celles de mon blog | CC BY-SA 3.0

Shaarli - The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community