5960 links
  • GuiGui's Show

  • Home
  • Login
  • RSS Feed
  • Tag cloud
  • Picture wall
  • Daily
Links per page: 20 50 100
◄Older
page 190 / 298
Newer►
  • Proposed Directive establishing the European Electronic Communications Code | Digital Single Market

    À peine la dernière modif' du paquet télécom terminée (c'était celle sur, entre autres, neutralité du réseau, roaming, tout ça), la Commission européenne a déposé, sur le bureau du Parlement européen, un projet de directive européenne afin de créer un Code des télécoms, unique et européen. Ça semble bien dit comme ça genre toute la doc' au même endroit, sauf qu'évidemment, la Commission en profite pour en réécrire une majorité.

    Pour mesurer à quel point ça craint, il suffit de lire le communiqué de presse ( http://europa.eu/rapid/press-release_IP-16-3008_fr.htm ) :

    • Il faut faire ce Code parce que les télécoms vont nécessiter plus de 500 milliards d'investissements dans la décennie à venir et que l'essentiel proviendra des acteurs privés (par obligation, la Commission n'envisage même pas le public…). Comprendre : il faudra les choyer pour que les privés investissent. Au point de céder sur la neutralité des réseaux, par exemple ?! ;

    • « Le code n'appliquera une réglementation au marché que lorsque l’intérêt de l’utilisateur final l’exige et que les accords commerciaux entre opérateurs débouchent sur une situation non concurrentielle. ». Traduction ? Toujours plus de concurrence et de main invisible du marché pour réguler, les régulateurs s'occuperont uniquement des atteintes les plus graves ;

    • Ça cause aussi de soumettre les services Internet concurrents à des services télécoms (genre Skype, VPNs, etc.) à la même réglementation que les opérateurs. Ça apporte des droits et libertés aux utilisateur-rice-s, ça empêche ces services de faire de la merde. Oui. Mais il y a aussi le fait de se soumettre aux écoutes aka à la surveillance. Cas historique de Skype, par exemple. Attention, à ce que l'on souhaite, donc.

    • Je note aussi que la Commission parle de plusieurs Gbps symétriques pour les connexions des grands acteurs socio-économiques privés ou publics mais de seulement de quelques centaines de Mbps, uniquement en téléchargement, pour les autres. Graaaaah.



    Pour le reste, je reprends ce qu'à écrit Benjamin Bayart :

    Ce sera probablement débattu devant le Parlement Européen pendant 12 à 24 mois. Avec amendements, rapports, modifications, tractations, etc. Des quelques premiers éléments qu'on a, le texte est mauvais. Il vise à créer un seul grand marché des télécoms en Europe, avec une concurrence libre et non faussée entre 3 ou 4 opérateurs à échelle du continent, de ce qu'on en comprend pour le moment. »



    So much dreams, isn't? :'(

    Wed Sep 21 21:18:49 2016 - permalink -
    - https://ec.europa.eu/digital-single-market/en/news/proposed-directive-establishing-european-electronic-communications-code
  • La Fédération FDN répond à la consultation de l'Arcep sur le marché fixe | Fédération FDN

    L'ARCEP a soumis à consultation publique l'analyse qu'elle fait du marché [ NDLR : des accès à Internet ] fixe. [...] Cette analyse du marché fixe est importante, car elle permet au régulateur des télécoms de constater les manquements du marché, les orientations à suivre et les décisions à acter.

    Dans les grandes lignes, la Fédération a évoqué les sujets suivants :

    • Montrer les biais de l'analyse faite par l'ARCEP : considérer le marché comme unique remède à tous les maux, ignorer les petits opérateurs en général, et tout modèle autre qu'industriel en particulier, centrer son analyse sur les opérateurs et pas sur l'utilisateur final ;
    • Souligner le manque de concurrence sur la boucle locale fibre : l'abonné moyen a, au mieux, le choix entre deux opérateurs, quand tout va bien, aucune possibilité de nouvel entrant de petite taille : exclusions des opérateurs locaux, des associatifs ;
    • Souligner que la boucle locale dite "mutualisée" est en fait un monopole local, sur une zone géographique, par une joint-venture de gros opérateurs qui s'entendent ; Proposer une obligation, pour ce monopole, de fournir une offre activée pour remédier l'absence de concurrence, permettre l'existence des petits opérateurs, et ouvrir le marché des entreprises vers la fibre optique ;
    • Exposer les possibilités, en matière de déploiement de boucle locale, qu'offre le modèle mis en œuvre par la Fédération FDN sur la boucle locale radio et la boucle locale fibre.

    Nous espérons que ce travail sera pris en compte par le régulateur afin de ne plus retarder l'ouverture du marché de la fibre optique en France.



    J'avais déjà évoqué cette consultation et donné mon avis dans un autre shaarli : http://shaarli.guiguishow.info/?9VVNag . Je ne reviens donc pas sur la terminologie.

    Ci-dessous, le contenu de la réponse de la FFDN avec plus de détails que le TL;DR ci-dessus.


    Biais de méthodologie

    • Le marché et la régulation sont des moyens, non une fin en soi. L'ARCEP devrait analyser et réguler en faisant un focus sur l'intérêt général. Or, ce dernier est totalement absent de l'analyse.

    • Les petits opérateurs, ceux avec des chiffres d'affaires insignifiants, ne sont pas considérés par l'ARCEP alors qu'ils ont des avantages : proximité des abonnés, éthique, adaptation aux territoires et aux gens, savoir-faire de terrain, etc.

    • L'analyse de la concurrence par l'ARCEP se focalise sur les opérateurs sans jamais s'intéresser aux abonné-e-s alors que cet angle fait apparaître des manquements de la régulation. Exemple, sur la fibre optique, l'ARCEP compare les parts de marché sans se demander : le jour du raccordement de son immeuble (construction du PM), est-ce que l'abonné-e a le choix de son opérateur ? Dans la théorie du cadre réglementaire, oui. Dans la pratique, non, il n'aura accès qu'à l'opérateur commercial dont l'opérateur d'immeuble intégré aura construit le réseau. L'opérateur co-financeur du réseau arrivera plusieurs mois après. Et l'abonné-e ne verra probablement jamais un troisième opérateur venir raccorder sa piaule.

    • L'ARCEP a du mal à identifier quand il n'existe pas d'offre parce qu'il n'y a pas de demande ou parce qu'il n'y a pas d'offres. C'est typiquement sur les offres d'accès de gros allumées sur fibre optique : le régulateur constate qu'il n'y a pas d'offres dans les ZTD et ZMD-AMII tout en restant bloqué sur "peut-être qu'il n'y a pas de demandes ?" ! L'absence de ce marché est problématique en soi, je vais y revenir. Cela est donc un paravent que l'ARCEP installe devant elle pour éviter d'avoir à se bouger.

    • En 2015, l'ARCEP a pris une décision en défaveur d'Orange qui facturer son offre LFO en fonction de l'usage qui en était fait par l'opérateur locataire. Genre Free Mobile qui veut collecter du trafic de la boucle locale cuivre ou fibre, c'est tel tarif. Par contre, si c'est pour collecter du trafic provenant d'une antenne de téléphonie, alors c'est plus cher. On voit bien ici que le but est de retarder Free Mobile ! Un opérateur doit être neutre. C'est le sens du règlement européen sur la neutralité des réseaux en ce qui concerne les accès Internet vendus au détail. Reste plus qu'à extrapoler ça sur les offres de gros. LFO, c'est fait. Reste génie civil et compagnie.

    • Le débit montant est le plus important. C'est lui qui est le marqueur de nouveaux usages : TVIP 4k fluide, envoi de fichiers plus rapides, vidéoconférence qui saccade moins, etc. C'est pour cela que la FTTH n'a rien à voir avec du câble à 5 mbps d'upload.

    • L'ARCEP se trompe quand elle analyse le marché pro sous l'angle des offres avec GTR : la GTR est une garantie. Les offres pros sont plus des offres avec des besoins et des services particuliers qu'une offre sur laquelle on appose une garantie et des pénalités en cas de son non-respect.


    Offres d'accès de gros activées

    • Elles permettent l'émergence et l'existence d'une grande variété de petits opérateurs ;

    • Elles fluidifient le marché en cela qu'elles rendent possible et simplifient le changement d'opérateur par un-e abonné-e ;

    • Elles évitent les monopoles / duopoles / oligopoles sur les boucles locales ;

    • Elles sont source de revenus pour les opérateurs qui les proposent d'où un meilleur taux de remplissage des infrastructures de l'opérateur constructeur de la boucle locale ;

    • Elles permettent d'éparpiller le savoir-faire, la connaissance des réseaux, l'ingénierie des réseaux partout en France au lieu que tout cela reste à Paris. La connaissance des réseaux est un indice de développement des territoires. Ce point entre dans la mission « aménagament des territoires » confiée à l'ARCEP par l'article 42-1 du CPCE.

    • Expliquer que garantir l'ouverture du marché en offres de gros passives permettra l'apparition d'une offre de gros active est une mauvaise lecture de l'histoire. L'expérience de l'ADSL montre le contraire : des offres de gros activées sont apparues très tôt sur le marché. Tarder à forcer l'apparition d'une offre de gros allumée sur la fibre fera que les petits acteurs s'essouffleront et disparaîtront. Il faut une offre de gros activée sur chaque boucle locale optique dès aujourd'hui.

    • Envisager l'émergence d'un troisième opérateur co-investisseur sur le passif qui proposerait une offre de gros activée est pas top : un seul acteur = monopole. Il vaut mieux apporter le terreau pour que plusieurs opérateurs soient en mesure de proposer des offres de gros activées. De plus, il est peu probable qu'un acteur émerge s'il sait d'avance qu'il sera régulé dès qu'il montrera le bout de son nez.

    • L'idée de faire émerger une offre de gros activée sur la fibre spécialement pour le marché des entreprises est pas top : une offre de gros activée généraliste sur laquelle on peut greffer de la QoS, des services et des garanties sera plus adaptée car elle apportera de la souplesse (une même offre sur plusieurs marchés).


    Boucle locale et mutualisation

    • Les boucles locales (cuivre, fibre, câble, radio, etc.) sont des infrastructures essentielles et des monopoles de fait. Elle devrait donc être une propriété publique. Pour la culture, la Constitution de 1946 dit précisément cela, plus celle de 1958. On aurait donc une séparation claire entre les opérateurs de boucles locales et les opérateurs commerciaux. Cela va à l'encontre du credo de l'UE de concurrence par les infras mais cela éviterait les monopoles privés. La mutualisation est peut-être plus efficace mais elle entraîne ce problème.

    • Le non-engagement de la puissance publique dans les ZTD et ZMD-AMII dès lors qu'un opérateur déclare y allait aurait dû être "échangé" contre une obligation, pour ces mêmes gros opérateurs, de venir sur les RIP.


    Transparence

    • Ça serait top d'avoir un système d'information (SI) sur le génie civil d'Orange mais aussi sur celui d'autres structures (collectivités, ErDF, etc.) permettant à un nouvel opérateur de savoir quelles sont les infrastructures mobilisables pour monter des boucles locales. Même chose pour les boucles locales optiques : avoir plus d'informations, de manière unifiée, ça serait top. Hé oui, y'a toujours cette idée d'un SI commun sur la fibre qui permet d'obtenir les opérateurs et les infras à partir d'une adresse.

    • En prolongement, ça serait cool qu'utiliser le génie civil existant ne nécessite pas de commander des études préalables pour des choses que l'opérateur sait faire car si s'agit d'une barrière tarifaire à l'entrée. Les infos dont on parle dans le point précédent devraient être disponibles dans des formats ouverts sinon il s'agit d'une barrière technique et financière à l'entrée. Enfin, afin d'éviter une barrière réglementaire, ça serait top que l'ARCEP n'organise pas trouze-mille groupes de travail (et consultations, aussi :- ) auxquels seuls les services des gros opérateurs peuvent participer.


    L'ARCEP ne doit pas se désengager du cuivre

    • Le cuivre va perdurer plusieurs décennies dans des zones qui subissent déjà la fracture numérique de plein fouet. Dans le Calvados, par exemple, il est prévu de fibrer les derniers bleds en 2037 ! Sans compter que tous les gros chantiers ont toujours du retard. Il est très fort probable que l'ARCEP aura encore des différends à régler, de la régulation asymétrique à appliquer, etc.

    • Se désengager trop tôt du cuivre amplifiera la fracture numérique : les zones déjà défavorisées subiront les défauts d'un marché non régulé en plus de l'absence de fibre. Cumul des inégalités et de la discrimination entre les territoires.

    • C'est toujours dans les périodes de transition que les atteintes (commerciales ou aux droits) sont les plus fortes :
      • Réduction du nombre d'opérateurs auxquels un particulier ou une entreprise peut souscrire. On a donc une réduction de la liberté de choix des gens ;

      • Quand FDN ne parvenait pas à signer un contrat de collecte ADSL au début des années 2000, son nombre d'adhérents a fortement diminué. Sur la même période de nombreux opérateurs qui opéraient sur le bas débit sont morts ou ont fusionnés


    Solutions de repli pour les territoires qui n'auront pas la fibre dans les 10 prochaines années

    • 4G / satellite : débit partagé, ça ne permet ni les usages de demain ni même de produire et diffuser des contenus et services depuis chez soi. La latence du satellite exclut tous les usages interactifs.

    • Effectuer de la montée en débit cuivre puis un fibrage revient plus cher que de juste déployer de la fibre. Sans compter que les collectivités territoriales qui auront financé de la fibre ne pourront pas financer de la fibre juste après.

    • La fibre est la seule technologie qui supprime les disparités, les inégalités entre lignes : les caractéristiques (débit, latence), ne changent pas vraiment en fonction du nombre d'utilisateurs connectés simultanément ni en fonction de l'état de la ligne et de son ancienneté ni en fonction de la distance depuis le central téléphonique.

    • Il faut envisager d'autres solutions palliatives mais ça nécessite de s'adapter aux territoires, d'arrêter de concevoir le réseau depuis un point donné du territoire en espérant que ça s'applique partout pareil. Il faut encourager les initiatives (associatives ou non) de construction de boucles locales radio / fibre. Le Wi-Fi point-à-point (unidirectionnel) permet des débits de 30 à 50 mbps symétriques, ce n'est pas à négliger. Il faut que les élu-e-s arrêtent de penser qu'il n'y a qu'Orange qui a le droit de déployer des réseaux de communications électroniques en France !

    • Le fait de déployer des boucles locales n'empêche pas ces structures d'avoir recours à des offres de gros allumées qui peuvent servir à collecter le trafic et à le faire remonter jusqu'à un datacenter ainsi qu'à agir sur d'autres supports si ceux-ci sont plus adaptés à une zone géographique.
    Wed Sep 21 20:10:06 2016 - permalink -
    - https://www.ffdn.org/fr/etude/2016-09-20/la-federation-fdn-repond-la-consultation-de-larcep-sur-le-marche-fixe
  • error: clamav-freshclam:1 duplicate log entry for /var/log/clamav/freshclam.log

    À chaque mise à jour du paquet clamav, j'ai le droit à un mail de cron lors de l'éxecution nocturne de logrotate :

    /etc/cron.daily/logrotate:
    error: clamav-freshclam:1 duplicate log entry for /var/log/clamav/freshclam.log

    /etc/logrotate.d/clamav-daemon et /etc/logrotate.d/clamav-freshclam englobent tous les deux le fichier /var/log/clamav/freshclam.log . clamav et freshclam nécessitent tous les deux une action différente en post-rotate.

    Ça n'a pas été patché depuis des années…

    Le plus simple est de faire porter /etc/logrotate.d/clamav-daemon sur le seul fichier /var/log/clamav/clamav.log au lieu de /var/log/clamav/*.log :

    sudo dpkg-divert --add --no-rename --divert /etc/logrotate.d/clamav-daemon.dpkg-dist /etc/logrotate.d/clamav-daemon
    sudo sed -i  's,\*,clamav,' /etc/logrotate.d/clamav-daemon

    Oui, ça fout le zouk si clamav utilise un fichier de log supplémentaire ou un nouveau fichier de log. Mais ça n'a pas été le cas depuis des années donc bon…

    Mon Sep 19 09:16:51 2016 - permalink -
    - http://shaarli.guiguishow.info/?9-W85Q
  • Chiffrement de Vernam ou « comment (ne pas) faire de la cryptographie (comme Blind Eagle) »

    De très bons rappels sur le chiffrement de Vernam suivis de mises en garde sur un projet de crypto-bullshit post-Snowden de plus… À lire, au moins les rappels sur Vernam.

    Le chiffrement de Vernam (ou masque jetable, ou OTP (One Time Pad)) est un système de chiffrement inventé en 1917 par Gilbert Vernam. Il a pour particularité d’être prouvé mathématiquement comme incassable, c’est-à-dire qu’il n’existe et n’existera jamais de méthode plus efficace que la force brute pour tenter de déchiffrer un message codé sans connaître la clef de chiffrement.

    [...]

    Ce système est effectivement incassable puisque toute clef K déchiffrera quelque chose. Mieux, il est toujours possible de trouver une clef K′ tel que le déchiffré de C donnera n’importe quel texte donné. Vous aurez donc beau tester les 2X clefs possibles, vous n’obtiendrez rien d’autre que l’ensemble des 2X messages possibles, certains n’ayant littéralement aucun sens, d’autres formant des textes parfaitement sensés et un seul étant le message réel.

    Ce protocole incassable n’est réellement incassable qu’à 3 conditions.

    • La clef doit être au moins aussi longue que le message à chiffrer. En effet, la cryptographie a horreur des répétitions, et utiliser la même clef pour chiffrer plusieurs bouts du message conduit aux mêmes attaques que pour le chiffrement ECB.
    • La clef doit être vraiment aléatoire. Pas question d’utiliser un générateur pseudo aléatoire, puisqu’un attaquant s’attaquera alors à bruteforcer ce CSPRNG pour trouver la clef en moins de 2X essais.
    • La clef ne doit jamais être réutilisée. Sinon on tombe à nouveau dans les problèmes de réutilisation de clef.

    La clef doit être générée par un processus réellement aléatoire. Cela nécessite du matériel dédié, utilisant des processus physiques aléatoires pour générer de la donnée, par exemple la désintégration atomique, le bruit thermique ou des phénomènes quantiques.

    Ce matériel doit être sous votre entier contrôle, il est inenvisageable que quelqu’un d’autre ait accès à ce matériel et aucun intermédiaire ne saurait être suffisamment de confiance pour vous fournir de telles données.[...] Dans le cas contraire, il serait en effet très facile pour un attaquant de compromettre cette machine par un procédé quelconque ou de soudoyer un intermédiaire pour vous délivrer du faux aléatoire. Un tel déploiement de matériel et de sécurité donne à un tel système un coût très largement prohibitif, surtout comparé à la sécurité supplémentaire réellement apportée par rapport à des systèmes à coût négligeable comme AES (ou CHACHA20 si vous avez peur de la NSA).

    Le problème du chiffre de Vernam est que tous les correspondants doivent posséder une copie de la clef et surtout que cette clef ne peut pas être transmise sur un canal non fiable.

    Si on suppose un canal informatique fiable, alors Vernam est sans intérêt puisqu’on aurait tout intérêt à utiliser ce canal pour échanger directement les données plutôt que la clef. Une rencontre physique juste avant l’établissement d’un canal protégé par Vernam est aussi un non-sens, puisqu’on aurait alors mieux fait de s’y échanger les données au passage… Il n’y a donc pas d’autre moyen d’échange de la clef qu’une rencontre physique très antérieure à la communication chiffrée.

    Le coût en devient tout aussi prohibitif et dans tous les cas peu utilisable en pratique par le commun des mortels.
    Comme pour la génération, l’absence de tiers de confiance (rencontre physique des correspondants) est plus abordable mais généralement difficile à organiser, l’utilisation de moyen informatique étant souvent là pour compenser de l’éloignement physique (communication trans-nationale) ou de l’impossibilité de déplacement (correspondant en situation délicate dans son pays).

    On voit aussi que Vernam nécessite autant de partages de clef que de tuples de correspondants et que la clef d’un correspondant A ne peut pas être utilisée pour échanger avec B.

    Chaque envoi de message nécessite l’utilisation d’une nouvelle clef, sous peine de compromettre la sécurité du système. Étant donné la difficulté de génération et de transmission de la clef, le chiffre de Vernam réclame donc la mise-en-œuvre d’une sorte de dictionnaire de clefs. On va générer une très grosse quantité de données aléatoires (par exemple un fichier de 2Go), qu’on va transmettre en une seule fois lors d’une rencontre physique.

    Lors de l’envoi d’un message, on va alors piocher dans ce paquet de données pour générer notre clef, chiffrer notre message puis détruire les données de la clef (évite la réutilisation et une compromission ultérieure). Une manière de procéder est par exemple de lire le fichier de données séquentiellement et de le remplir de 0 au fur et à mesure de l’utilisation. Se posent du coup deux problèmes.

    D’abord, comment garantir que le(s) récepteur(s) auront bien encore toutes les données nécessaires à la génération de la clef. Le support des données aléatoires (disque dur, clef USB, feuille de papier…) peut en effet s’être dégradé avec le temps (on parle ici de plusieurs années de rétention potentielle), avec des secteurs endommagés, des trous, des bits inversés à cause du rayonnement cosmique (non, ce n’est pas une blague, une barrette de RAM de 4Go connaît un bit-flip tous les 5j à cause de ça)…

    Plus grave, une situation de compétition existe sur la consommation des données. Par exemple, si plus ou moins au même moment A envoie un message à B et consomme sa plage [X, X+M] alors que B envoie à A en consommant sa plage [X, X+N], quand A et B vont recevoir leur message, leur plage [X, X+min(M,N)] va déjà être consommée et aucun des deux n’aura accès à la clef permettant le déchiffrement ! (–edit– Un anonyme m’a fait remarquer dans les commentaires qu’en plus d’empécher le déchiffrement par les personnes légitimes, on a en fait chiffré deux messages avec un même bout de clef, et donc un attaquant potentiel peut lui calculer la somme des deux messages chiffrés pour obtenir les textes en clair…)

    On peut régler partiellement ces problèmes. On peut par exemple demander à avoir une clef différente pour chaque émetteur. Dans l’exemple précédent, si A utilise un cahier pour chiffrer avec B et un autre pour déchiffrer B, alors chaque va consommer sa propre première page pour le chiffrement, laissant intacte celle de déchiffrement. [...] On peut aussi imaginer ne détruire la clef qu’à l’émission et indiquer dans le message le numéro de page à utiliser pour le déchiffrement, mais alors on affaiblit la sécurité (disparition de la confidentialité persistante : si un cahier tombe, tous les messages précédemment émis sont compromis).

    Blind Eagle

    Blind Eagle vient de lancer un Kickstarter, et rejoint donc le cimetière des projets charlatans vous promettant le retour de l’être aimé votre vie privée. Ce projet se présente comme une solution totalement sûre puisque basée sur le chiffrement de Vernam qui est lui totalement sûr (en théorie seulement, comme montré précédemment).

    Déjà pour rappel, un projet qui se présente comme un 100% sûr, absolument indécryptable (sic), infaillible, vous pouvez être sûr que c’est juste du 100% absolument bullshit. Voir à ce sujet une très bonne FAQ (malheureusement en anglais) sur comment détecter un projet bullshito-crypto.

    Le projet annonce générer les clefs avec du matériel quantique (100% sécurité, audité, approuvé, certifié, fiable, whatever, sinon ce n’est pas drôle…). La qualité de l’aléatoire obtenu ne pourra de toute façon pas être contrôlée par l’utilisateur, puisque un tel système se doit d’être en écriture seule, en tout cas pour la partie de stockage des clefs (leur

    Même s’ils utilisent réellement un générateur quantique, le stockage des clefs et leur transmission va être un véritable challenge pour ne pas affaiblir la sécurité de Vernam. Ils annoncent une livraison en main propre sous emballage scellé, mais je les imagine mal assurer une livraison par leur soins et donc plutôt recourir à un transporteur tiers, réduisant à néant la sécurité du système.
    L’emballage scellé n’apporte rien en termes de sécurité puisqu’un scellé n’a de sens que s’il est identifiable par le récepteur (par exemple dans le cas de la cérémonie DNSSec, on s’assure que les scellés sont les mêmes que ceux de la dernière cérémonie). Une interception du paquet et un remplacement du scellé par un autre ne sera pas détectable.

    Dans tous les cas, Blind Eagle pourra conserver une copie des clefs générées, réduisant à nouveau la confiance en ce système à quelque chose proche de la constante de Planck. Pire, Blind Eagle ne se cache pas de les conserver pour faire fonctionner leur système en mode « solo » (voir juste après).

    [...]

    Un des modes de fonctionnement (« solo ») de Blind Eagle permet de s’affranchir (ie. de casser tout le système de Vernam…) de l’échange de clef en introduisant un point de centralisation. Vernam impose en effet que l’émetteur et le destinataire procèdent à un échange de clef avant la communication, ce qui est difficile à réaliser en pratique. Blind Eagle va alors plutôt faire du chiffrement entre vous et eux, puis entre eux et votre destinataire. Oh wait ! Ça ne serait pas exactement la notion de man-in-the-middle en cryptographie ?

    [...] On me signale en plus qu’ils ont l’ambition d’avoir plusieurs centres de données, donc votre clef privée va au pire se retrouver un petit peu partout sur la surface du globe, au mieux être centralisée à un seul endroit avec tout plein de machines y ayant accès… [...]

    Comme d’habitude en cryptographie, la sécurité n’est réellement possible qu’avec du logiciel libre, avec le code-source accessible et analysable par la communauté.

    Or ici, rien n’est publié, alors que ça devrait être l’action n°1 à réaliser, avant même toute communication officielle et mise à disposition du public, afin que la communauté crypto puisse faire les remarques nécessaires et évaluer réellement la sécurité de la solution proposée.

    [...]

    Mais où est donc votre cryptologue ? Un « expert » (même si je déteste ce mot) en sécurité ? Un papier de recherche appuyant votre méthodologie ou vos assertions sur votre système 100% fiable ?

    Non, rien de tout ça. Juste une équipe de personnes qui n’ont a priori pas touché à la sécurité au mieux depuis leur sortie d’école pour les techniques, au pire jamais de leur vie pour les autres.

    Au contraire, quand certaines personnes proches du domaine de la sécurité (Geoffroy Couprie par exemple, qui leur a gentiment proposé un audit, ou moi-même) leur ont posé des questions ou soulevé des problèmes, le projet a très vite fait n’importe quoi, allant jusqu’à publier des correspondances privées, ou même à supprimer leur tweets. Pour un projet prônant la confiance, la transparence et le respect de la vie privée, on repassera.

    [...]

    Ne dites donc plus jamais à vos utilisateurs que vous implémentez un Vernam ou que votre technologie est prouvée comme étant théoriquement sûre, ce n’est pas vrai et donc au mieux un mensonge, au pire une pratique commerciale déloyale. GPG, TLS, HTTPS ou OTR seront en tous points plus sécurisés que votre solution, même dans leur version la plus faible, jusqu’à preuve mathématique du contraire que vous devrez apporter.

    Sat Sep 17 18:06:37 2016 - permalink -
    - https://blog.imirhil.fr/2016/03/12/chiffrement-vernam.html
  • Développeurs, comment chiffrer vos données

    [...]

    Au commencement était ECB.

    Ce mode souffre du coup d’un énorme problème. Si plusieurs blocs contiennent les mêmes données, alors les blocs de sortie contiendront aussi les mêmes données ! Vous ne devez aussi jamais réutiliser la même clef pour chiffrer 2 messages différents. [...] Vous obtenez donc les données en clair XORées entre elles. Avec un peu d’analyse, on peut retrouver A et B.

    Dans les commentaires :

    Oui effectivement, j’aurais du préciser que l’ECB ou CBC présenté utilisait comme chiffrement de bloc un XOR, alors qu’en réalité, tu y mets ce que tu veux (AES et companie). Le XOR a l’avantage de bien exposer les problèmes d’ECB.

    Reprenons :

    Puis CBC apparu

    On voit que le soucis de ECB vient du fait qu’on réutilise la même clef pour tous les blocs, ce qui fait qu’à entrée (et donc clef) identique, la sortie sera identique. Vu qu’on ne maîtrise pas les données d’entrée, on ne peut jouer que sur la clef de chiffrement. Il faut trouver un moyen de la faire varier pour chaque bloc, pour qu’enfin à données identiques, on obtienne bien une sortie différente. La solution retenue est simplement d’utiliser la sortie du bloc précédent, de la mixer avec la clef et d’utiliser le résultat comme nouvelle clef de bloc [...] Les petits malins en mathématiques vont s’apercevoir d’un problème pour i=0. En effet, on n’a pas encore de bloc précédent pour mixer avec la clef… Du coup, on va résoudre cette étape avec une donnée aléatoire, appeler vecteur d’initialisation (IV)

    Bien que cela soit beaucoup moins critique que pour ECB, il ne faut à nouveau jamais réutiliser la même clef ou le même IV pour chiffrer 2 données. Un attaquant possédant 2 textes chiffrés par la même clef ou IV peut à nouveau en déduire des choses sur les données d’entrées.

    Il reste aussi un autre problème à résoudre. Les données chiffrées restent malléables par un attaquant potentiel, le fonctionnement des chiffrements ne pouvant en effet pas détecter une modification et toute entrée chiffrée conduit obligatoirement à une donnée en clair valide. [...] Sans rien connaître du texte en clair, l’attaquant est capable de le modifier sans que cette modification ne soit décelable.

    AEAD à la rescousse

    Afin d’authentifier plus fortement les données chiffrées, les cryptologues ont conçu un dernier mode de chiffrement : AEAD (Authenticated Encryption with Associated Data). Dans le cadre du chiffrement, le mode AEAD le plus connu est sans conteste GCM (Galois/Counter Mode).

    Je vous passe les détails techniques qui sont autrement plus complexes que les modes précédents, mais en l’utilisant, toute modification du contenu chiffré sera détecté, comblant cette lacune de CBC.

    [...]

    Implémentation concrète

    Implémenter du chiffrement correct n’est pas si simple. La difficulté vient du fait qu’on ne doit jamais réutiliser la même clef de chiffrement ni le même IV. La clef de chiffrement ne doit en plus jamais être communiquée au public (alors que l’IV peut l’être). Et en pratique, on souhaite pouvoir déchiffrer les données en s’échangeant uniquement un mot de passe.

    On peut régler tous les problèmes à partir d’une dérivation de clef PBKDF2. Partant du mot de passe, d’un sel généré aléatoirement et d’un nombre d’itérations, on peut calculer 2X bits aléatoire en calculant random = PBKDF2(password, salt, iterations, 2X) (en pratique, X = 128 ou 256). Ces 2X bits sont ensuite découpés en X bits de clef de chiffrement et X bits d’IV key, iv = random[0..X], random[X..2X]. Cette procédure garantie au passage que la clef et l’IV ne seront jamais réutilisés puisque à mots de passe identique, le sel sera différent donc la clef et l’IV aussi. On peut ensuite chiffrer proprement avec AES-X-GCM

    Sat Sep 17 17:38:40 2016 - permalink -
    - https://blog.imirhil.fr/2016/03/03/chiffrement-donnees.html
  • No more SSII

    Très intéressant feedback sur les SSII : actualisé, sans aigreur, avec des arguments fondés qui vont au-delà de la simple technique. J'en recommande la lecture.

    Ce texte a plutôt pour vocation à éclairer les futurs candidats sur les conditions qu’on peut rencontrer dans une SSII. Comme beaucoup maintenant, je considère qu’une SSII est un bon tremplin pour un jeune diplômé, mais qu’il faut aussi savoir tourner la page quand on sent que ça peut déraper.

    La diversité des domaines permet de monter en compétence rapidement et de toucher à plein de sujets et de technos différentes, chose qu’il est beaucoup plus difficile de réaliser sur un poste fixe dans une société standard où votre poste n’évoluera que très peu. Mais les conditions de travail n’y sont pas toujours très roses, et il faut en avoir conscience, surtout si comme moi on a des difficultés à ne pas pouvoir faire son travail correctement (au sens de l’état de l’art).

    [...]

    2012 . L’année charnière. La crise est passée par là (même si elle a à mon avis bon dos), les relations clients deviennent plus difficiles. Les budgets ne sont plus là, les délais non plus. Les projets continuent à rentrer mais la concurrence entre SSII fait que les prix sont tirés vers le bas, chacun voulant rentrer des projets et les volent aux autres en massacrant les prix. Les clients n’ont plus les yeux en face des trous et en tout cas des moyens totalement décalés par rapport à leurs besoins.

    Les clients ont commencé à inventer de nouveaux modes de gestion de projet, avec des notions de « POC (preuve de concept) » (comprendre du code kleenex que si ça marche on garde, si ça ne marche pas on jette, et que dans les 2 cas, on cherche à ne pas payer le fournisseur quand même), de « challenge » (comprendre qu’on sait que c’est infaisable ce qu’on demande mais que tu pourrais quand même faire un effort quoi).

    Les méthodes agiles ont aussi eu le malheur de devenir le buzz-word du moment, et du coup sont apparues dans les plaquettes et propositions commerciales. Sauf qu’elles sont devenues la justification pour faire n’importe quoi, comme ne plus du tout faire de spécification, supprimer les tests unitaires ou la revue de code, ou encore livrer n’importe quoi très vite.

    Les développeurs se retrouvent du coup avec des projets sous-vendus (50 à 100 jours max) et une qualité technique massacrée. L’intégration continue a disparu des écrans radars, tout comme la revue de code. Les équipes ne sont plus formées, le niveau technique global chute drastiquement, les « têtes » qui tenaient les projets à bouts de bras partent. Les chefs de projet senior sont remplacés par des juniors qui n’ont de chef ni la formation ni la volonté ni le charisme nécessaire pour tenir tête aux commerciaux et à la direction. Il n’y a même plus vraiment d’équipe projet, ou alors se résumant à un développeur débutant encadré par un développeur à peine plus senior propulsé chef de projet, tout étant dorénavant géré par les commerciaux en pratique.

    2015 . Le coup de grâce. Les buzz-words sont de retour. « Big-data », « cloud », « IoT », « cyber-sécurité ». Plus aucun appel d’offre ne sort sans en contenir plusieurs sinon tous. On fait n’importe quoi, et cette fois non seulement d’un point de vue commercial et technique, mais aussi, et c’est encore plus grave, d’un point de vue éthique. Les projets qui dépassent les 10 jours-hommes se comptent sur les doigts d’une main et ceux avec plus de 2 personnes affectées dessus aussi.

    [...]

    Vous l’aurez compris, je ne me sens dorénavant plus à ma place. Je n’ai plus le temps ni les ressources pour faire correctement ce que j’estime être mon travail.

    Techniquement, je n’ai plus le temps de faire de revue de code, de former les nouveaux arrivants ou de mettre en place les outils pour faire du code de qualité, parce que les commerciaux gardent la main sur l’ensemble des manettes et ont transformé les ingénieurs en techniciens voire en ouvriers. Pas étonnant que les Chinois ou les Indiens grignotent de plus en plus le marché, ils coûtent 10× moins chers pour une médiocrité équivalente.

    Éthiquement, les projets réalisés sont de plus en plus en contradiction avec mes idéaux, avec des objets connectés où la sécurité est bien le dernier des soucis et où la vie privée n’existe plus, même en option. Parce que le discours commercial ambiant est en contradiction totale avec les nécessités techniques, surtout dans une ère post-Snowden.

    Humainement parlant, les délais sont intenables, le stress élevé, la pression aussi. Les moyens ne sont plus suffisants pour travailler, j’en arrive même à devoir héberger des projets sur mes propres machines parce que ceux qui devaient faire cette partie ne veulent/peuvent/savent pas le faire, faute de moyens et de temps. Parce que la rentabilité ne peut être maintenue qu’en sur-exploitant le personnel.

    J’ai déjà plusieurs fois alerté ma hiérarchie sur les problèmes rencontrés, ça a conduit au mieux à tenter de me retourner les neurones à coups de justification bullshitto-marketo-commercialo-financier, en général à aucune action sérieuse qui suit et au pire à des prises de bec de plus en plus violente.

    [...]

    Le travail en SSII est aussi un coup de roulette russe permanent, une épée de Damoclès. Si vous avez la chance de réussir à rester plus ou moins sédentaire au sein du bureau d’études pour réaliser les projets forfaitisés, vous pouvez contrôler a minima l’impact de votre vie professionnelle sur votre vie personnelle.

    Mais si vous avez le malheur d’être envoyé en mission, parfois à l’autre bout de l’Île-de-France, vous pouvez être baladé tous les X temps (X variant de 3 mois à 10 ans) d’un client à l’autre, d’un lieu à l’autre, dans des conditions qui en plus sont théoriquement illégales au vu du Code du Travail (délit de marchandage et prêt de main d’œuvre illicite).

    Si vous êtes parmi les chanceux du premier groupe, vous n’avez en plus pas intérêt à devenir le petit caillou dans la chaussure du service, sinon le second groupe vous tend rapidement les bras. Comme on dit, en SSII, le licenciement n’existe pas, on appelle ça « partir en mission »… :)

    Dans mon cas, mon dernier départ en mission a aussi été synonyme du sacrifice de ma vie associative et collaborative. Il est en effet bien difficile de trouver du temps libre et de la motivation pour travailler sur des projets personnels quand vous faites 8h-20h « effectif » tous les jours, dont 3h de transport dans les bouchons (non comptés dans les temps de travail, merci la SYNTEC !). C’est à mon avis ce sacrifice qui a accéléré ma décision de partir.

    Sat Sep 17 17:03:08 2016 - permalink -
    - https://blog.imirhil.fr/2016/07/21/no-more-ssii.html
  • Cash Investigation sur l’Agroalimentaire et la santé : bon appétit ! | DATA VISUALIZATION & SOCIAL NETWORK ANALYSIS

    Le dernier Cash Investigation sur la santé et l’agroalimentaire a confirmé la recette qui a fait le succès de l’émission : un angle polémique contre une industrie qui pèse 170 milliards de chiffre d’affaires en France, avec un montage qui ne peut que mettre en difficulté les dirigeants et/ou communicants interrogés par Elise Lucet. Quand on sait que les français ont de moins en moins confiance dans les grands groupes, cette recette ne peut que prendre … et force d’ailleurs les entreprises mises en cause à jouer le jeu de l’émission, voir à ouvrir leurs portes, comme l’a fait Fleury Michon – pour le coup très peu mise en cause, une façon d’inciter à la transparence ?

    [...]

    [...] Ici néanmoins, si certains tweets / articles ont critiqué l’émission, on constate globalement que les différentes communautés, au-delà du soutien à l’émission et à sa présentatrice, correspondent à différents protagonistes du reportage. Il y a ceux qui en ont tiré parti, et ceux qui ont dû composer avec des réactions hostiles [...]

    Pour une fois, le sujet qui fait le plus réagir les twittos correspondait à la dernière partie de l’émission, à savoir les stratégies de lobbying autour de l’étiquetage alimentaire. [...]

    Si cette initiative a connu un succès mitigé (214 mentions du hashtag #askania contre 757 pour #ania), elle a atteint son premier objectif : détourner l’attention des twittos des entreprises mises en cause, pour s’attaquer au lobby en tant que tel. L’Ania a ainsi reçu 1300 mentions de plus que la société Herta France. Hors aucun risque de voir la marque Ania en faisant ses courses ! [...]

    Soyons réalistes : le fonctionnement de l’émission fait que les industriels et politiques publics mis en cause n’ont d’autre option que d’avouer et assumer les éléments pour lesquels ils sont mis en cause. Thierry Mariani, dans la même émission où Rachida Dati avait été épinglée, avait pour sa part assumé et même revendiqué ses liens avec l’Azerbaïdjan, tout comme la sénatrice Nathalie Goulet. Résultat des courses ? Très peu de commentaires négatifs. De la même façon, le représentant européen du lobby des pesticides n’avait pas nié leur dangerosité pour la santé, et avait adroitement renvoyé la balle aux politiques pour l’évolution de la réglementation.

    Car après tout, dans la limite bien évidemment du respect de la loi et des mesures de précautions liées à l’activité de chaque entreprise, ce n’est pas au lobbyiste de rendre des comptes, mais bien aux élus : c’est pour cela que ce sont eux qui se font en général le plus étriller. [...]

    Sat Sep 17 16:37:52 2016 - permalink -
    - https://cartorezo.wordpress.com/2016/09/15/cash-investigation-sur-lagroalimentaire-et-la-sante-bon-appetit/
  • Grégocentrique sur Twitter : "MON CONSEIL POUR LES GENS QUI SOUHAITENT SORTIR DU LOT : Prendre l'A20 direction Toulouse"

    MON CONSEIL POUR LES GENS QUI SOUHAITENT SORTIR DU LOT : Prendre l'A20 direction Toulouse

    :DDDD

    (Lot = département).

    Sat Sep 17 02:36:59 2016 - permalink -
    - https://twitter.com/gregocentrique/status/766989189237841920
  • Blog Stéphane Bortzmeyer: RFC 7816: DNS query name minimisation to improve privacy

    La meilleure façon de protéger les données contre la surveillance, c'est de ne pas avoir de données. Ce principe de base de la protection de la vie privée est souvent oublié. C'est pourtant un des deux piliers de la confidentialité, avec la protection technique des données. Le DNS a pendant longtemps transmis trop de données, et ce RFC décrit une technique qui va limiter les fuites, la QNAME minimisation, ou « réduction de la question posée ». [...]

    Si vous regardez les vidéos sur le fonctionnement du DNS (comme celle-ci) ou lisez les textes expliquant « le DNS pour les nuls », vous y trouverez souvent une fausse explication de la résolution DNS, où les serveurs faisant autorité ne reçoivent que la question strictement nécessaire. Ainsi, dans la vidéo citée ci-dessus, le serveur de la racine reçoit une question où ne figure que le TLD. Mais la réalité du DNS, aujourd'hui, est tout autre : les serveurs faisant autorité reçoivent la totalité de question originale. Ainsi, si vous visitez www.alcooliques-anonymes.fr, la racine voit que vous vous intéressez à l'alcoolisme, alors que ce n'était nullement nécessaire pour son travail (puisqu'elle ne connait que les TLD). Si votre logiciel BitTorrent demande _bittorrent-tracker._tcp.domain.example, les serveurs faisant autorité pour .example sauront que vous faites du BitTorrent, alors qu'ils ne connaissaient que les domaines situés immédiatement sous .example. [...]

    Dans le dernier cas, pour que la résolution se passe bien, il aurait suffit de demander à la racine « quels sont les serveurs de noms de .example » et à ces serveurs « quels sont les serveurs de noms de domain.example ». C'est le principe de base de la QNAME minimisation.

    Bien sûr, on pourrait chiffrer le trafic DNS (et le groupe de travail DPRIVE de l'IETF travaille précisément sur ce sujet). Mais cela ne protège que contre un tiers écoutant le réseau : les serveurs faisant autorité verraient quand même les données et pourraient en faire ce qu'ils veulent. [...] Lorsqu'on parle de vie privée, pas mal d'informaticiens réagissent en criant « cryptographie ! » alors que celle-ci ne protège pas contre tout et notamment pas contre le serveur à qui on parle.

    Et pourquoi est-ce que les résolveurs DNS envoyaient la question complète (full QNAME où QNAME veut dire Query NAME) ? Uniquement parce que la protection de la vie privée n'était pas tellement prise en compte à l'époque ? Pas uniquement : il y avait quelques raisons techniques spécifiques à l'époque (le RFC les détaille mais, surtout, il ne faut pas oublier que toutes les décisions concernant le DNS n'ont pas forcément été mûrement réfléchies).

    Pour les personnes curieuses comme moi, cette raison est :

    Sending the full QNAME to the authoritative name server is a tradition, not a protocol requirement. In a conversation with the author in January 2015, Paul Mockapetris explained that this tradition comes from a desire to optimise the number of requests, when the same name server is authoritative for many zones in a given name (something that was more common in the old days, where the same name servers served .com and the root) or when the same name server is both recursive and authoritative (something that is strongly discouraged now). Whatever the merits of this choice at this time, the DNS is quite different now.

    On retrouve toujours ce principe d'optimisation dans la gestion des glue record par Verisign, voir http://www.guiguishow.info/2013/09/11/dns-glue-records-netcomorg-et-error-2003/ .



    Revenons au billet de blog :

    La section 2 décrit la QNAME minimisation. Elle est mise en œuvre dans le résolveur DNS (aucun changement n'est fait dans le serveur faisant autorité, la QNAME minimisation ne change pas le protocole DNS). [...]

    Les experts en DNS ont noté un problème : il n'y a pas forcément un jeu de serveurs faisant autorité pour chaque composant. Si je prends www.st-cyr.terre.defense.gouv.fr, il n'y a par exemple aujourd'hui pas de serveurs de noms pour gouv.fr, ce sont ceux de .fr. En termes techniques, il n'y a pas de limite de zone (zone cut, cf. RFC 2181, section 6) à chaque composant. Dans le cas de ce dernier nom, il y a une limite de zone entre la racine et .fr, une autre entre fr et defense.gouv.fr mais pas entre .fr et gouv.fr. Un résolveur qui veut faire de la QNAME minimisation doit donc tenir compte des limites de zone. S'il valide avec DNSSEC, pas de problème, il les connait déjà, car leur connaissance est nécessaire au bon fonctionnement de DNSSEC. Sinon, il doit les trouver tout seul, par exemple avec l'algorithme de l'annexe A.

    La QNAME minimisation ne change pas le protocole DNS. Elle ne pose donc pas de problème avec les vieux serveurs. En théorie car, en pratique, il existe pas mal de serveurs incorrects qui ne suivent pas les règles et poseront quelques problèmes (section 3 du RFC, voir aussi un intéressant exposé et un « storify » d'une discussion.) Le problème n'est en général pas dû aux serveurs en logiciel libre sérieux qui forment l'essentiel de l'infrastructure du DNS (BIND, NSD, Knot...) mais plutôt aux appliances boguées que certains s'obstinent à placer devant des serveurs qui marcheraient parfaitement autrement. C'est par exemple le cas de certains répartiteurs de charge qui répondent aux requêtes pour certains QTYPE mais qui échouent lorsque le QTYPE vaut NS (répondant, par exemple REFUSED). Pire, certains ne répondent pas du tout, comme ceux de www.ratp.fr. Il s'agit bien d'une bogue, et qui cause plein de problèmes, pas seulement à la QNAME minimisation.

    Un autre problème est celui des serveurs bogués (comme djbns) qui ne réagissent pas correctement aux ENT. Qu'est-ce qu'un ENT ? Un Empty Non-Terminal (terme décrit dans le RFC 7719, section 6) est un domaine qui n'a pas d'enregistrements DNS mais qui a des sous-domaines qui en ont. gouv.fr, cité plus haut, est un ENT mais ceux-ci sont particulièrement fréquents sous ip6.arpa. Normalement, la bonne réponse à un ENT est le code NOERROR, sans enregistrements (ce qu'on appelle parfois NODATA, bien que ce dernier ne soit pas un code de retour explicite dans le DNS). Mais certains serveurs boguées répondent à la place NXDOMAIN, code qui indique normalement que le domaine n'existe pas (ce qui est faux). [...] Le résolveur qui se fierait à ce NXDOMAIN croirait alors que sa recherche est terminée et que le nom demandé n'existe pas. C'est pour cela que les mises en œuvre existantes de la QNAME minimisation ont des comportements spécifiques pour les réponses NXDOMAIN, pour contourner cette bogue. [...] Pour se protéger contre les serveurs bogués dont je parlais plus haut (ceux qui répondent NXDOMAIN en cas d'ENT), Knot réessaie avec le QNAME complet lorsqu'il reçoit un NXDOMAIN (les deux dernières lignes). Mauvais pour la vie privée mais sans doute nécessaire aujourd'hui. [...]

    Sauf erreur de ma part, le code de retour à utiliser pour un ENT est aussi peu normalisé que l'est l'envoi du QNAME complet par le récursif-cache…


    Et les performances ? Elles seront parfois meilleures et parfois pires, avec la QNAME minimisation. Meilleures car le résolveur enverra moins de requêtes aux serveurs faisant autorité. Aujourd'hui, si un résolveur reçoit trois requêtes successives, pour A.example, B.example et C.example, les trois requêtes seront envoyées aux serveurs racine, et donneront toutes les trois un NXDOMAIN (puisque .example n'est pas délégué). Avec la QNAME minimisation, seule la première requête déclenchera une demande à la racine, pour le nom example. Cela suffira au résolveur.

    Par contre, les performances peuvent se dégrader dans certains cas. Si un nom comporte beaucoup de composants (c'est fréquent dans ip6.arpa), la recherche initiale des limites de zone nécessitera bien plus de paquets. Ceci dit, cela ne durera que le temps de remplir le cache, tout ira plus vite après, une fois que le résolveur connaitra les limites de zone.

    À noter que Verisign a un brevet dont ils prétendent qu'il couvre la QNAME minimisation. Ils promettent une licence (attention, le diable est dans les détails) gratuite et non-discriminatoire. Ces brevets ont bien perturbé la réflexion du groupe de travail. Personnellement, je pense que ce brevet n'a pas de sens : l'idée de QNAME minimisation est évidente et avait déjà été discuté plusieurs fois, mais sans laisser de trace écrite précise, ce qui permet à Verisign de prétendre qu'il n'y a pas de prior art. Ce n'est sans doute pas un hasard si les deux premières mises en œuvre de la QNAME minimisation ont été faites en Europe, où il n'y a (normalement) pas de brevet logiciel. [...]

    LOL… … … C'est tellement désolant.


    La QNAME minimisation est mise en œuvre dans Unbound et dans le résolveur Knot [...]

    Pas encore dans BIND mais qui ose encore utiliser BIND en tant que récursif-cache ?!


    Unbound a la QNAME minimisation depuis la version 1.5.7 (sortie en décembre 2015, cf. l'historique de ce travail). Ce n'est pas activé par défaut, il faut mettre dans la configuration :

    server:
    qname-minimisation: yes

    Pour vérifier si votre résolveur met bien en œuvre la QNAME minimisation, vous pouvez tester avec le domaine qnamemintest.internet.nl. Ici, le résolveur est un Unbound récent :

    % dig +nodnssec +short TXT qnamemintest.internet.nl



    Bon, on n'a pas encore la bonne version de Unbound dans Debian stable (à la prochaine stable, stretch). En attendant, on peut tester en utilisant les backports. Évidemment, ce n'est pas pour mettre en production vu que l'équipe de la sécurité de Debian ne s'occupe pas des backports. Ça fait depuis début 2016 que j'avais envie de tester, c'est désormais chose faite. C'est plutôt amusant parce que, comme le fait remarquer Stéphane, le comportement d'un récursif utilisant la qname minimisation est celui qui est décrit, à tort, dans bon nombre de ressources documentaires pour débutant-e-s (genre Wikipedia fr :- ).

    Sat Sep 17 00:25:18 2016 - permalink -
    - http://www.bortzmeyer.org/7816.html
  • Réponse [ NDLR : de la FFDN ] à la consultation publique sur la revue stratégique de l’ARCEP [ FAIs : la taxe administrative a bien été à 20 k€ dans le passé ]

    Ça date, je n'ai pas tout lu, je garde juste une information que je trouve méga intéressante :

    Nous gardons en mémoire les anciennes erreurs tant du législateur national que du régulateur. Par exemple sur la redevance due par les opérateurs. Les textes européens indiquent bien, depuis le début de l’ouverture du marché des télécoms, que les États membres peuvent demander une redevance aux opérateurs pour financer l’autorité de régulation, et que cette redevance devait être équitable. Le législateur français avait traduit ça en « 20 k€ pour tout le monde, 80 k€ pour l’opérateur historique ». Tous les micro-opérateurs qui existaient avant l’ART, dont FDN, ont donc eu ce réflexe de survie : ne pas se déclarer, pour ne pas mourir. Et l’ART de poursuivre les opérateurs qui tombaient dans son radar, comme ce fut le cas de NetPratique par exemple.

    Pour moi, cela montre qu'il ne suffit pas de faire, de "make", de monter une initiative et de la faire vivre. Il faut aussi exister au niveau politique et agir auprès des autorités qui régissent le secteur dans lequel l'initiative évolue. Sans ça, l'initiative se fera bouffer, se fera marcher dessus sans complaisance. En rapport avec http://shaarli.guiguishow.info/?xo1oaQ .

    Fri Sep 16 19:21:52 2016 - permalink -
    - https://www.ffdn.org/sites/default/files/field/docs/reponse-revue-strategique.pdf
  • Très haut débit rural et Montée en Débit : la fausse bonne idée selon Joël Mau. – Aménagement et Développement numérique de proximité

    Ça aussi, ça date mais c'est toujours vrai et utile.

    Les projets de Montée en Débit sur les sous-répartiteurs sont désormais nombreux, notamment au sein de Réseaux d’Initiative Publique.

    Vous soulevez là un point intéressant. J’ai d’ailleurs eu l’opportunité d’appréhender ce sujet via trois prismes singulièrement différents. Au sein d’Orange tout d’abord, dans un rôle d’initiateur du projet de Montée en Début sur cuivre en 2008-2009, à l’ARCEP ensuite avec une Autorité attentive en 2010 à ce que la MeD ne retarde pas la fibre, dans l’Institut Mines-Télécom enfin en modélisant divers scénarios liant déploiements FTTH et MeD sur cuivre. [...]

    La MeD ne résout tout d’abord pas les disparités entre lignes intrinsèques à la technologie cuivre même si nous pouvons en réduire l’amplitude en traitant les SR les plus éloignés.

    Oui, et c'est un problème en soi : ne pas négliger les zones rurales car l'innovation peut naître de partout et plus largement parce qu'il ne doit pas y avoir de citoyen-ne-s de seconde zone.

    Les solutions Med sur SR ne permettent ensuite pas d’assurer durablement pour tous l’accès à des débits suffisants. Les besoins actuels supposent en effet que l’on sache déployer des accès à 100Mbit/s symétrique (augmentation des besoins d’un facteur X10 tous les 6 ans, tendance vérifiée en moyenne depuis 30 ans). C’est impossible avec les projets MeD au niveau des SR. Ces solutions, pertinentes en 2008-2009, s’avèrent donc désormais désynchronisées avec le marché.

    Loi de Jakob Nielsen : : les débits jugés confortables sur les réseaux augmentent de 50% tous les ans, ce qui correspond à un débit multiplié par 10 en 6 ans, ou par 100 en 12 ans. Évidemment, comme la Loi de Moore, ça finira bien par ne plus être une croissance géométrique.

    [...] En 2015, pour rester à la rigueur pertinente, la MeD sur cuivre se devrait d’amener massivement la fibre jusqu’aux points de branchement du cuivre (les Points de Concentration du réseau Cuivre – ce sont à l’extérieur ces petites boites beige sur les façades, les poteaux à proximité des habitations…) et en terminant par exemple avec du FTTdP (Fibre-to-the-Distribution-Point). Mais on ne parle plus alors de MeD sur les SR mais de Fibre jusqu’aux derniers mètres avec terminaison cuivre ou coaxiale.

    In fine, j’ai peur que le choix de jouer la carte de la MeD sur cuivre au niveau des SR, celle actuellement proposée, soit le symbole d’une France résignée à son déclin avec un scénario de déploiement extrêmement lent de la fibre, peu ou pas rentable. A l’orée des années 2020, ce scénario se traduirait notamment par un accroissement dramatique des fractures territoriales et sociales. Au moins 20% des personnes devraient vivre et travailler avec des débits sans aucune commune mesure à ceux des zones traitées en Fibre. [...]

    Douze ans après, il faut d’ailleurs noter le parallèle frappant avec le dossier DSL. Les mêmes phrases étaient en effet entendues en 2003-2004 : « les ruraux, les bouseux n’ont pas besoin de tels débits ; seuls 300 NRA par an sont rentables (sur 12500 NRA à l’époque); nous sommes au fond du trou à France-Télécom, nous n’avons pas les moyens financiers de couvrir à perte ces petits NRA ;…». Or, dès 2004 pour sortir « par le haut », nous présentions diverses innovations, techniques comme financières, qui ont permis à la fois de multiplier le volume de traitement annuel des NRA par dix (plus de 3000 NRA par an), d’adopter une approche péréquée et d’obtenir un plan d’affaire global rentable en moins de 3 ans. Début 2007, tous les NRA en France étaient ouverts au DSL. L’attentisme actuel, tout comme celui sur le DSL il y a douze ans, demeure ainsi basé sur des idées reçues, des fractures « intellectuelles » à côté des fractures territoriales finalement acceptées comme autant de fausses fatalités.

    [...]

    Question de coût et de bilan financier : si pour suivre les besoins en services, la fibre n’est déployée que dans un deuxième temps, par exemple 5 ans après le déploiement du site MeD, économiquement l’opération en deux temps ne s’avère jamais pertinente même en supposant une forte réutilisation des investissements réalisés pour la MeD. Elle s’avère notamment moins pertinente que de poser directement la fibre optique en FTTH.

    Oui, donc on est forcément dans une démarche "garder le cuivre le plus longtemps possible" dès que l'on entre dans un plan de montée en débit. « La collectivité n’aura pas les moyens ni le droit de refinancer la fibre dans un délai aussi court après avoir financé à fonds presque perdus à 100% un acteur du cuivre. »

    En outre ce résultat déjà négatif est obtenu sans considérer que la réutilisation du site MeD comme PM serait en pratique rarement faisable. En effet la très grande majorité des sous répartiteurs en zones moins denses font moins de 300 lignes. Ils sont donc d’une taille inférieure à la taille minimale d’un PM (Point de Mutualisation et de flexibilité du FTTH). Même si pour des raisons géographiques « exceptionnelles » cela était malgré tout autorisé, cela provoquerait néanmoins une régression dans le niveau de mutualisation du réseau fibre et obligerait à redimensionner la collecte entre NRO et site MeD pour le PM en fibre optique, donc là aussi avec un investissement insuffisamment pérenne. En effet, il faut se rappeler que les coûts relatifs aux câbles sont très majoritairement des coûts de main d’œuvre (environ 75%). Ainsi poser deux câbles de X fibres coute presque deux fois plus cher que de poser un seul câble de 2X fibres. Cinq ans après la MeD, faute d’obligation contractuelle, il pourrait même s’avérer qu’un câble privé fortement dimensionné soit posé court-circuitant ainsi l’usage du câble optique initial financé sur fonds publics et réduisant à néant toute perspective de réutilisation et de revenus pour la collectivité publique.

    En outre, côté armoire MeD les équipements passifs et actifs seront quasi non réutilisables (pour des raisons de type d’armoire, de profondeur, de disposition, de coexistence des deux technologies cuivre et fibre pendant une longue période obligeant à avoir les deux sites MeD et PM en parallèle, de pertinence en coûts de gestion d’avoir des équipements optiques actifs aussi bas dans le réseau,…). Ainsi en pratique au mieux une nouvelle armoire PM sera installée à coté du site MeD, réduisant à presque 0 la réalité de la réutilisation de la partie site.

    [...]

    Ces zones de MeD sont aussi celles où les besoins pour plus de débits auraient favorisé une meilleure pénétration initiale sur la fibre.

    Oui, c'est quand t'as un débit qui t'exclues de la société que t'as encore plus besoin d'avoir mieux.

    Fri Sep 16 19:16:10 2016 - permalink -
    - https://numericuss.com/2015/01/26/tres-haut-debit-rural-et-montee-en-debit-la-fausse-bonne-idee-selon-joel-mau/
  • Les 15 technologies pour faire du très haut débit (vendu en tant que "fibre")

    Uhuhuhuhuhuhu.

    Via https://shaarli.cafai.fr/?rfiz-g

    Fri Sep 16 16:49:08 2016 - permalink -
    - https://lafibre.info/ftth-la-fibre-optique-gpon-ou-p2p/techno-fibre/
  • ARCEP : toujours plus de missions, mais un budget sûrement réduit en 2016

    Attention : cette actu date de novembre 2015 mais je la trouve très pertinente car elle donne une grille de lecture intéressante sur certaines des ambiguïtés dans la régulation pratiquée par l'ARCEP

    Après plusieurs années d'économies, le budget du régulateur des télécoms, l'ARCEP, risque de prendre encore un nouveau coup. Le projet de loi des finances 2016 prévoit de réduire une nouvelle fois le financement de l'autorité. De 22,7 millions d'euros en 2015, il passerait à 21,5 millions d'euros en 2016 (PDF), soit une perte de plus d'un million d'euros.

    [...] a loi Macron lui en confie plusieurs, notamment de réorganiser la régulation, d'écrire celle des tarifs des réseaux en fibre optique ou encore d'édicter un rapport sur les investissements dans les réseaux mobiles. [...] L'ARCEP doit également réguler les tarifs des réseaux d'initiative publique, censés diffuser le très haut débit, contrôler le nouveau programme de couverture des zones blanches ou encore examiner les contrats de partage de réseaux mobiles. Cela alors qu'elle pilote les enchères pour les bandes de fréquence « 700 MHz » [...] Dès avril 2016, l'ARCEP se verra très sûrement confier la responsabilité d'imposer le respect de la neutralité du Net par les opérateurs français... Tout en contribuant à la régulation du secteur au niveau européen, via le groupement des régulateurs, le BEREC, dans lequel l'autorité française veut prendre plus de poids, comme elle nous l'expliquait en avril.

    Reste qu'avec cette stabilité, une mission pourrait devenir compliquée, estime la commission parlementaire : la régulation du déploiement du très haut débit. Avec le plan France Très Haut Débit, des dizaines de réseaux d'initiative publique, montés par des départements ou des régions, doivent émerger de terre pour connecter les Français. De quelques grands opérateurs nationaux, « le régulateur se trouvera dès lors confronté à une myriade d’opérateurs, de 50 à 100 » estime Corinne Erhel. Un défi qui demandera, à un moment ou un autre, plus de moyens humains.

    Ouverture à la concurrence mais pas trop quand même.

    Fri Sep 16 15:56:25 2016 - permalink -
    - http://www.nextinpact.com/news/97198-arcep-toujours-plus-missions-mais-budget-surement-reduit-en-2016.htm
  • Cuba censure des mots liés à la démocratie dans les SMS échangés - Politique - Numerama

    [...]

    Dans le classement établi par Reporters Sans Frontières, le pays pointe tout en bas du tableau, à la 171e place sur les 180 États auscultés par l’organisation. Un monopole sur l’information est exercé par le clan Castro depuis 1959, accompagné par des « arrestations et détentions abusives, des menaces, des campagnes de dénigrement, des confiscations de matériel et des fermeture de sites web ».

    Concernant les télécommunications, la censure est aussi de mise. En particulier, tout un champ lexical est banni par le gouvernement, pointe la presse hispanique. Reprise par Reuters, l’information montre que La Havane a exigé des opérateurs de l’île qu’ils filtrent les SMS contenant certains termes évoquant l’ouverture politique, comme « démocratie », et les libertés individuelles, tels que les « droits de l’homme ».

    D’autres mots-clés sont aussi dans le viseur, comme le nom de dissidents politiques ayant une relative visibilité, ainsi que des groupes politiques contestant la mainmise de Raúl Castro et de sa clique. En tout, le blocage concerne, selon les trouvailles du journaliste Reinaldo Escobar et de l’activiste Yoani Sanchez, sur un groupe de trente termes. Mais peut-être que d’autres, encore à découvrir, sont aussi touchés.

    Les émetteurs des textos litigieux ne savent évidemment pas que les messages qu’ils envoient sont frappés par la censure. Selon les observations faites sur place, les opérateurs font croire que les SMS sont bien envoyés au destinataire en indiquant sur l’écran du mobile de l’émetteur la mention « envoyé ». En revanche, la date de mise en place de ce blocage n’a pas encore pu être déterminée.

    La censure n’est pas le seul souci que connaît l’île en matière de télécommunications. L’accès à Internet est loin d’être répandu à Cuba. Seuls quelques officiels du régime y ont accès dans les bâtiments publics, ainsi que les touristes dans les hôtels. Il existe bien sûr des cybercafés, mais le gouvernement veille évidemment à ce que les internautes ne voient pas tout du réseau.

    Les choses sont toutefois en train d’évoluer lentement. Des points d’accès publics sont en cours de déploiement à La Havane et Google est dans la boucle pour aider l’île à mieux se connecter à Internet. En début d’année, il a été annoncé la mise en place du premier réseau à haut débit national déployé par Huawei à La Habana Vieja, une municipalité qui contient le centre historique de la capitale cubaine.

    Fri Sep 16 13:35:46 2016 - permalink -
    - http://www.numerama.com/politique/192956-cuba-censure-des-mots-lies-a-la-democratie-dans-les-sms-echanges.html
  • SpeedOf.Me, HTML5 Speed Test | Non Flash/Java Broadband Speed Test

    Juste parce que j'oublie son nom à chaque fois…

    Via http://jonathan.michalon.eu/shaarli/

    Fri Sep 16 13:00:41 2016 - permalink -
    - https://speedof.me/
  • Google AMP, ou quand notre impatience menace le Web ouvert - Tech - Numerama

    Attention : cette actu date de février 2016 mais je la trouve intéressante.

    [...]

    Pour dire les choses relativement simplement, il impose aux éditeurs de décliner dans une version minimaliste très rapide à charger du contenu de leurs pages Web, éventuellement mis en cache dans des CDN (Google en offre un gratuit), en utilisant exclusivement des technologies validées au préalable par le prétendu « AMP Project » — c’est-à-dire par Google et ses partenaires, sélectionnés on ne sait trop comment.

    [...]

    Mais le World Wide Web Consortium (W3C), qui a en charge l’élaboration des normes du HTML et dont les travaux sont publics et les décisions consensuelles, est donc mis sur la touche au profit d’un standard parallèle, fait entre soi selon la règle du plus fort. Il y aura désormais d’un côté les pages HTML conformes aux recommandations du W3C, et de l’autre les mêmes pages HTML AMP conformes aux restrictions strictes imposées par le groupe.

    [...]

    Or l’une des caractéristiques techniques fondamentales de AMP est qu’il empêche le chargement de tout script JavaScript, sauf pour les quelques scripts préalablement validés par AMP Project. Il est possible aujourd’hui d’intégrer des messages Twitter, des posts Facebook ou des vidéos YouTube, mais pas encore des vidéos Dailymotion ou des documents Scribd. C’est donc un standard très contrôlé, qui ne permet pas aux éditeurs et aux développeurs d’innover librement.

    [...] Mais l’intérêt est aussi voire surtout commercial. C’est une manière de contrôler certains marchés et leurs pratiques.

    Ainsi pour afficher dynamiquement des publicités en HTML AMP, et mesurer leur audience, il faut obligatoirement passer par l’une des régies qui bénéficie d’un laisser-passer, parce qu’ils se conforment à des règles (là aussi opaques) : A9, AdReactor, Google AdSense, AdTech, et DoubleClick. Si vous êtes un éditeur Web et souhaitez utiliser votre propre ad-server ou celui d’une petite régie exclue du programme, c’est impossible.

    Fri Sep 16 12:50:38 2016 - permalink -
    - http://www.numerama.com/tech/148181-google-amp-ou-quand-notre-impatience-menace-le-web-ouvert.html
  • En 2015, la croissance des réseaux publics ralentie par les projets politiques

    Attention : cette actu date d'avril 2016 mais c'est toujours d'actualité.

    Motifs de cette croissance au ralenti des RIP FTTH :

    • Montages juridiques fragiles ;

    • Élections -> nouvelles équipes -> temps de reprise en main des dossiers ;

    • Financement :
      • Blocage des subventions de l'État suite à un risque juridique : la Commission Européenne a constaté que des subventions pour de la montée en débit sur cuivre (qui arrangent Orange, proprio du réseau cuivre) ont été attribuées avant l'accord de celle-ci et contestées par un petit opérateur et par la FIRIP (fédération des industriels des réseaux d'initiative publique). Ce point est toujours bloqué à l'heure actuelle mais le gouvernement semble prêt à assumer le risque et à ouvrir le robinet à subventions ;

      • Les gros opérateurs commerciaux d'envergure nationale ne veulent pas venir sur les RIP avec leur lots de clients déjà acquis donc incertitude sur la rentabilité de ces réseaux (les gens préfèrent voir des marques connues plutôt d'un opérateur local, semble-t-il) ;
    • FUD massif d'Orange à destination des élus locaux, en utilisant son grand réseau de proximité, afin de favoriser leurs solutions de montée en débit au détriment des RIP fibrés. Voir http://www.nextinpact.com/news/95618-la-strategie-d-orange-pour-influencer-elus-locaux.htm et http://www.nextinpact.com/news/95732-fibre-optique-lutte-d-orange-contre-reseaux-dinitiative-publique-rip.htm .
    Thu Sep 15 23:48:31 2016 - permalink -
    - http://www.nextinpact.com/news/99588-en-2015-croissance-reseaux-publics-ralentie-par-projets-politiques.htm
  • Bercy constate le gel des déploiements FTTH de SFR sur Lille Métropole

    Attention : ça date de fin fin 2015 / avril 2016.

    SFR est officiellement épinglé par l'État pour ses déploiements fibre. Dans un communiqué publié vendredi, le ministère de l'Économie a constaté la défaillance de SFR dans ses déploiements FTTH dans la métropole lilloise, plus de deux ans après la signature d'une convention. Saisie par la collectivité, le comité de concertation de la mission France Très Haut Débit a constaté les manquements du groupe, ce qui libère la métropole de ses liens avec le FAI.

    Au-delà du problème qu'elle illustre pour SFR, cette décision est une première importante. Il s'agit du premier constat de défaillance de déploiement de la fibre jusqu'à l'abonné (FTTH), selon plusieurs experts interrogés. Un constat aux conséquences importantes, qui met une nouvelle pression aux opérateurs sur leur couverture fibre en zones denses. Cela alors que Numericable-SFR nous explique ne pas déployer de FTTH sur les communes disposant déjà de câble.

    [...] Dans ce cas, un « constat de carence » est dressé et la collectivité est libre de ses déploiements sur la zone concernée. Il permet à la collectivité de renégocier son contrat, de faire appel à d'autres opérateurs mais aussi de monter son propre réseau d'initiative publique (RIP), si elle le souhaite.

    [...] Dans un communiqué qu'elle nous a transmis, Lille Métropole affirme que SFR a voulu rompre sa convention pour en proposer une autre, portant sur 13 villes au lieu de 70. « Ainsi Numericable-SFR a décidé d’abandonner 57 communes de la métropole » dénonce-t-elle.

    L'opérateur SFR « a notamment dû renoncer à déployer un deuxième réseau en fibre optique sur certaines communes de la Métropole européenne de Lille qui bénéficiaient déjà d’une infrastructure en fibre optique qui avait été déployée par Numericable ». Le périmètre des déploiements a été rédessiné « pour se conformer aux demandes de l’Autorité de la concurrence, lors du rachat de SFR par Numericable », précise la société.

    [...]

    En décembre, la métropole a validé la substitution d'Orange à SFR sur 57 communes « délaissées », en plus des 11 autres déjà signées avec Orange. Selon Bercy, la marque au carré rouge a proposé « de formaliser de nouveaux engagements précis pour couvrir 14 autres communes en FTTH ». Pour les deux opérateurs, l'horizon est toujours 2020.

    La procédure "carence / reconnaissance de défaillance" a été achevée en avril 2016.

    [...]

    Il s'agit aussi d'une arme pour les associations de collectivités comme l'AVICCA, qui brandissent parfois le spectre de la « carence » dans leurs discussions avec l'État et les opérateurs. « Si les acteurs majeurs continuent de préférer la rente actuelle sur le haut débit [ADSL], nous n'aurons d'autre choix que de constater la carence et de s'organiser pour faire éclater un oligopole de fait d'une manière ou d'une autre » menaçait le président de l'AVICCA, Patrick Chaize, en juillet dernier.

    Thu Sep 15 22:11:25 2016 - permalink -
    - http://www.nextinpact.com/news/99336-bercy-constate-gel-deploiements-ftth-sfr-sur-lille-metropole.htm
  • Régulation télécoms : qui fixe les objectifs, comment on les atteint, comment on fait bouger le régulateur ?

    Je déterre ça de la ML de la FFDN car je trouve que c'est hyper intéressant pour comprendre comment la régulation télécom fonctionne en termes de qui fixe les objectifs, comment on les atteint, comment on rapproche un idéal technique (imposer aux FAI de fournir IPv6 sur les accès qu'ils vendent) ou éthique (neutralité des réseaux) de la doctrine juridique pour que ça soit compréhensible du régulateur et qu'il puisse se reposer sur des fondements de droit pour agir (et pas juste "IPv6 c'est tr0 bien tavu"), etc.

    L'ARCEP ne peut pas fixer les objectifs, mais peut fixer les moyens de les atteindre. Je prend un exemple...

    Le texte européen en cours de finalisation sur la neutralité du net impose cette neutralité, et sa définition contient le fait que l'abonné puisse utiliser ou fournir les services de son choix sur le Net. Le régulateur est chargé de faire respecter cette neutralité.

    L'ARCEP peut considérer que si l'abonnement pro contient une adresse IP publique, alors tout va bien, en échange d'un abonnement pro on peut fournir un service, et c'est la fête. Ou bien elle peut considérer que l'adresse publique est rigoureusement nécessaire, et que donc si elle est réservée à certains abonnés, le réseau n'est plus neutre. Question d'interprétation.

    Une fois cette interprétation établie, l'ARCEP émet des décisions / avis, dit "ça, pour nous, c'est pas neutre", le premier opérateur qui ira brutalement contre se fera condamné s'il est attaqué sur le sujet (les sanctions peuvent être lourdes).

    Ils comprennent bien que le déploiement de v6 est utile, mais leur offrir un outil juridique est utile. Ils peuvent simplement le recommander, ou ils peuvent l'imposer, selon le moyen qu'ils utilisent. Les recommandations sont en général beaucoup mieux suivies que les décisions. Oui, ça surprend.

    Les recommandations portent sur des sujets non-clivant. Fournir de l'IP v6, ça ne modifie pas l'équilibre du business, c'est un peu chiant en ingénierie, mais ça ne touche pas au porte-monnaie. Une recommandation sur le sujet aurait de l'effet.

    Une décision disant qu'il est interdit de prioriser le flux VOD contre les flux Netflix sera immédiatement attaquée devant tout ce qu'on pourra trouver comme instance, parce qu'elle touche au pognon.

    [...]

    Le marché des télécoms est globalement régulé. Les textes européens imposent l'existence d'un régulateur. Mais ce régulateur n'intervient pas tout le temps sur tout. Pour intervenir, il doit prouver qu'il existe un problème. Par exemple qu'il devrait exister une offre (mettons de collecte sur fibre), que cette offre est nécessaire pour telle finalité souhaitable (par exemple aménagement numérique du territoire), que le marché n'a pas fait apparaitre cette offre tout seul, et que donc le régulateur doit imposer des contraintes à certains acteurs pour corriger cette défaillance.

    Typiquement, l'ARCEP peut considérer que v6 est nécessaire, expliquer en quoi, puis recommander aux acteurs de jouer le jeu. Si 1-2 ans plus tard ça n'a pas sérieusement bougé dans le bon sens, elle pourra alors contraindre, en constatant que le marché échoue à atteindre un objectif d'intérêt général.

    [...]

    Quand je plaide sur le coût de la première prise, par exemple, c'est pour inciter l'ARCEP à modifier sa façon de regarder les objectifs. Il doit pouvoir se monter des opérateurs, c'est un des objectifs (ouverture à la concurrence). On peut se dire "en investissant 2 milliards, tout le monde peut devenir opérateur, tout va bien". En considérant que l'opérateur aura 5 millions de clients, l'investissement est raisonnable, il aura une rentabilité, tout va bien. Ou bien on peut décider que le prix de la première prise est un critère (combien est-ce qu'il faut mettre sur la table pour prendre un premier abonné). Pas le seul critère, mais un critère. Et du coup, si l'ARCEP constate que sur l'ADSL pour le premier abonnés il faut mettre 1500 euros (ouvrir une porte de collecte) alors que sur la fibre il faut mettre 3 millions, ce critère devient bigrement intéressant. Il montre un problème qui n'était pas mesurable tant qu'on restait sur "en moyenne 18 euros HT par abonné".

    Thu Sep 15 18:36:58 2016 - permalink -
    - http://shaarli.guiguishow.info/?deSAlw
  • Télégrammes : Fibre optique 50 ans [...]

    En juillet 1966 dans les laboratoires de recherche des Bell Labs, Charles Kao a fait un travail de pionnier dans la recherche de fibres optiques comme moyen de télécommunication en démontrant notamment que les pertes élevées existantes provenaient de la présence d’impuretés dans la fibre plutôt que d’un problème sous-jacent à la conception elle-même. Cette conclusion a lancé l’industrie des télécoms à réfléchir et à trouver des composants à faibles pertes. Après plusieurs tests pour mesurer l’atténuation du signal, l’équipe de Charles Kao a trouvé que la fibre de verre en silice était le candidat idéal pour le monde des télécommunications.

    Thu Sep 15 17:05:55 2016 - permalink -
    - http://www.silicon.fr/fibre-optique-50-ans-silent-circle-renfloue-us-investit-5g-qualcomm-amendable-153185.html
Links per page: 20 50 100
◄Older
page 190 / 298
Newer►
Mentions légales identiques à celles de mon blog | CC BY-SA 3.0

Shaarli - The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community