Ça aussi, ça date mais c'est toujours vrai et utile.
Les projets de Montée en Débit sur les sous-répartiteurs sont désormais nombreux, notamment au sein de Réseaux d’Initiative Publique.
Vous soulevez là un point intéressant. J’ai d’ailleurs eu l’opportunité d’appréhender ce sujet via trois prismes singulièrement différents. Au sein d’Orange tout d’abord, dans un rôle d’initiateur du projet de Montée en Début sur cuivre en 2008-2009, à l’ARCEP ensuite avec une Autorité attentive en 2010 à ce que la MeD ne retarde pas la fibre, dans l’Institut Mines-Télécom enfin en modélisant divers scénarios liant déploiements FTTH et MeD sur cuivre. [...]
La MeD ne résout tout d’abord pas les disparités entre lignes intrinsèques à la technologie cuivre même si nous pouvons en réduire l’amplitude en traitant les SR les plus éloignés.
Oui, et c'est un problème en soi : ne pas négliger les zones rurales car l'innovation peut naître de partout et plus largement parce qu'il ne doit pas y avoir de citoyen-ne-s de seconde zone.
Les solutions Med sur SR ne permettent ensuite pas d’assurer durablement pour tous l’accès à des débits suffisants. Les besoins actuels supposent en effet que l’on sache déployer des accès à 100Mbit/s symétrique (augmentation des besoins d’un facteur X10 tous les 6 ans, tendance vérifiée en moyenne depuis 30 ans). C’est impossible avec les projets MeD au niveau des SR. Ces solutions, pertinentes en 2008-2009, s’avèrent donc désormais désynchronisées avec le marché.
Loi de Jakob Nielsen : : les débits jugés confortables sur les réseaux augmentent de 50% tous les ans, ce qui correspond à un débit multiplié par 10 en 6 ans, ou par 100 en 12 ans. Évidemment, comme la Loi de Moore, ça finira bien par ne plus être une croissance géométrique.
[...] En 2015, pour rester à la rigueur pertinente, la MeD sur cuivre se devrait d’amener massivement la fibre jusqu’aux points de branchement du cuivre (les Points de Concentration du réseau Cuivre – ce sont à l’extérieur ces petites boites beige sur les façades, les poteaux à proximité des habitations…) et en terminant par exemple avec du FTTdP (Fibre-to-the-Distribution-Point). Mais on ne parle plus alors de MeD sur les SR mais de Fibre jusqu’aux derniers mètres avec terminaison cuivre ou coaxiale.
In fine, j’ai peur que le choix de jouer la carte de la MeD sur cuivre au niveau des SR, celle actuellement proposée, soit le symbole d’une France résignée à son déclin avec un scénario de déploiement extrêmement lent de la fibre, peu ou pas rentable. A l’orée des années 2020, ce scénario se traduirait notamment par un accroissement dramatique des fractures territoriales et sociales. Au moins 20% des personnes devraient vivre et travailler avec des débits sans aucune commune mesure à ceux des zones traitées en Fibre. [...]
Douze ans après, il faut d’ailleurs noter le parallèle frappant avec le dossier DSL. Les mêmes phrases étaient en effet entendues en 2003-2004 : « les ruraux, les bouseux n’ont pas besoin de tels débits ; seuls 300 NRA par an sont rentables (sur 12500 NRA à l’époque); nous sommes au fond du trou à France-Télécom, nous n’avons pas les moyens financiers de couvrir à perte ces petits NRA ;…». Or, dès 2004 pour sortir « par le haut », nous présentions diverses innovations, techniques comme financières, qui ont permis à la fois de multiplier le volume de traitement annuel des NRA par dix (plus de 3000 NRA par an), d’adopter une approche péréquée et d’obtenir un plan d’affaire global rentable en moins de 3 ans. Début 2007, tous les NRA en France étaient ouverts au DSL. L’attentisme actuel, tout comme celui sur le DSL il y a douze ans, demeure ainsi basé sur des idées reçues, des fractures « intellectuelles » à côté des fractures territoriales finalement acceptées comme autant de fausses fatalités.
[...]
Question de coût et de bilan financier : si pour suivre les besoins en services, la fibre n’est déployée que dans un deuxième temps, par exemple 5 ans après le déploiement du site MeD, économiquement l’opération en deux temps ne s’avère jamais pertinente même en supposant une forte réutilisation des investissements réalisés pour la MeD. Elle s’avère notamment moins pertinente que de poser directement la fibre optique en FTTH.
Oui, donc on est forcément dans une démarche "garder le cuivre le plus longtemps possible" dès que l'on entre dans un plan de montée en débit. « La collectivité n’aura pas les moyens ni le droit de refinancer la fibre dans un délai aussi court après avoir financé à fonds presque perdus à 100% un acteur du cuivre. »
En outre ce résultat déjà négatif est obtenu sans considérer que la réutilisation du site MeD comme PM serait en pratique rarement faisable. En effet la très grande majorité des sous répartiteurs en zones moins denses font moins de 300 lignes. Ils sont donc d’une taille inférieure à la taille minimale d’un PM (Point de Mutualisation et de flexibilité du FTTH). Même si pour des raisons géographiques « exceptionnelles » cela était malgré tout autorisé, cela provoquerait néanmoins une régression dans le niveau de mutualisation du réseau fibre et obligerait à redimensionner la collecte entre NRO et site MeD pour le PM en fibre optique, donc là aussi avec un investissement insuffisamment pérenne. En effet, il faut se rappeler que les coûts relatifs aux câbles sont très majoritairement des coûts de main d’œuvre (environ 75%). Ainsi poser deux câbles de X fibres coute presque deux fois plus cher que de poser un seul câble de 2X fibres. Cinq ans après la MeD, faute d’obligation contractuelle, il pourrait même s’avérer qu’un câble privé fortement dimensionné soit posé court-circuitant ainsi l’usage du câble optique initial financé sur fonds publics et réduisant à néant toute perspective de réutilisation et de revenus pour la collectivité publique.
En outre, côté armoire MeD les équipements passifs et actifs seront quasi non réutilisables (pour des raisons de type d’armoire, de profondeur, de disposition, de coexistence des deux technologies cuivre et fibre pendant une longue période obligeant à avoir les deux sites MeD et PM en parallèle, de pertinence en coûts de gestion d’avoir des équipements optiques actifs aussi bas dans le réseau,…). Ainsi en pratique au mieux une nouvelle armoire PM sera installée à coté du site MeD, réduisant à presque 0 la réalité de la réutilisation de la partie site.
[...]
Ces zones de MeD sont aussi celles où les besoins pour plus de débits auraient favorisé une meilleure pénétration initiale sur la fibre.
Oui, c'est quand t'as un débit qui t'exclues de la société que t'as encore plus besoin d'avoir mieux.
Attention : cette actu date de novembre 2015 mais je la trouve très pertinente car elle donne une grille de lecture intéressante sur certaines des ambiguïtés dans la régulation pratiquée par l'ARCEP
Après plusieurs années d'économies, le budget du régulateur des télécoms, l'ARCEP, risque de prendre encore un nouveau coup. Le projet de loi des finances 2016 prévoit de réduire une nouvelle fois le financement de l'autorité. De 22,7 millions d'euros en 2015, il passerait à 21,5 millions d'euros en 2016 (PDF), soit une perte de plus d'un million d'euros.
[...] a loi Macron lui en confie plusieurs, notamment de réorganiser la régulation, d'écrire celle des tarifs des réseaux en fibre optique ou encore d'édicter un rapport sur les investissements dans les réseaux mobiles. [...] L'ARCEP doit également réguler les tarifs des réseaux d'initiative publique, censés diffuser le très haut débit, contrôler le nouveau programme de couverture des zones blanches ou encore examiner les contrats de partage de réseaux mobiles. Cela alors qu'elle pilote les enchères pour les bandes de fréquence « 700 MHz » [...] Dès avril 2016, l'ARCEP se verra très sûrement confier la responsabilité d'imposer le respect de la neutralité du Net par les opérateurs français... Tout en contribuant à la régulation du secteur au niveau européen, via le groupement des régulateurs, le BEREC, dans lequel l'autorité française veut prendre plus de poids, comme elle nous l'expliquait en avril.
Reste qu'avec cette stabilité, une mission pourrait devenir compliquée, estime la commission parlementaire : la régulation du déploiement du très haut débit. Avec le plan France Très Haut Débit, des dizaines de réseaux d'initiative publique, montés par des départements ou des régions, doivent émerger de terre pour connecter les Français. De quelques grands opérateurs nationaux, « le régulateur se trouvera dès lors confronté à une myriade d’opérateurs, de 50 à 100 » estime Corinne Erhel. Un défi qui demandera, à un moment ou un autre, plus de moyens humains.
Ouverture à la concurrence mais pas trop quand même.
[...]
Dans le classement établi par Reporters Sans Frontières, le pays pointe tout en bas du tableau, à la 171e place sur les 180 États auscultés par l’organisation. Un monopole sur l’information est exercé par le clan Castro depuis 1959, accompagné par des « arrestations et détentions abusives, des menaces, des campagnes de dénigrement, des confiscations de matériel et des fermeture de sites web ».
Concernant les télécommunications, la censure est aussi de mise. En particulier, tout un champ lexical est banni par le gouvernement, pointe la presse hispanique. Reprise par Reuters, l’information montre que La Havane a exigé des opérateurs de l’île qu’ils filtrent les SMS contenant certains termes évoquant l’ouverture politique, comme « démocratie », et les libertés individuelles, tels que les « droits de l’homme ».
D’autres mots-clés sont aussi dans le viseur, comme le nom de dissidents politiques ayant une relative visibilité, ainsi que des groupes politiques contestant la mainmise de Raúl Castro et de sa clique. En tout, le blocage concerne, selon les trouvailles du journaliste Reinaldo Escobar et de l’activiste Yoani Sanchez, sur un groupe de trente termes. Mais peut-être que d’autres, encore à découvrir, sont aussi touchés.
Les émetteurs des textos litigieux ne savent évidemment pas que les messages qu’ils envoient sont frappés par la censure. Selon les observations faites sur place, les opérateurs font croire que les SMS sont bien envoyés au destinataire en indiquant sur l’écran du mobile de l’émetteur la mention « envoyé ». En revanche, la date de mise en place de ce blocage n’a pas encore pu être déterminée.
La censure n’est pas le seul souci que connaît l’île en matière de télécommunications. L’accès à Internet est loin d’être répandu à Cuba. Seuls quelques officiels du régime y ont accès dans les bâtiments publics, ainsi que les touristes dans les hôtels. Il existe bien sûr des cybercafés, mais le gouvernement veille évidemment à ce que les internautes ne voient pas tout du réseau.
Les choses sont toutefois en train d’évoluer lentement. Des points d’accès publics sont en cours de déploiement à La Havane et Google est dans la boucle pour aider l’île à mieux se connecter à Internet. En début d’année, il a été annoncé la mise en place du premier réseau à haut débit national déployé par Huawei à La Habana Vieja, une municipalité qui contient le centre historique de la capitale cubaine.
Juste parce que j'oublie son nom à chaque fois…
Attention : cette actu date de février 2016 mais je la trouve intéressante.
[...]
Pour dire les choses relativement simplement, il impose aux éditeurs de décliner dans une version minimaliste très rapide à charger du contenu de leurs pages Web, éventuellement mis en cache dans des CDN (Google en offre un gratuit), en utilisant exclusivement des technologies validées au préalable par le prétendu « AMP Project » — c’est-à-dire par Google et ses partenaires, sélectionnés on ne sait trop comment.
[...]
Mais le World Wide Web Consortium (W3C), qui a en charge l’élaboration des normes du HTML et dont les travaux sont publics et les décisions consensuelles, est donc mis sur la touche au profit d’un standard parallèle, fait entre soi selon la règle du plus fort. Il y aura désormais d’un côté les pages HTML conformes aux recommandations du W3C, et de l’autre les mêmes pages HTML AMP conformes aux restrictions strictes imposées par le groupe.
[...]
Or l’une des caractéristiques techniques fondamentales de AMP est qu’il empêche le chargement de tout script JavaScript, sauf pour les quelques scripts préalablement validés par AMP Project. Il est possible aujourd’hui d’intégrer des messages Twitter, des posts Facebook ou des vidéos YouTube, mais pas encore des vidéos Dailymotion ou des documents Scribd. C’est donc un standard très contrôlé, qui ne permet pas aux éditeurs et aux développeurs d’innover librement.
[...] Mais l’intérêt est aussi voire surtout commercial. C’est une manière de contrôler certains marchés et leurs pratiques.
Ainsi pour afficher dynamiquement des publicités en HTML AMP, et mesurer leur audience, il faut obligatoirement passer par l’une des régies qui bénéficie d’un laisser-passer, parce qu’ils se conforment à des règles (là aussi opaques) : A9, AdReactor, Google AdSense, AdTech, et DoubleClick. Si vous êtes un éditeur Web et souhaitez utiliser votre propre ad-server ou celui d’une petite régie exclue du programme, c’est impossible.
Attention : cette actu date d'avril 2016 mais c'est toujours d'actualité.
Motifs de cette croissance au ralenti des RIP FTTH :
Attention : ça date de fin fin 2015 / avril 2016.
SFR est officiellement épinglé par l'État pour ses déploiements fibre. Dans un communiqué publié vendredi, le ministère de l'Économie a constaté la défaillance de SFR dans ses déploiements FTTH dans la métropole lilloise, plus de deux ans après la signature d'une convention. Saisie par la collectivité, le comité de concertation de la mission France Très Haut Débit a constaté les manquements du groupe, ce qui libère la métropole de ses liens avec le FAI.
Au-delà du problème qu'elle illustre pour SFR, cette décision est une première importante. Il s'agit du premier constat de défaillance de déploiement de la fibre jusqu'à l'abonné (FTTH), selon plusieurs experts interrogés. Un constat aux conséquences importantes, qui met une nouvelle pression aux opérateurs sur leur couverture fibre en zones denses. Cela alors que Numericable-SFR nous explique ne pas déployer de FTTH sur les communes disposant déjà de câble.
[...] Dans ce cas, un « constat de carence » est dressé et la collectivité est libre de ses déploiements sur la zone concernée. Il permet à la collectivité de renégocier son contrat, de faire appel à d'autres opérateurs mais aussi de monter son propre réseau d'initiative publique (RIP), si elle le souhaite.
[...] Dans un communiqué qu'elle nous a transmis, Lille Métropole affirme que SFR a voulu rompre sa convention pour en proposer une autre, portant sur 13 villes au lieu de 70. « Ainsi Numericable-SFR a décidé d’abandonner 57 communes de la métropole » dénonce-t-elle.
L'opérateur SFR « a notamment dû renoncer à déployer un deuxième réseau en fibre optique sur certaines communes de la Métropole européenne de Lille qui bénéficiaient déjà d’une infrastructure en fibre optique qui avait été déployée par Numericable ». Le périmètre des déploiements a été rédessiné « pour se conformer aux demandes de l’Autorité de la concurrence, lors du rachat de SFR par Numericable », précise la société.
[...]
En décembre, la métropole a validé la substitution d'Orange à SFR sur 57 communes « délaissées », en plus des 11 autres déjà signées avec Orange. Selon Bercy, la marque au carré rouge a proposé « de formaliser de nouveaux engagements précis pour couvrir 14 autres communes en FTTH ». Pour les deux opérateurs, l'horizon est toujours 2020.
La procédure "carence / reconnaissance de défaillance" a été achevée en avril 2016.
[...]
Il s'agit aussi d'une arme pour les associations de collectivités comme l'AVICCA, qui brandissent parfois le spectre de la « carence » dans leurs discussions avec l'État et les opérateurs. « Si les acteurs majeurs continuent de préférer la rente actuelle sur le haut débit [ADSL], nous n'aurons d'autre choix que de constater la carence et de s'organiser pour faire éclater un oligopole de fait d'une manière ou d'une autre » menaçait le président de l'AVICCA, Patrick Chaize, en juillet dernier.
Je déterre ça de la ML de la FFDN car je trouve que c'est hyper intéressant pour comprendre comment la régulation télécom fonctionne en termes de qui fixe les objectifs, comment on les atteint, comment on rapproche un idéal technique (imposer aux FAI de fournir IPv6 sur les accès qu'ils vendent) ou éthique (neutralité des réseaux) de la doctrine juridique pour que ça soit compréhensible du régulateur et qu'il puisse se reposer sur des fondements de droit pour agir (et pas juste "IPv6 c'est tr0 bien tavu"), etc.
L'ARCEP ne peut pas fixer les objectifs, mais peut fixer les moyens de les atteindre. Je prend un exemple...
Le texte européen en cours de finalisation sur la neutralité du net impose cette neutralité, et sa définition contient le fait que l'abonné puisse utiliser ou fournir les services de son choix sur le Net. Le régulateur est chargé de faire respecter cette neutralité.
L'ARCEP peut considérer que si l'abonnement pro contient une adresse IP publique, alors tout va bien, en échange d'un abonnement pro on peut fournir un service, et c'est la fête. Ou bien elle peut considérer que l'adresse publique est rigoureusement nécessaire, et que donc si elle est réservée à certains abonnés, le réseau n'est plus neutre. Question d'interprétation.
Une fois cette interprétation établie, l'ARCEP émet des décisions / avis, dit "ça, pour nous, c'est pas neutre", le premier opérateur qui ira brutalement contre se fera condamné s'il est attaqué sur le sujet (les sanctions peuvent être lourdes).
Ils comprennent bien que le déploiement de v6 est utile, mais leur offrir un outil juridique est utile. Ils peuvent simplement le recommander, ou ils peuvent l'imposer, selon le moyen qu'ils utilisent. Les recommandations sont en général beaucoup mieux suivies que les décisions. Oui, ça surprend.
Les recommandations portent sur des sujets non-clivant. Fournir de l'IP v6, ça ne modifie pas l'équilibre du business, c'est un peu chiant en ingénierie, mais ça ne touche pas au porte-monnaie. Une recommandation sur le sujet aurait de l'effet.
Une décision disant qu'il est interdit de prioriser le flux VOD contre les flux Netflix sera immédiatement attaquée devant tout ce qu'on pourra trouver comme instance, parce qu'elle touche au pognon.
[...]
Le marché des télécoms est globalement régulé. Les textes européens imposent l'existence d'un régulateur. Mais ce régulateur n'intervient pas tout le temps sur tout. Pour intervenir, il doit prouver qu'il existe un problème. Par exemple qu'il devrait exister une offre (mettons de collecte sur fibre), que cette offre est nécessaire pour telle finalité souhaitable (par exemple aménagement numérique du territoire), que le marché n'a pas fait apparaitre cette offre tout seul, et que donc le régulateur doit imposer des contraintes à certains acteurs pour corriger cette défaillance.
Typiquement, l'ARCEP peut considérer que v6 est nécessaire, expliquer en quoi, puis recommander aux acteurs de jouer le jeu. Si 1-2 ans plus tard ça n'a pas sérieusement bougé dans le bon sens, elle pourra alors contraindre, en constatant que le marché échoue à atteindre un objectif d'intérêt général.
[...]
Quand je plaide sur le coût de la première prise, par exemple, c'est pour inciter l'ARCEP à modifier sa façon de regarder les objectifs. Il doit pouvoir se monter des opérateurs, c'est un des objectifs (ouverture à la concurrence). On peut se dire "en investissant 2 milliards, tout le monde peut devenir opérateur, tout va bien". En considérant que l'opérateur aura 5 millions de clients, l'investissement est raisonnable, il aura une rentabilité, tout va bien. Ou bien on peut décider que le prix de la première prise est un critère (combien est-ce qu'il faut mettre sur la table pour prendre un premier abonné). Pas le seul critère, mais un critère. Et du coup, si l'ARCEP constate que sur l'ADSL pour le premier abonnés il faut mettre 1500 euros (ouvrir une porte de collecte) alors que sur la fibre il faut mettre 3 millions, ce critère devient bigrement intéressant. Il montre un problème qui n'était pas mesurable tant qu'on restait sur "en moyenne 18 euros HT par abonné".
En juillet 1966 dans les laboratoires de recherche des Bell Labs, Charles Kao a fait un travail de pionnier dans la recherche de fibres optiques comme moyen de télécommunication en démontrant notamment que les pertes élevées existantes provenaient de la présence d’impuretés dans la fibre plutôt que d’un problème sous-jacent à la conception elle-même. Cette conclusion a lancé l’industrie des télécoms à réfléchir et à trouver des composants à faibles pertes. Après plusieurs tests pour mesurer l’atténuation du signal, l’équipe de Charles Kao a trouvé que la fibre de verre en silice était le candidat idéal pour le monde des télécommunications.
L'ARCEP, le régulateur français des télécoms, a ouvert une consultation publique portant sur son analyse du marché (des marchés, en vrai) de l'accès à Internet haut débit (HD) et très haut débit (THD) en France.
C'est important car c'est avec tout ça que l'ARCEP fixera le cadre de sa future régulation des marchés haut débit et très haut débit pour 2017-2020. C'est-à-dire changer de modèle si elle constate que le co-investissement échoue à faire émerger une offre THD correcte, décider si elle impose ou non des offres de gros sur la fibre optique qui permettront l'entrée de petits acteurs locaux sur le marché comme les TPE ou les FAI associatifs ou si ces acteurs se feront évincer comme ce fût le cas sur l'ADSL, etc.
Du coup, ce shaarli va s'intéresser à globalement tout ce que j'ai appris en lisant les documents de l'ARCEP. Je vais donc présenter ce que je retiens du déploiement de la fibre optique en France (comment ça se passe sur le terrain, financement, enjeux, etc.) et ensuite je donnerai ma grille de lecture de la consultation ARCEP (qu'est-ce qui va dans leur analyse, qu'est-ce qu'il faut améliorer, etc.).
Au sujet du HD/THD, je pense que les documents les plus intéressants pour comprendre le contexte dans lequel on évolue sont ceux-ci (en plus de la consultation) :
Pour une présentation vidéo de la manière dont est conçu le déploiement de la fibre optique en France, je recommande évidemment la vidéo suivante : FTTH - état des lieux - comment ruiner une bonne idée.
Actuellement, sur les sujets qui nous intéressent, l'ARCEP identifie plusieurs marchés :
Marché du détail (pour un client final)
Le déploiement de la fibre optique en France découpe le pays en plusieurs zones :
Zones très denses (ZTD) : une liste de 106 (actuellement) communes désignées par l'ARCEP. Les plus denses en terme de population.
Zones moins denses : la France moins les ZTD, en gros. Ces zones sont éclatées en 2 :
Réseaux d'Initiative Publique (RIP) : bah le reste de la France, les bleds paumés, en gros. C'est pris en charge par les collectivités territoriales donc genre une commune, une intercommunalité, un département, une région. Donc oui, dans une même région, il peut très bien y avoir plusieurs RIP genre la commune XXX = un réseau, la commune YYY = un autre réseau et tout le reste de la région : un RIP régional. Il y aura aussi forcément des mix entre AMII et RIP dans une même région. ;)
On comprend bien que ce zonage correspond à un découpage privé/public. Ainsi, pour résumer, on a :
Évidemment, chaque opérateur peut déployer son propre réseau, à côté de celui de son voisin. Seule une partie du réseau a l'obligation d'être mutualisée, on va y revenir. Concurrence par les infras, a dit l'UE. :)
Évidemment, dans le cas où un opérateur ne déploie pas sur un territoire sur lequel il avait pourtant signé une convention, aucune sanction réellement contraignante n'est prévue. Au bout de 3 à 5 ans, la puissance publique pourra constater l'échec du privé et rattraper le coup en déployant un RIP. Le jeu des opérateurs va retarder le déploiement, c'est une certitude.
Évidemment, signer une convention AMII est gratuit, l'État ne récupère aucun blé. Cela signifie que les collectivités territoriales doivent déployer un réseau dans les zones rurales où les coûts sont les plus élevés… sans d'autres modèles de financement que de collecter des impôts ou d'espérer du co-investissement d'opérateurs commerciaux… … … Comme ça, dans le futur, on pourra nous asserter que le privé est super efficace alors que la fonction publique croule de fainéant-e-s incompétent-e-s ! Une idée toute simple aurait été de gagner du blé sur les zones denses pas coûteuses pour financer le déploiement en zones rurales très coûteuses. On nomme ça : péréquation. C'est parfaitement prévu dans les textes. Juste, dans le cadre de la fibre, l'UE a dit : concurrence d'abord.
Au niveau macroscopique, le réseau fibre ressemble au réseau cuivre : un réseau capillaire, qui va de chaque habitation jusqu'à plusieurs points de concentration (dont le plus gros est nommé nœud de raccordement des abonnés, NRA), que l'on nomme réseau de distribution (ou réseau d'accès, selon la littérature). À cela s'ajoute le réseau de collecte (ou réseau de transport selon la littérature) qui relie les NRA entre eux ainsi que tous les NRA d'une zone géographique donnée jusqu'à un point où converge le trafic, soit au niveau régional, soit au niveau national.
Au niveau microscopique, le réseau de distribution fibre ressemble lui aussi à celui en cuivre : Réseau de collecte -------- NRO -------- PM -------- PBO -------- DTIO -------- PTO.
Le réseau de collecte ne change pas dans la transition cuivre vers fibre : il a déjà évolué en fibre optique du temps de l'ADSL et il a été installé par la puissance publique la plupart du temps.
Le Point de Mutualisation (PM) remplace le sous-répartiteur de la boucle locale cuivre, en gros. C'est ici qu'arrive, individuellement, chaque ligne optique de chaque logement (il n'y a pas de coupleurs plus loin dans le réseau, on est sur du réseau très capillaire). C'est donc jusqu'à ce point de démarcation que chaque opérateur commercial doit déployer son réseau.
Évidemment, tout ça, c'est la théorie. La pratique peut différer genre des déploiements ont eu lieu avant la sortie de certaines spécifications/recommandations. Genre PBO et DTIO c'pas obligé, genre y'a des zones sans PM et la mutualisation se fait au NRO, etc. Mais les grandes lignes demeurent.
Attention : il est donc faux de toujours partir du principe qu'après le PM, c'est du déploiement vertical car cela est vrai uniquement pour les immeubles de plusieurs étages mais par pour une maison, par exemple.
Attention : un opérateur d'immeuble n'est pas forcément un opérateur de télécommunications déclaré à l'ARCEP au sens traditionnel du terme, il n'exploite pas le réseau. Un opérateur d'immeuble est juste une société commerciale (ou autre) qui sait poser de la fibre et qui se chargera d'être le point de contact unique des opérateurs commerciaux pour décharger les proprios / syndic (oui, parce que si ces personnes doivent indiquer à tout opérateur les coûts pour se raccorder au réseau + où se situe le PM + tout un tas d'autres infos, ils ne sont pas arrivés).
Cette structuration des réseaux est identique, quelle que soit la zone (ZIPU, ZIPRI, etc.). Ce qui change, c'est les modèles de financement, certaines contraintes règlementaires et certains rôles.
Quand j'évoque une adaptation de certaines contraintes règlementaires, je pense notamment à celle de la taille du PM dans les ZMD et les poches de basse densité. En effet, il y a un équilibre à trouver comprenant le nombre de prises que ce PM pourra desservir et la distance depuis le NRO. En effet : un PM trop conséquent est rentable (beaucoup d'abonnés) mais il sature le génie civil puisqu'il y a autant de fibres qui partent de lui que de logement à desservir (à nuancer avec les tuyaux fibre de la largeur d'un pouce qui regroupent genre 144 fibres), ce qui n'est pas possible partout. Des PM trop petits, c'est plein de liens NRO<->PM pas mutualisés à financer par chaque opérateur commercial qui veut les desservir et le prix du linéaire entre NRO et PM n'est pas donné d'où une limite potentielle à la concurrence. Du coup, la taille d'un PM situé en ZTD c'est 100 prises environ OU un PM par immeuble > 12 logements. Dans les ZMD, c'est environ 1000 prises.
En terme de topologies de réseaux optiques, on a le choix entre la famille PON et la famille P2P, en gros. P2P, point-to-point, c'est facile : une fibre dédiée, de bout en bout, entre l'abonné-e et le point de concentration (NRO). Dans une topologie PON, on mutualise une même fibre en sortie du NRO en utilisant des coupleurs. Donc plusieurs abonné-e-s, dont une fibre part de leur logement respectif, partagent en réalité une même fibre côté NRO.
Avantages du GPON ?
Avantage du P2P : la capacité n'est pas mutualisée donc tout le monde a accès au débit qu'il a souscrit. Avec la famille PON, les troncs (avant les coupleurs) sont limités à 2,5 Gbps en réception donc, ça fait 25 clients à 100 Mbps. Sauf qu'on se dit que tous les abonné-e-s ne consommeront pas à fond au même moment donc on mutualise jusqu'à 64 abonné-e-s sur une fibre. Le bon vieux principe du surbooking. Le même qui pose aujourd'hui problème dans les cœurs de réseau des FAI ("chef, chef, tous nos enfoiré-e-s d'abonné-e-s veulent récupérer de la vidéo le soir à 20h, notre réseau pédale !"). Sans compter que, sur un tronc PON, le débit max est asymétrique : 2,5 Gbps / 1,2 Gbps. Mais bon, le consommateur, il veut consommer et il stockera bien ses contenus ailleurs que chez lui s'il veut les diffuser ! Oui, jje suis un peu de mauvaise foi ici : il "suffira" de changer les optiques et pouf, les troncs ne seront plus limités à 2,5 Gbps. Mouiiii. C'est vrai qu'une topo P2P nécessitera aussi de changer les optiques mais disons que je ne suis pas convaincu qu'on fera passer des tb/s dans des fibres juste en changeant les optiques. Du coup, la techno P2P me semble être celle qui saturera moins vite.
En France, c'est le GPON qui a gagné. Seul Free fait du P2P et uniquement dans les ZTD. Évidemment, ça c'est la théorie. La pratique offre beaucoup plus de diversité : https://lafibre.info/ftth-la-fibre-optique-gpon-ou-p2p/techno-fibre/ .
Dans la ZIPRI, on a principalement un modèle de co-financement / co-investissement. Chaque opérateur commercial déploie son réseau depuis le réseau de collecte jusqu'au point de mutualisation (l'ARCEP indique qu'il n'y a pas d'offres de co-financement des segments NRO-PM à l'heure actuelle) puis co-finance la partie mutualisée du réseau. Cette partie mutualisée est construite par l'opérateur d'immeuble et assumée par lui et les opérateurs commerciaux associés au projet.
Concrètement, l'opérateur d'immeuble publie une offre de mutualisation à destination des autres opérateurs. Il y a ensuite un appel à financement initial (ab initio). Si d'autres opérateurs commerciaux veulent rejoindre le financement plus tard, après coup, pour avoir accès au PM, ils le peuvent (mais forcément, y'a des avantages en moins comme la possibilité de demander l'hébergement d'équipements actifs au PM qui n'est plus considérée comme étant raisonnable). Dans tous les cas, ce n'est pas de la location de réseau mais bien de l'investissement : le co-financement initial et l'offre d'accès (après coup) octroient des droits pérennes sur le réseau. En plus d'offre de location à la ligne qui reste une location, si j'ai bien compris.
Exemples : suite à des conventions signées en 2011-2012, Bouygues co-finance partiellement avec SFR (qui déploie) dans les ZTD. Dans les zones ZMD-AMII, Bouygues co-finance partiellement avec Orange (qui déploie) et Free co-finance avec Orange (qui déploie).
Évidemment, il y a des adaptations en fonction des zones : en ZTD, financement initial = partage global des coûts en échange de droits pérennes et d'accès à toutes les lignes alors qu'en ZMD c'est plus un financement par tranches de 5% en échange de droits pérennes et d'accès à un nombre prédéfini de lignes. Même chose pour le lien PBO<->DTIO : il est payé lors du co-financement en ZTD alors qu'il est payé par le premier opérateur commercial (+ droit de suite si changement d'opérateur commercial par l'abonné-e) dans les ZMD. Évidemment, dans le cadre d'une maison, s'il y a besoin d'effectuer des travaux dans la propriété privée (genre gaine souterraine car celle du téléphone n'est pas exploitable), c'est à la charge du propriétaire (mais, bien sûr, personne ne l'oblige à signer avec un opérateur d'immeuble pour avoir la fibre chez lui ;) ).
On sent bien que ce modèle entraîne une concentration verticale naturelle entre opérateurs d'immeuble et opérateurs commerciaux : l'opérateur d'immeuble doit être "accompagné" par un opérateur commercial s'il veut obtenir des abonnements à coup sûr et s'il veut que le projet soit co-financé donc autant le faire lui-même et vlam, concentration, à la fois verticale (opérateur intégré) et diminution du nombre d'acteurs sur le marché.
ÉDIT DU 19/09/2016 À 21H00 : De même, ce modèle entraîne forcément un oligopole des opérateurs qui sont en capacité d'investir. Cela favorise également Orange : quand on commençait à évoquer les déploiements fibre, en 2009, Orange avait une insfrastructure déployée partout et rentable alors que les autres FAI commençait à peine à faire entrer des sous. Sans compter qu'Orange est toujours vu par les investisseurs sur les marchés comme associé à l'État d'où des emprunts plus faciles à obtenir. FIN DE L'ÉDIT.
Dans la ZIPU, les réseaux seront financés par la puissance publique (notamment les segments NRO-PM), c'est-à-dire par les collectivités territoriales (13-14 milliards estimés au total) et quelques subventions de l'État (3+ milliards prévus/débloqués jusqu'ici) mais les opérateurs privés peuvent co-financer les réseaux selon les mêmes règles que dans les zones ZMD-AMII données ci-dessus. Et bien évidemment, après coup, les opérateurs commerciaux pourront toujours venir se raccorder aux PM (et toujours sur le mécano "thune versus droits pérennes" ou sur de la location à la ligne passive).
En contrepartie, on a d'autres dérives genre l'influence d'Orange est reconnue (ce qui confirme les propos de Benjamin Bayart dans la vidéo que j'ai linkée au début de ce shaarli) :
L’Autorité note qu’à ce jour les niveaux tarifaires définis par Orange restent structurants, d’une part, pour les capacités de cofinancement des opérateurs commerciaux désirant investir dans le déploiement des réseaux et, d’autre part, pour les capacités de financement des acteurs publics, qui prennent en compte ces tarifs lors de l’élaboration de leur catalogue tarifaire [...] » ainsi que « comme le souligne l’avis n° 12-A-02 de l’Autorité de la concurrence, « seul un opérateur intégré comme Orange ou SFR est en mesure de s’engager auprès de la collectivité à ce qu’il y ait au moins un opérateur important usager du réseau public FTTH, à savoir lui-même. [...] Il existe donc un risque que les FAI, et particulièrement Orange et SFR, n’utilisent leur engagement de présence comme un instrument stratégique pour distordre la concurrence sur le marché des appels d’offres de collectivités. ».
À ce sujet, lire également : http://www.nextinpact.com/news/95618-la-strategie-d-orange-pour-influencer-elus-locaux.htm (comment est constitué le maillage local (de proximité) d'Orange) et http://www.nextinpact.com/news/95732-fibre-optique-lutte-d-orange-contre-reseaux-dinitiative-publique-rip.htm (cas concrets de FUD de la part d'Orange + objectifs de ce FUD).
Or, les opérateurs commerciaux d'envergure nationale semblent être quasiment nécessaires : les gens préfèrent une marque connue à un petit opérateur bien local inconnu, ça les rassure. Oui, les mêmes gens qui râleront que le SAV (délocalisé, mais c'est un détail) du gros FAI les traitent comme de la merde et/ou ne comprend pas leur problème. Paraît aussi qu'il faut proposer une offre TV sinon on ne vaut rien, chose que les petits opérateurs ont du mal à faire à cause des contraintes commerciales...
Dans les deux cas, les accords-cadre de co-investissement semblent porter sur une maille géographique donnée, plutôt niveau communal en ZTD et intercommunal en ZMD.
Évidemment, les différentes phases peuvent être exécutées par des sous-traitants différents. Genre les collectivités territoriales ont tendance à déléguer la conception, la construction et la commercialisation à des prestataires différents là où les gros opérateurs nationaux préfèrent tout faire eux-mêmes, de bout en bout (Orange en est le meilleur exemple).
Dans les discussions mondaines, on entend beaucoup d'inexactitudes : genre que l'opérateur d'immeuble a imposé une exclusivité, genre que l'immeuble interdit à chaque locataire/coprop de choisir l'opérateur commercial, etc. Il faut éviter les raccourcis & co.
Sur le cuivre, la mutualisation de la boucle locale (dégroupage) est arrivée bien après la construction du réseau. Du coup, toutes les infos (tel numéro de téléphone fixe c'est telle référence de ligne, telle position sur tel DSLAM dans tel NRA, telle position sur tel pylône ou dans telle tranchée, etc.) étaient dans le système d'information d'Orange. Et d'après les documents de l'ARCEP, c'est déjà un foutoir monstrueux.
Sauf que pour la fibre, si vous avez suivi, on a un nombre d'acteurs bien supérieurs. Il faut bien que les opérateurs d'immeuble stockent les références d'une ligne (désignation au PBO, désignation au PM, tel PM est desservi par la fibre reférence untelle, NRO untel, etc.). Et il faut bien que ces références soient uniques au niveau national histoire que si un opérateur d'envergure nationale veut louer une ligne, pouf, il sache exactement que tel futur abonné, c'est telle ligne. Il faut donc que les opérateurs d'immeuble communiquent les informations (références des lignes, emplacement du PM, etc.) aux opérateurs commerciaux.
De même, y'a plein d'autres endroits où il faut jouer en groupe genre la définition de la couverture des PM d'une zone parce que sinon peut y avoir des bâtiments dans la zone de couverture de deux PM ou dans aucune…
C'est le même bazar à l'échelle macroscopique : il faut bien que chaque opérateur commercial sache que sur telle zone géographique, c'est tel réseau déployé par telle entité vu qu'on a vu plus haut qu'on peut avoir une commune en AMII au beau milieu d'une zone RIP. Qui opère le réseau ? Il faut bien que l'opérateur commercial le sache pour pecho la grille tarifaire (le modèle de co-investissement) et les infos sur le PM.
Bref, il faut monter un SI. À l'heure actuelle, chacun fait comme il veut, chaque operateur d'immeuble et chaque operateur commercial a son SI. Et chacun tente d'interfacer son SI avec tous les autres SI dans une relation deux à deux. Il n'y a aucun SI commun d'envergure nationale, simplement un registre des opérateurs d'immeuble pour fixer la première partie des références des lignes pour assurer leur unicité au niveau national. Pas une API. Il n'y a même pas de standard pour l'interfaçage des SI. Il y a bien le groupe de travail « Interop'Fibre » monté par les grozopérateurs mais il n'y a aucune obligation de déployer les protocoles qu'il définit…
On sent bien que cette approche ferme le jeu : un nouvel opérateur entrant doit avoir le temps et l'argent d'interfacer son SI avec tous ceux de sa zone d'intérêt. Il faut identifier les réseaux et les acteurs puis écrire le bout de SI avec le peu de spécificiations arrachées avec peine aux autres opérateurs. Ce n'est pas permis à tout opérateur donc ça constitue une barrière à l'entrée.
Au 31 mars 2016, plus de 35 % des abonnements FttH reposaient sur une offre de mutualisation passive, tandis qu’environ 2 % étaient basés sur une offre de gros activée, uniquement dans les RIP. ÉDIT DU 19/09/2016 À 19H50 : cela signifie donc que ce chiffre de 2 % n'a aucun sens puisqu'il ne tient pas compte des disparités entre zones. Il est le reflet de la mutualisation en ZTD & ZMD-AMII, rien de plus. Si l'on regarde plus en détail, 10 % des abonnements en ZIPU sont basés sur une offre de gros activée. Cela ne tient pas non plus compte de l'inexistance d'offres de collecte bitstream dans la ZIPRI alors que la mutualisation passive est de base dans le cahier des charges. FIN DE L'ÉDIT.
ÉDIT DU 19/09/2016 À 21H00 : deux choses sont à noter :
FIN DE L'ÉDIT.
Souvenez-vous qu'il y a un biais dans mon analyse : je la lis d'un point de vue petit fournisseur d'accès à Internet (micro-opérateur), sous forme associative ou TPE. Je lirais différemment dans un contexte d'opérateur plus conséquent sur le marché, notamment sur le point des offres d'accès de gros allumées dites bitstream.
Question 5 (bitstream FTTH) :
En 2014, l'ARCEP :
Ces offres sont considérées avec des points de vue extrêmement divergents.
Il y a les personnes qui les voient comme des offres commerciales de seconde zone et qui préfèrent militer pour obtenir des offres passives pour déployer leur réseau.
Et d'autres, dont je fais partie, qui considère que les offres bitstream doivent exister (et donc qu'il faut militer pour leur apparition sur la fibre) parce que ce sont les seules offres qui sont accessibles à tous les opérateurs, quelle que soit leur taille, tout simplement !
Alors oui, ces offres allumées contraignent l'opérateur utilisateur à faire les mêmes choix techniques que ceux faits par notre fournisseur. Oui, ces offres favorisent la concentration du trafic puisque leur livraison se fait au niveau régional ou national. Oui, ces offres peuvent virer facilement à la surveillance puisque l'opérateur qui propose l'offre bitstream voit passer le trafic de l'opérateur qui utilise cette offre. Mais, on n'a pas le choix.
Jamais une TPE ou un FAI associatif ne pourra de positionner sur un PM fibre (et encore moins sur un NRO). Pas même sur un SR/NRA cuivre. Il faudrait qu'il loue le réseau de collecte (offre LFO d'Orange) puis un hébergement dans le NRA/O (> 10k€/mois de loyer) + les équipements actifs optiques puis qu'il loue le génie civil d'Orange pour arriver au PM (offre GC LOC d'Orange). Impossible à moins d'avoir la majorité des logements desservis par ce PM qui signe avec notre opérateur. En milieu associatif, une telle concentration ne s'est jamais vue.
Les offres bitstream permettent à tout opérateur d'intervenir sur les réseaux numériques. Et c'est important, car le petit opérateur, il n'a peut-être pas d'infra, mais il peut avoir d'autres qualité genre service spécifique à un territoire donné, service client local, défense des libertés, etc.
Liste des datacenters dans le monde. Bon, c'est encore un peu vide et il y a des erreurs.
En complément de http://www.datacentermap.com/
Via #ffdn
Quand j'pense qu'on est partis pour en avoir jusqu'en mai 2017, de cette merde…
Ha mais non, rassures-toi (ou pas) : la merde c'est en permanence. Contrairement à l'énergie infinie, la connerie infinie existe.
Via #arn .
« Qui veut vraiment une grosse bite ? [...] Êtes-vous sûr que ça vaut le coup ? »
:')
Eyeo GmbH, the company that makes the popular Adblock Plus software, will today start selling the very thing many of its users hate—advertisements. Today, the company is launching a self-service platform to sell "pre-whitelisted" ads that meet its "acceptable ads" criteria. [...]
"The Acceptable Ads Platform helps publishers who want to show an alternative, nonintrusive ad experience to users with ad blockers by providing them with a tool that lets them implement Acceptable Ads themselves,” said Till Faida, co-founder of Adblock Plus.
Publishers who place the ads will do so knowing that they won't be blocked by most of the 100 million Adblock Plus users. The software extension's default setting allows for "acceptable ads" to be shown, and more than 90 percent of its users don't change that default setting.
Eyeo started its "acceptable ads" program in 2011. With the new platform, it hopes to automate and scale up a process that until now has been a cumbersome negotiation. What once could take weeks, the company boasts in today's statement, now "takes only seconds."
[...] Earlier this year, Adblock showed its users Amnesty International ads promoting free speech—in the same spaces it had removed ads chosen by the publisher. (Adblock and Adblock Plus are different products.)
"It does blur the line," said Ben Williams, head of operations for Adblock Plus, at the time.
Mais c'est de la pub A-C-C-E-P-T-A-B-L-E, on vous dit, voyons ! Y'a la pub acceptable et y'a la mauvaise pub comme y'a les bons et les mauvais chasseurs, voyez.
Le nom « Quadr’apéro » est le nom donné aux rencontres organisées par la Quadrature du Net, association de défense des droits et libertés à l’heure du numérique.
Les objectifs de ces apéros sont d'informer et d'échanger, de manière ouverte (personne ne sait tout) et conviviale, autour des impacts du numérique sur la société et de la transposition, dans la législation, des droits et libertés fondamentales à l'heure du numérique.
On explique et on discute de l'actualité, c'est-à-dire des projets de loi français (exemple : loi Renseignement) et européens (exemple : neutralité des réseaux), de jurisprudence (arrêt Digital Right Ireland par la Cour de Justice de l'Union Européenne), procédures judiciaires et administratives,... bref, ce qui façonne, d'une certaine façon, les rapports de nos sociétés à Internet.
Cette déclinaison brestoise, co-organisée avec la Maison du Libre n’est en rien organisée par la Quadrature du Net mais nous soutenons son action.
Le dictionnaire du noob est une réponse à tout-e-s celles et ceux qui ne comprennent pas des mots techniques, qui ne se sentent pas compétentes ou spécialistes, et qui ont peur de dire qu'ils-elles ne savent pas.
C'est un document qu'on peut mettre dans son sac, ranger dans sa bibliothèque ou répliquer à l'aide d'une photocopieuse pour le déposer dans son tiers-lieu préféré.
Le plus intéressant, àmha, est la manière dont le dictionnaire se remplit de manière collaborative à chaque événement auquel les Chats participaient.
Une déclinaison (partielle) en LSF (langue des signes française) : http://media.leschatscosmiques.net/medias/lsf/article/dico-du-cryptonoob?lang=fr
Le retour d'expérience d'une crypto-party / chiffro-fête organisée à Brest par des novices (dont je faisais partie, hein :P ) en octobre 2015 (et oui, ça date mais ce CR est beaucoup plus récent).
Globalement
Tenir compte du pouvoir de prescription qu'a ce genre d'événements. Évidemment, ne pas "conseiller" des outils cryptos qui ne sont pas éprouvés ou qui sont des illusions de sécurité (exemples : Chiffrement de Vernam ou « comment (ne pas) faire de la cryptographie (comme Blind Eagle) ou Snake Oil - Looking for a list of previous KickStarters/other crowd funding initiatives). Mais ça peut aller plus loin :
- Que faut-il conseiller entre un outil de chiffrement de SMS accessible au plus grand nombre mais qui balance les métadonnées à Google (comme SMS Secure / Signal) ou un outil de chiffrement de SMS moins facilement utilisable (la vérification de l'identité est plus pénible) mais Google-free (comme Text Secure) alors que l'on sait que les métadonnées disent tout de nous (illustrations : Les métadonnées téléphoniques révèlent des informations très privées ou Comment votre smartphone transmet en toute innocence pratiquement toute votre vie aux services secrets) ?
Faut-il conseiller Telegram qui n'utilise pas le chiffrement de bout-en-bout c'est-à-dire que son éditeur peut déchiffrer toutes les communications (selon sa propre volonté, de celles de ses partenaires économiques, de celles des services de renseignement / police, etc.) et qui fait fuiter les métadonnées ?
Une fois qu'on a connaissance de l'antécédent fâcheux avec Peerio, faut-il conseiller une techno de communication qui est open-source mais qui n'est ni acentrée ni communautaire ?
- Mettre en pratique OTR avec le client Jabber Gajim est un non-sens quand on voit le message de l'auteur du plugin. Ça implique de demander aux personnes de changer de logiciel donc de changer leurs habitudes alors qu'elles utilisent déjà Jabber, ce qui est déjà une excellente chose et un effort consenti.
Le choix n'est pas simple, il dépend du modèle de menace de chacun-e mais il conditionne beaucoup de choses dont les futurs problèmes que nous aurons à résoudre et nous trouvons dommage de demander aux participant-e-s de devoir changer leurs habitutes puis de devoir leur demander un nouvel effort dans quelque temps alors qu'on sait déjà, à l'heure actuelle, que de la crypto fermée ou pas communautaire ou pas acentrée ou pas de bout-en-bout, ça finira forcément mal. Peut-être pas aujourd'hui, certes. Peut-être pas demain, certes. Autant faire franchir un plus grand pas aux participant-e-s mais le faire d'un seul coup, non ? Question à réponses multiples.
- Une erreur fondamentale que l'on a faite durant cette CCPF #1, c'est que ni une majorité des intervenant-e-s, ni les organisateur-rice-s n'ont donné un moyen de joindre toutes les personnes impliquées dans les activités. Et c'est mega dangereux car, maintenant, on a des personnes livrées à elle-même qui ont peut-être des questions et qui, faute de savoir vers qui se tourner (un moteur de recherche n'a pas réponse à tout), ont dû contourner la sécurité. Bref, mettre un contact (mail / tel ou au moins le nom des assos organisatrices), en gros, dans un endroit bien visible et, si possible, sur les slides des intervenant-e-s. Le suivi est aussi important que la CCPF elle-même.
Faire une CCPF sur un seul jour, c'est vraiment trop court et ça pose des problèmes :
Toutes les activités ont lieu en même temps donc il est impossible de créer une sorte de parcours initiatique cest-à-dire de permettre aux gens de participer à un talk théorique "pourquoi chiffrer ses communications" puis ensuite à un atelier GPG ou OTR puis ensuite à un atelier chiffrement de supports de stockage, par exemple. Au bout du bout, ça veut dire que l'orga priorise des ateliers, de par la position qu'elle leur assigne dans l'agenda. Or, GPG est-il plus important qu'OTR, par exemple ?
- Conséquence du point précédent, chaque atelier pratique doit prévoir un moment dans son créneau pour vérifier que la théorie est connue alors que c'est la même théorie pour un ensemble d'ateliers. Il serait plus pertinent de permettre aux débutant-e-s d'assister à l'atelier théorique avant l'atelier pratique. Et ça, ça suppose d'avoir assez de créneaux horaires afin de faire correspondre les disponibilités des animateur-rice-s
- Répéter un même atelier plusieurs fois au cours de l'événement est une bonne chose. Exemple de l'atelier GPG : on n'a pas du tout eu le même public, les deux sessions étaient donc utiles. Évidemment, il faut prendre en compte le facteur fatigue des intervenant-e-s au cas par cas.
- Heure d'ouverture : on avait choisi de commencer à 10h avec un café-discussion et de boucler à 20h. Proposer des ateliers/talks matin et aprem, ça répond à un besoin : il y a des personnes plus productives / concentrées / attentives le matin, d'autres l'aprem. Sans compter qu'un week-end, c'est court, chacun-e a ses occupations/contraintes et un public présent le matin peut ne pas revenir l'aprem. On a constaté ce dernier point lors de la CCPF #1, en dialoguant avec quelques participant-e-s.
- On avait fait 4 réunions de préparation dont la dernière a eu lieu fin septembre + 1 mise en situation le vendredi soir précédant la CCPF. À notre avis, il faut organiser + de réunions quand l'événement approche. Simplement car il y aura des changements dans l'agenda pour convenir à tous les intervenant-e-s, des désistements, des choses pratiques à préparer dans le lieu qui ne pourront pas être préparées en avance car le lieu sera utilisé la même semaine pour d'autres activités, par exemple. Bref, dégrossir des mois avant puis d'autres (courtes) réunions pour fignoler et s'adapter au fil de l'eau.
- Comment avait-on fait connaître l'événement ? Mail sur les listes de discussion habituelles (Chats, MDL, LPH,…) + diffusion sur d'autres listes par la mairie (puisque cet événement s'inscrivait dans le cadre de Brest en Biens Communs) + pose d'une quinzaine d'affiches flashy Chats-style dans différents lieux (PL Guérin, MDL, Petite Librairie, Kuutch, Beaux-arts, UBO, pendant la conf' de S. Bortzmeyer, etc.).
On avait eu quelques idées supplémentaires mais on n'a pas eu le temps de les mettre en pratique :
Trouver une signalétique pour marquer la difficulté des ateliers/talks genre "1 clé, 2 clés, 3 clés" (des symboles clé). Idée reprise de la présentation « CryptoParty en bibliothèque ? L’exemple de la bibliothèque de l’INSA de Rennes » réalisée par Damien Belvèze & Chloé Lailic lors du Jardin Entropique 2015. Finalement, on a opté pour un libellé "facile / moyen /difficile et très difficile".
Faire une sorte de grades à la Caliopen pour indiquer l'état d'avancement des gens dans la "crypto-anarchy", pour les motiver à progresser. Ou un système de badges / pin's : t'assistes à un atelier = tu récupères le badge de l'atelier en question. Ça pourrait même être fédérateur entre plusieurs éditions de CCPF. On n'a pas eu le temps de gérer ça.
- Feuille d'inscription aux ateliers pour respecter les quotas définis par les intervenant-e-s. Genre tu les mets sur un tableau bien visible dans la salle principale. On avait bien imprimé les feuilles mais on a oublié de les utiliser.
Concernant les activités
- On avait prévu 2h par session pour l'atelier GPG-Enigmail. Ça ne passe pas, les intervenants ont débordé à chaque fois. Il faut prévoir 3h minimum. Même sans pause, les intervenants n'ont pas eu l'impression de perdre des gens en cours de route donc en faisant une pause à mi-parcours, ça devrait passer large.
- Sur l'atelier OTR, on a manqué de coordination avec l'intervenant ce qui fait qu'il n'y avait pas de serveur Jabber pour créer des comptes de test pour les participant-e-s. On aurait eu le même souci si l'atelier VPN avait eu lieu. De manière générale, ça fait un point supplémentaire à vérifier avec chaque intervenant-e : est-ce qu'en plus d'un vidéoprojecteur, paperboard, ordinateur et autres objets habituels, il-elle n'a pas aussi besoin d'un serveur (Jabber, IRC, mail, etc.) expérimental réservé aux participant-e-s des ateliers ou tout autre besoin numérique (exemple : connexion à Internet haut débit) ?
La partie GPGBox (expliquer la cryptographie asymétrique, les métadonnées et les backdoors avec des boîtes en papier) de l'atelier GPG-Enigmail semble avoir plutôt bien fonctionné. Quelques conseils et prolongements possibles :
Acheter des cadenas à clé bon marché c'est-à-dire des cadenas mal usinés pour lesquels une même clé ouvre 9/10 cadenas de la même série, permet d'illustrer les concepts de backdoor et de "seule la cryptographie bien implémentée et bien utilisée protège".
Il faut penser à marquer les clés et les cadenas avec un code couleur (pastilles de couleur / porte-clés de couleur, par exemple). On n'a pas eu le temps lors de la réalisation des nôtres et ça a conduit à des couacs mineurs durant l'atelier.
À notre avis, il faut sortir les GPGBox de l'atelier GPG-Engimail pour les utiliser dans un atelier dédié et théorique d'initiation à la crypto. Avec elles, tu peux expliquer crypto symétrique/asymétrique + métadonnées + backdoor. Cependant, pour illustrer la crypto symétrique, des cadenas à code seraient plus pertinents.
- Concernant les optimisations possibles : il faudrait faire des boîtes plus grandes pour lutter contre l'usure. Pour les trous pour le cadenas, on peut utiliser des œillets de renfort. Idéalement, les box seraient plus pérennes en carton ou en bois et en utilisant des feuilles adhésives effaçables afin de pouvoir réutiliser les box à l'infini.
Koi kon met dans le programme d'une CCPF en 2015-2016 ?
Nous pensons qu'il y a 3 grands axes inévitables à explorer en parallèle : théorie, "pratique facile" et communication.
Dans théorie, on peut mettre : comment fonctionne la crypto, gpgbox, modèle de menace, expliquer pourquoi on a tous-toutes quelque chose à cacher, illustrations de la galère politique ambiante (lois sécuritaires) qui justifie le recours à la technologie mais que ce n'est pas suffisant, qui surveille qui et dans quels buts,… Avant de faire quelque chose, il faut déjà comprendre pourquoi on le fait. Il est donc évident que ces ateliers/talks doivent être sur des créneaux horaires différents de ceux des ateliers/talks plus avancés, histoire que les gens aient l'occasion de passer des ateliers théoriques aux ateliers pratiques.
Dans "pratique facile", on peut mettre tout ce qui constitue une première approche pratique en douceur. Il y a deux exemples standards : le chiffrement des supports de stockage (Android, Windows + Veracrypt, GNU/Linux + LUKS) et TOR. Les deux sont simples à mettre en place, sans prise de tête et sont transparents à l'usage. Tu n'as pas la notion de vérification préalable de l'identité du pair qui complique tout comme dans la communication.
- Dans communication, on peut mettre GPG, OTR, Text Secure, et tu peux monter jusqu'à comment installer et configurer un serveur VOIP avec SRTP et ZRTP pour la confidentialité des conversations téléphoniques au sein d'une petite communauté.
En plus de ces 3 axes, on peut se faire plaisir et mettre des bonus : Freenet, GNUnet, les services cachés de TOR, bitmessage, la stéganographie, le lockpicking, etc. Bref, tous les trucs funs, tous les trucs pas répandus, tous les trucs pas forcément simples à prendre en main, tous les trucs dont on n'a pas encore besoin urgemment mais dont on pourrait avoir besoin si le temps politique se gâte encore plus. À ce sujet, on peut tout à fait envisager des talks politiques genre défense des libertés car la technique ne suffira pas à l'assurer.
Bien évidemment, tu n'es pas obligé de tout faire en une seule fois, tu peux piocher des items dans plusieurs catégories et varier entre chaque CCPF.
Rien de neuf sous le soleil mais profitons-en pour creuser le sujet.
Le quotidien Afternposten est le plus gros journal norvégien, et son rédacteur en chef Espen Egil Hansen a décidé vendredi de s’attaquer en Une au fondateur de Facebook, Mark Zuckerberg. Aftenposten est en colère contre le réseau social américain, qui a exigé du quotidien qu’il retire de sa page Facebook une publication qu’il avait faite de la célébrissime photographie dite « de la petite fille brûlée au napalm », prise en 1972 par Nick Ut, pour Associated Press.
La photographie faisait partie d’une collection de sept clichés réunis par l’auteur norvégien Tom Egeland pour illustrer les photos qui sont réputées avoir changé le cours de l’histoire. [...] Mais Facebook, lui, n’a retenu de l’image historique que la toute petite zone, certes centrale, où apparaît le sexe imberbe de la jeune fille, dont l’état le plus naturel qui soit s’oppose à la cruauté des armes fabriquées par l’Homme. Les algorithmes ont analysé l’image, et livré leur conclusion. Pornographie infantile. Dit autrement, pédophilie. Résultat : censure.
En elle-même, la censure de la petite fille au napalm n’est qu’anecdotique, et elle est hélas le fruit d’une politique pudibonde trop souvent subie par des internautes et des médias, largement documentée, par exemple lorsqu’il s’agit volontairement ou non de censurer des campagnes de prévention du cancer du sein, de bloquer la diffusion de photos de femmes qui allaitent leur enfant, ou encore d’interdire l’Origine du Monde de Courbet. Souvent, Facebook revient sur ces décisions après un examen plus humain, et surtout plus réfléchi.
Oui, enfin Facebook revient surtout sur ses décisions quand la société civile hurle trop fort et que ces cris risquent de compromettre le business ! Comme c'est d'ailleurs le cas dans cette affaire, voir http://www.liberation.fr/futurs/2016/09/09/facebook-revient-sur-sa-dec .
[...] « Même si nous reconnaissons que cette photo est iconique, il est difficile de créer une distinction pour autoriser la photographie d’un enfant nu dans un certain cas, et pas dans d’autres », tente de plaider un porte-parole de Facebook interrogé par le Guardian.
Hé oui, l'intelligence artificielle, ça n'existe pas encore. Ça reste de la recherche de motifs évoluée, donc faillible.
Or cette censure, due encore une fois à la psychose anti-nudité qui envahit le monde sous le poids des plateformes de culture américaine, n’est que la partie visible d’une censure plus profonde, qui peut être aussi politique et parfois très difficile à critiquer. Quand le réseau social interdit à des « groupes islamistes » de diffuser de la propagande, tout le monde ou presque applaudit des deux mains. Mais ce faisant il leur interdit aussi, de fait, de faire connaître photos ou vidéos de civils tués sous les bombes de la coalition occidentale, parmi lesquels existent aussi probablement des petites filles apeurées. La censure est toujours un choix qui a des conséquences. Toute la question est de savoir si une plateforme privée aussi incontournable que Facebook peut rester celle qui choisit les critères de cette censure (fût-ce de manière faussement neutre et automatisée), et oriente donc ces conséquences.
Très juste.
Le problème est très bien posé par Benjamin Bayart, sur son twitter ( https://twitter.com/bayartb/status/774299948611436544 ) :
Facebook veut jouer sur les deux tableaux : ne pas être considéré comme un éditeur mais plutôt comme un intermédiaire technique tout en ayant le droit de censurer comme bon lui semble, en dehors de toute réglementation. Pour comprendre en quoi c'est absurde, il faut comprendre la différence entre le statut d'éditeur et celui d'intermédiaire technique :
Normalement, c'est dans la loi que l'on protège les faibles des puissants et que l'on organise la vie en société et que l'on fixe les libertés et leurs limites… Il serait temps que les parlements se bougent sur la question de la censure privée au lieu de réguler les gros silos du web en utilisant uniquement le droit de la consommation et celui de la fiscalité ?
Très bon résumé, bien écrit, de ce qui se cache derrière Facebook Internet.org/Free Basics ou Google Loon.
La semaine dernière, Mark Zuckerberg, le PDG de Facebook, a fait sa première tournée en Afrique. Il s'est arrêté au Nigeria et au Kenya. Officiellement, il est venu à la rencontre des startup africaines. Mais en réalité, le jeune tycoon américain vise un milliard de nouveaux clients. Explications de l'avocate Julie Owono, du bureau Afrique de l'ONG «Internet sans frontières». [...]
[...]
Julie Owono : La tournée africaine de Mark Zuckerberg coïncide certainement avec son objectif et son projet actuel qui est celui de participer à la connectivité du prochain milliard d’internautes du monde à travers notamment son service, le service de sa société Free Basics qu’on appelle aussi Internet.org. L’idée de ce service est de fournir internet gratuitement aux plus démunis de la terre, ce qui parait de prime abord excellent et très louable. Pourtant nous pensons que l’enfer est pavé de bonnes intentions et dans le cas de Free Basics il y a au moins deux tromperies sur lesquelles il faut insister. La première c’est que Facebook ne propose pas un accès gratuit à internet à travers Free Basics, c’est à dire un accès à tout le savoir créé et constitué par l’humanité jusqu’à présent, mais simplement à Facebook, d’une part, et surtout à d’autres sites de base que Facebook aura présélectionné. La deuxième chose sur laquelle nous pensons qu’il y a tromperie, c’est évidemment la question de la gratuité. Il y a un adage bien connu qui dit que si un produit est gratuit, c’est que c’est vous la marchandise. Et en l’occurrence, effectivement, la question des données personnelles de ceux qui utilisent Free Basics se pose. Quand vous souscrivez ce service-là, vous acceptez que Facebook partage vos données personnelles avec des tiers. Or, on ne sait pas qui sont ces tiers. Tout ceci concourt à dire qu’évidemment, Free Basics n’est pas une bonne aubaine pour les pays africains. Et d’ailleurs, on se souvient que plus tôt cette année cette même proposition avait été refusée par le gouvernement indien, après que celui-ci ait été convaincu par une note des membres de la société civile [...]
[...]
Oui, mais en Europe par exemple, désormais il y a eu un règlement européen qui prévoit, qui impose à ces entreprises-là – en tout cas, ça a été l’objet de discussions – que les données personnelles des Européens soient stockées dans des serveurs qui sont situés dans l’Union européenne. C’est la première chose. Et la deuxième chose c’est que l’Union européenne impose à ces opérateurs économiques américains de respecter la législation en vigueur sur la protection des données personnelles. C’est ce même mouvement-là qui devrait être impulsé sur le continent africain et qui malheureusement n’existe pas pour l’instant puisque toutes ces entreprises-là viennent, signent des contrats, rencontrent les chefs d’Etat comme ce fut le cas de monsieur Zuckerberg avec monsieur Buhari, le président du Nigéria, sans qu’à aucun moment ces questions-là ne soient posées. Or, la question des données personnelles ce n’est pas simplement une question qui concerne l’individu. Ça concerne l’Etat dans son ensemble et ça concerne in fine des questions de souveraineté. Quand vous laissez à une entreprise privée le pouvoir de savoir ce que vos citoyens pensent, ce qu’ils mangent, où ils vont, avec qui, pourquoi… Vous imaginez bien le pouvoir que ça donne à une entreprise privée [...]
J'ajoute qu'on a aucune idée de la pérennité de ses deux projets. Google qui abandonne des projets, même des projets massivement utilisés comme Reader, ce n'est pas nouveau et la liste de projets abandonnés est longue.
Via #ffdn .