En physique relativiste, on place la dimension du temps sur le même plan que les dimensions spatiales. L’ensemble forme donc une seule entité appelée « espace-temps ». L’hypothèse selon laquelle on devrait pouvoir se déplacer sur l’axe temporel aussi bien que l’on se déplace sur les axes de l’espace n’a donc rien d’absurde en soi.
[...]
Voyager dans le futur
Si je vous disais qu’on voyage actuellement dans le temps, vous me croiriez ? On voyage dans le futur à raison d’une seconde par seconde.
Ça a l’air idiot dit ainsi, c’est pourtant la réalité. Le temps qui passe n’est rien d’autre qu’un voyage inlassable le long de l’axe temporel, du passé vers le futur en restant sur l’instant présent.Bon à part ça, tel qu’on l’entend habituellement voyager dans le futur n’est pas exclu par la physique. Le voyage dans le futur ne crée en effet aucun paradoxe ou problème temporel. En fait c’est même possible.
Maintenant, imaginez : plutôt que que de voyager dans le futur à raison d’une seconde chaque seconde, vous avanciez dans le futur à raison de deux secondes chaque seconde. Si vous faisiez cela et que votre ami ne le faisait pas, alors vous vous retrouveriez en avance sur l’axe temporel par rapport à votre ami. Vous seriez dans son futur.
[...] Et se placer dans un tel cas est faisable : la relativité restreinte nous dit que chaque référentiel (chaque lieu, chaque personne, chaque planète…) dispose de son propre écoulement du temps. Deux personnes peuvent donc avoir des horloges qui avancent à deux vitesses différentes, et donc que l’une avance plus rapidement dans le temps que l’autre.
En pratique, pour que votre horloge avance plus vite que celle du reste du monde, il y a deux possibilités :
- soit se déplacer à une vitesse très importante par rapport au reste du monde.
- soit se placer à côté d’un très intense champ gravitationnel (comme celui d’un trou noir supermassif).
[...]
Quand on se déplace à très grande vitesse (proche de celle de la lumière), notre temps semble s’écouler beaucoup moins vite pour [pour] quelqu’un qui serait resté immobile et qui nous observe. Ainsi, si vous montiez dans un vaisseau spatial et que vous faites un voyage à très grande vitesse, il pourra s’être écoulé 100 ans sur Terre alors que vous n’auriez vécu qu’un an. Les gens restés sur Terre verront alors atterrir une personne jeune qui existait par le passé. Dit autrement, vous auriez effectué un bond dans leur futur.
Ces deux méthodes sont parfaitement valables sur la plan de la physique. Il reste cependant impossible de les utiliser pour le moment : nous ne disposons encore ni la technologie nécessaire pour construire un vaisseau spatial assez rapide, ni un moyen d’aller visiter les abords d’un trou noir supermassif et de revenir.
Néanmoins, il n’est pas nécessaire de voyager à des vitesses proches de la lumière ou près d’un trou noir pour être affecté par ces phénomènes. Voyager à n’importe quelle vitesse et près de n’importe quel objet massique suffit. Les effets seront simplement beaucoup moins importants.
Le meilleur cas observable peuvent être les astronautes à bord de la Station Spatiale Internationale (ISS) : ils voyagent à une vitesse relativement importante (faisant le tour de la Terre en 1h30) en plus de se trouver dans un champ gravitationnel légèrement moins intense que le reste du monde, à cause de leur éloignement à la Terre.De ces deux effets, aux conséquences contradictoires (le premier accélère l’horloge des astronautes, le second la ralentit) la plus significative est celle liée à la vitesse. Ainsi, après avoir passé 6 mois à bord de l’ISS, un astronaute a vécu 5 millisecondes de moins que nous. On peut dire qu’il a voyagé 5 millisecondes dans notre futur.
Voyager dans le passé
On serait tenté de dire que le voyage dans le passé est impossible : le principe de causalité nous l’empêcherait : par exemple, puisque vous descendez de vos parents, alors revenir dans le passé pour empêcher vos ancêtres de se rencontrer peut-il empêcher l’existence de vos parents et donc de la vôtre dans le présent… et par conséquent vous empêcher de retourner dans le passé (en conséquence de quoi vous finiriez par exister tout de même, faute d’avoir pu prévenir votre conception !).
[...]
Ce paradoxe empêcherait donc totalement le voyage dans le passé ? À vrai dire, on ne sait pas encore.
À ce jour, avec la physique dont nous disposons, les tentatives pour prouver l’impossibilité de voyager dans le passé, y compris les travaux de Stephen Hawking n’ont pas abouties : on n’a pas réussi à prouver que le voyage dans le passé était impossible. Ceci ne dit pas qu’il est possible, ça dit juste qu’on n’est pas encore sûr que ce soit impossible, et rien ne dit que cette impossibilité existe et/ou soit un jour prouvée.[...]
L’une d’elle est l’hypothèse du multivers. Avec ça, lorsque l’on voyage dans le passé, on ne se retrouve plus sur notre propre axe temporel, mais sur un autre, dans un autre univers. Toute modification ainsi apportée au cours des événements seront alors totalement décorrélés de l’axe temporel initial. C’est ce qui arrive dans Retour Vers le Futur quand la DeLorean revient en 1985 et découvre qu’il n’y plus qu’un seul arbre debout alors que le 1985 qu’ils avaient quitté en avaient deux
Ainsi il n’y aurait jamais de paradoxe du grand-père : si vous supprimez votre grand-père sur cette nouvelle branche du temps, ceci n’affectera pas votre destinée sur la branche principale. Seulement la nouvelle destinée sur la nouvelle branche (qui n’est à ce moment pas encore écrite). Votre propre existence n’y serait pas non plus compromise car elle naît de l’axe temporel (de l’univers) initial, pas de la nouvelle.
Mouiiiiin deux univers bien cloisonnés mais l'univers "d'origine" sert de référence donc on retrouve les mêmes personnes, les mêmes objets, etc. Difficilement à concevoir…
[...]
Une autre idée pour résoudre le paradoxe du grand-père et donc un problème où des effets (vous) pourraient exister avant leur causes (vos ancêtres) et les empêcher, serait que l’ensemble des événements soient contenues dans une seule et même boucle qui aurait toujours existé. Ainsi, un événement dans votre passé s’est produit grâce à un autre « vous » retourné dans le temps.
On retrouve cette hypothèse dans des œuvres telles que Harry Potter et le Prisonnier d’Azkaban, où Harry et Hermione décident de changer les trois dernières heures de leur propre passé afin de sauver Sirius Black et Buck (l’hippogriffe) de la mort. À la fin de l’histoire, Harry et Sirius sont sauvés par le Harry qui est retourné dans le passé.
À noter que personne ne reste coincée indéfiniment dans la boucle pour autant : la boucle fait partie de l’histoire du temps, mais une fois qu’on dépasse l’heure de la fin de la boucle, on en sort et la vie poursuit son cours. C’est simplement qu’il existe à un moment donné, deux Harry Potter qui s’influent mutuellement.
Par ailleurs, tout ce qui se passe sur la boucle dans son ensemble a toujours existé. Le cours de l’histoire n’a pas été changé et la boucle fait partie de l’histoire :
Un autre exemple assez connu est celui concernant le Titanic : certains pensent en effet qu’un grand nombre de voyageurs temporels sont allés à bord du navire pour tenter d’empêcher son naufrage. Le nombre de voyageurs temporels aurait été si important que la surcharge occasionnée a empêché le paquebot de dévier de sa trajectoire, ce qui a conduit à son naufrage.
Ici, le naufrage est donc causé par les gens du futur qui veulent tous empêcher le naufrage, mais qui en sont, du coup, responsables. Il n’y a pas de paradoxes : tout se tient et les principe de causalité sont respectés.[...]
Selon certaines hypothèses, même, le voyage dans le temps serait seulement possible dès l’instant où l’on invente une machine à voyage dans le temps. Il ne serait alors pas possible de voyager à une date antérieure à la date où la première machine à voyage dans le temps soit inventée. Ceci semble assez logique, et un indice qui prend l’allure de preuves serait alors que nous n’ayons parmi nous aucun voyageur venu du futur…
Où qui ne l'ont jamais dit car aucun moyen de prouver ce qu'ils affirment sans que ça parte en live donc risque pour leur vie.
[...] Ce 16 novembre, le Parlement britannique a adopté l’équivalent de notre loi renseignement, l’« Investigatory Powers Bill ». Surnommé « Snoopers’ charter » (la charte des fouineurs), le texte est encore plus invasif que son cousin français, pourtant pas petits bras.
Sur la forme, il lui ressemble néanmoins énormément : il crée un organe de contrôle dont les opposants à la loi doutent de l’efficacité, et cherche à normaliser des actes auxquels les forces de l’ordre avaient recours, dans le plus grand secret – et donc illégaux.
[...]
- une conservation d’une partie de l’historique web des Anglais pendant douze mois. Les autorités pourront par exemple savoir que monsieur X s’est rendu à telles dates sur le site de Rue89, depuis tel appareil. Néanmoins, elle ne pourront pas connaître l’article consulté : l’adresse complète de la page visitée est considérée comme du contenu, précise le gouvernement ; or les autorités s’engagent à ne scruter que les métadonnées (qui vers quoi, où et quand ?), déjà très précieuses.
Huuum, ce n'est pas un peu pas conforme à la décision Digital Rights Ireland de la CJUE ? Visiblement, ça concerne aussi les noms de domaine consultés. Voir http://www.nextinpact.com/news/102196-le-parlement-britannique-adopte-loi-renseignement-tres-musclee.htm .
- l’intrusion dans des ordi, téléphones, serveurs, réseaux... Le dispositif permet d’espionner la cible de l’intérieur, sans avoir à casser les sécurités mises en place (mots de passe, chiffrement...). Elle permet par exemple d’installer un keylogger, ce dispositif qui permet de savoir ce que vous tapez sur votre ordinateur. Et instauré de longue date en France, par la Loppsi pour les enquêtes judiciaires, et la loi renseignement pour les services de renseignement.
- le déchiffrement imposé des communications. Le gouvernement britannique veut forcer les acteurs du Net à lever le voile sur les échanges sécurisés par le chiffrement. Sans préciser comment il compte l’imposer aux géants Apple, Facebook et compagnie.
Aussi, les autorités devront obtenir des mandats pour certaines actions, comme la consultation et la conservation de lots de données personnelles. Délivré par le secrétaire d'État, il ne doit être utilisable qu'une fois validé par un juge. Les critères d'approbation semblent tout de même assez vagues, allant de la prévention des crimes graves jusqu'à la sécurité nationale, en passant par la protection de l'économie.
Après la Suisse (voir http://shaarli.guiguishow.info/?OIHZVg ), l'Allemagne (voir http://shaarli.guiguishow.info/?IUaf0Q ) et la Belgique (pour la justice uniquement pour l'instant, voir http://shaarli.guiguishow.info/?1ziI6A), voici venu la Grande-Bretagne. Chaaaaaud.
Cela fait plusieurs fois que j'évoque DANE TLSA sur ce shaarli. L'idée est de stocker dans le DNS, signé cryptographiquement avec DNSSEC afin de garantir l'intégrité et l'authenticité des informations, les certificats x509 que nous utilisons dans nos transactions TLS afin de fermer les failles béantes du modèle de sécurité x509. Et de pouvoir se passer des centres de concentration du pouvoir que constituent les autorités de certification (AC) qui sont des sociétés commerciales qui vendent exclusivement du vent.
Pour approfondir la théorie :
Notons que DANE ne s'occupe pas seulement de TLS mais est beaucoup plus vaste. Exemple : le stockage des clés OpenPGP dans le DNS est normalisé, voir http://www.bortzmeyer.org/7929.html .
Je considère la théorie acquise et je n'y reviendrai pas. L'objectif est de tester DANE TLSA dans des conditions réelles sur mes serveurs persos. J'avais déjà tenté en 2014 mais j'étais restait bloqué sur la lib ldns qui ne prenait pas en charge les enregistrements DNS de type TLSA.
En effet, lors d'un futur renouvellement d'un certificat associé à un enregistrement TLSA, il faudra générer le certificat, générer son enregistrement TLSA, publier ce dernier dans votre zone DNS, attendre puis seulement ensuite mettre le certificat en production sur vos serveurs (web, mail, etc.).
ÉDIT DU 14/01/2017 À 17H45 : En fait, ce n'est pas aussi simple, comme nous le verrons de manière elliptique dans la section « Conception » ci-dessous :
FIN DE L'ÉDIT.
Il faut attendre combien de temps ? Cela dépend du TTL de l'enregistrement. Dans mon cas, je configure un TTL de 3600 secondes (1h) dans mes zones persos principalement parce que certaines sont hébergées à domicile, ce qui impose quelques contraintes, voir http://shaarli.guiguishow.info/?wgU1VQ.
Si vous n'attendez pas ce délai, il se peut qu'un client ait récupéré votre ancien enregistrement TLSA. Il n'arrivera pas à valider le nouveau certificat avec l'ancien TLSA. À l'heure actuelle, ce n'est pas bloquant puisque on est dans une validation "à la cool" compte-tenu du faible usage de DANE mais autant prendre le pli des bonnes pratiques qui seront nécessaires dans le futur, si toutefois DANE en fait bien partie, et avec lesquelles la connexion sécurisée échouera purement et simplement.
Avant de foncer tête baissée, réfléchissons à ce que nous voulons et allons faire.
Sur un de mes serveurs, j'utilise un certificat autosigné. Ce sera donc un usage = 3, que l'on nomme aussi DANE-EE / Domain-issued certificate. Il s'agit d'une contrainte sur le certificat : le client TLS doit obtenir le même de la part du serveur TLS pour que l'échange continue. On se passe de toute l'infrastructure et de toute la validation x509 habituelle.
Sur mes autres serveurs, comme celui qui héberge ce shaarli et mon blog, j'utilise une AC perso. Ce sera donc un usage = 2, que l'on nomme aussi DANE-TA / Trust anchor assertion. Il s'agit d'une contrainte sur l'AC : le client TLS acceptera uniquement tout certificat portant mon nom de domaine et signé par cette AC. On se passe de toute l'infrastructure x509 habituelle, on demande au client TLS d'ignorer toutes les AC pré-définies dans son magasin de certificat.
Pour le selector : il faut être vigilant pour les cas d'usage 0 et 2. L'annexe A.1.2 du RFC 6698 explique les cas où l'on peut obtenir des fails : des attributs ont été ajoutés au certificat d'AC, l'algorithme de signature change, le client TLS trouve un certificat d'AC actualisé dans son magasin ou dans son cache ou dans un attribut x509 « Authority Information Access », le certificat est cross-signé par plusieurs AC et le client TLS choisi l'autre CA, Let's Encrypt où le certificat (mais pas la paire de clés !) est re-généré tous les 3 mois, etc. Dans ces cas-là, une comparaison sur l'intégralité du certificat échouera. Dans mon cas, l'AC est mienne, elle ne change pas, elle n'est pas cross-signée, bref, je n'identifie aucun problème. Donc je stockerai le contenu entier de mes certificats dans le DNS donc selector = 0.
Pour le matching type, c'est plus facile : on ne va pas stocker tout le certificat dans le DNS et SHA-256 est suffisant de nos jours donc matching type = 1.
Lorsque je crée mes zones DNS, j'y enregistre d'abord mes machines, sous leur vrai nom genre viki.guiguishow.info. Ensuite, pour chaque machine, j'accroche les services assurés par cette machine. Soit avec les enregistrements MX et SRV quand c'est possible, soit avec des CNAME. Exemples : « @ MX viki », « shaarli CNAME viki ».
Tous mes sites web, mes virtualhosts, utilisent le même certificat x509.
La question est donc : est-ce que je dois créer des TLSA pour shaarli.guiguishow.info ou pour viki.guiguishow.info compte-tenu que le premier est un alias pointant sur le deuxième ? Est-ce que je dois avoir un enregistrement « _443._tcp.shaarli.guiguishow.info. IN TLSA [...] » ou bien un enregistrement « _443._tcp.viki.guiguishow.info. IN TLSA [...] » ?
L'annexe A.2.1.1 du RFC 6698 nous informe que les deux sont possibles (et même en même temps !) mais les implémentations demanderont « _443._tcp.shaarli.guiguishow.info. ». Ce nom doit répondre, même s'il est un alias vers « _443._tcp.viki.guiguishow.info. ». ÉDIT DU 14/01/2017 À 17H45 : pour les protocoles à indirection DNS (comme SMTP ou XMPP) les RFC 7672 et 7673 sont formels : le TLSA doit porter sur le nom du serveur, ici viki.guiguishow.info, pour faciliter l'hébergement. FIN DE L'ÉDIT.
J'ai choisi de créer un seul enregistrement TLSA par machine et autant de CNAME qu'il y a de virtualhosts. Je trouve ça lisible, je trouve que ça correspond bien à mon déploiement actuel de "un certificat x509 par machine" et ça facilitera les changements de certificats.
Oui parce que créer des enregistrements à la main avec OpenSSL, c'pas vraiment convivial.
Un logiciel plus convivial est hash-slinger. Il permet de générer des enregistrements SSHFP (voir http://shaarli.guiguishow.info/?QWcOtQ ) avec la commande sshfp, des enregistrements DANE OpenPGP (voir http://www.bortzmeyer.org/7929.html) avec la commande openpgpkey et des enregistrements DANE TLSA avec la commande tlsa. Il est même packagé dans Debian. \o/
Ce logiciel attend un root.key, c'est-à-dire un fichier contenant la clé publique de la racine DNS pour l'utiliser avec la libunbound afin d'effectuer de la validation DNSSEC locale. Dans mon cas, j'ai un serveur récursif-cache local Unbound installé sur ma machine de travail donc j'ai un fichier /var/lib/unbound/root.key. Si ce n'est pas votre cas, installez unbound-anchor et exécutez la commande sudo unbound-anchor -a /etc/unbound/root.key.
Mais, sous Jessie, l'outil tlsa s'attend à trouver la clé dans /etc/unbound/root.key. Il faut patcher /usr/bin/tlsa (c'est un script python) en changeant les valeurs des variables ROOTKEY et DLVKEY. Ce problème a été corrigé dans les dernières versions. On peut même trouver une version corrigée dans jessie-backports.
tlsa --create --usage 3 --selector 0 --mtype 1 <hostname>
tlsa --create --usage 2 --selector 0 --mtype 1 <hostname>
Attention : il faut que le serveur (web, dans ce cas précis mais c'est valable pour tout serveur TLS) envoie le certificat de l'AC en plus de son certificat serveur. C'est la règle avec TLS + x509 (on doit fournir une chaîne complète jusqu'à un certificat que l'on suppose présent chez notre interlocuteur, une AC privée n'est pas supposée présente) mais on trouve des serveurs mal configurés. Pour vérifier ce point, vous pouvez utiliser https://www.ssllabs.com/ssltest/ : si vous avez un message « This server's certificate chain is incomplete. Grade capped to B. », ce n'est pas bon signe.
Je rappelle que pour chaîner des certificats, on fait comme cela :
cat moncertificat.crt > cert+ca.chain
cat certificatAC.crt >> cert+ca.chain
C'est le fichier .chain qu'il faut indiquer dans la configuration de votre serveur (SSLCertificateFile pour apache httpd, smtpd_tls_cert_file pour postfix, etc.).
tlsa va vous proposer chaque certificat présent dans la chaîne transmise par le serveur TLS, à vous d'accepter le bon. Exemple :
Got a certificate with the following Subject:
/C=FR/ST=Some-State/O=GuiGui's Show/CN=viki.guiguishow.info/emailAddress=[censure_no_spam]
Use this as certificate to match? [y/N] n
Got a certificate with the following Subject:
/C=FR/ST=Some-State/O=GuiGui's Show/CN=Autorite de certification GGS/emailAddress=[censure_no_spam]
Use this as certificate to match? [y/N] y
Il reste à ajouter l'enregistrement DNS créé par hash-slinger à notre zone DNS et à re-signer la zone.
ÉDIT DU 21/11/2016 À 11H50 : oui, demander à tlsa de récupérer le certificat en causant à votre serveur TLS implique que vous soyez sûr qu'il n'y a pas un attaquant actif entre vous et votre serveur auquel cas le certificat que vous mettrez dans le DNS sera celui de l'attaquant. Dans mon cas, j'utilise un VPN entre ma machine de travail qui exécute tlsa et mes serveurs. Vous pouvez également utiliser l'option « --certificate /chemin/vers/certificat » de tlsa pour lui donner localement le certificat à traiter. FIN DE L'ÉDIT.
Pour vérifier que tout est OK :
tlsa --verify <hostname>
SUCCESS (usage 3): The certificate offered by the server matches the TLSA record
SUCCESS (usage 3): The certificate offered by the server matches the TLSA record
Il y a deux lignes car tlsa vérifie en IPv4 et en IPv6.
Pour Firefox, il y a l'extension DNSSEC/TLSA Validator écrite par les gens de nic.cz, des gens de confiance.
Si votre configuration est OK, cette extension doit vous indiquer que tous vos sites web sont désormais OK. Attention : cette extension fait elle-même la résolution DNS (histoire d'être sûre de valider les signatures DNSSEC en local) donc elle conserve son propre cache. ;) Il faut redémarrer Firefox pour vider ce cache.
Tout protocole réseau qui utilise TLS peut être protégé par DANE TLSA : SMTP, IMAP, XMPP, etc.
Exemple avec SMTP :
hash-slinger ne prend pas en charge STARTTLS. Il faut procéder différemment :
openssl s_client -showcerts -connect <machine>:25 -starttls smtp </dev/null 2>/dev/null | openssl x509 -outform PEM > mycertfile.pem
tlsa --create --usage 3 --selector 0 --mtype 1 --certificate mycertfile.pem <nom_machine>
ÉDIT DU 14/01/2017 À 17H45 : conformément au RFC 7672, <hostname> doit être le nom du serveur, celui qui est dans le RDATA (partie droite) de l'enregistrement MX, pas sur le nom de domaine pour lequel on insère un MX. FIN DE L'ÉDIT.
La commande openssl vient de là : https://superuser.com/questions/97201/how-to-save-a-remote-server-ssl-certificate-locally-as-a-file .
ÉDIT DU 21/11/2016 À 11H50 : oui, demander à openssl de récupérer le certificat en causant à votre serveur TLS implique que vous soyez sûr qu'il n'y a pas un attaquant actif entre vous et votre serveur auquel cas le certificat que vous mettrez dans le DNS sera celui de l'attaquant. Dans mon cas, j'utilise un VPN entre ma machine de travail qui exécute openssl s_client et mes serveurs. Sinon, vous pouvez directement filer le fichier contenant votre certificat à tlsa. ;) FIN DE L'ÉDIT.
Pour l'instant, mon logiciel de mail, Thunderbird, ne prend pas en charge DANE. :(
Pour l'instant, mon client Jabber, Gajim, ne prend pas en charge DANE. :(
Pour l'instant, mon serveur Jabber, ejabberd, ne prend pas en charge DANE pour la communication entre serveurs Jabber. :(
Mon serveur mails, Postfix, prend en charge DANE pour la communication entre serveurs mails. \o/ Uniquement les usages 2 et 3, ceux où on n'effectue pas la validation PKIX classique.
Pour que votre serveur mails Postfix valide le certificat qu'il obtient auprès d'un serveur SMTP distant en utilisant DANE mais qu'il continue l'envoi du mail s'il n'y a pas d'enregistrements DNS de type TLSA, il faut activer les options suivantes dans main.cf :
smtp_dns_support_level=dnssec
smtp_tls_security_level=dane
ÉDIT DU 30/04/2020 À 13 H 35 : attention : les versions de TLS et les suites de chiffrement autorisées se définissent alors dans smtp_tls_mandatory_protocols et smtp_tls_mandatory_ciphers ! La documentation expose bien ce point : « For purposes of protocol and cipher selection, the "dane" security level is treated like a "mandatory" TLS security level ». FIN DE L'ÉDIT DU 30/04/2020.
Quand vous écrirez à un domaine qui utilise DANE, et si vous utilisez la directive de configuration smtp_tls_loglevel = 1, Postfix indiquera dans les logs quand il validera une transaction TLS grâce à DANE :
Verified TLS connection established to [censure]:25: TLSv1.2 with cipher ECDHE-RSA-AES256-GCM-SHA384 (256/256 bits)
Pour les domaines qui n'utilisent pas DANE, vous verrez le classique message :
Untrusted TLS connection established to [censure]:25: TLSv1.2 with cipher ECDHE-RSA-AES256-GCM-SHA384 (256/256 bits)
Ici, DANE TLSA offre un avantage supplémentaire : en SMTP, POP, IMAP, XMPP, on préfère utiliser STARTTLS, c'est-à-dire que l'on n'ouvre pas 2 ports différents (un pour la version claire et un pour communiquer de manière chiffrée, comme c'est le cas avec http (port 80) et https (port 443) mais que l'on utilise un seul port dans lequel on se laisse une opportunité de démarrer une conversation chiffrée. Sauf que l'initiation de cette communication chiffrée se fait avec un message « STARTTLS »… qu'un attaquant actif peut supprimer ou altérer. Ainsi, l'échange aura lieu en clair. STARTTLS protège uniquement contre un attaquant passif, un attaquant qui est uniquement en capacité d'écouter sur le réseau.
Évidemment, on peut configurer les logiciels (clients et serveurs) pour forcer l'utilisation de TLS sauf que le mail est ancien et que tout le monde a l'habitude de faire n'importe quoi. Conclusion : forcer le chiffrement, c'est ne plus pouvoir envoyer de mails sauf à ses potos crypto-anarchistes. Sur Jabber, plus récent, on a moins cette inertie (mais le problème est quand même là) donc un serveur qui force le chiffrement n'est pas isolé.
Là où DANE intervient, c'est que si Postfix récupère un enregistrement TLSA utilisable lorsqu'il envoie un mail, il voudra forcément un échange chiffré avec le serveur de mail correspondant. Un attaquant actif ne peut plus faire échouer l'initialisation d'une communication chiffrée.
Dans la section « CNAME », nous avons vu que j'ai un enregistrement TLSA par couple port (443) + machine et que tous mes noms de sites web pointent dessus.
Mais là, nous avons besoin d'enregistrements TLSA pour le port 25. Et un jour peut-être pour les ports IMAP, POP, Jabber, etc. On ne va quand même pas avoir autant d'enregistrements TLSA dans nos zones : ça rend moins lisible le fichier et à chaque changement de certificat, il faudrait changer X enregistrements.
Sachant que, sur certains domaines que j'administre et dont je ne suis pas le seul utilisateur, j'ai des enregistrements CNAME pour aider à la configuration du logiciel mail tel que imap CNAME <machine>, smtp CNAME <machine>, etc. Je ne vais quand même pas avoir un TLSA pour chaque nom.
Évidemment, je vais utiliser des CNAME.
La question est : est-ce que je fais pointer tous les autres noms "TLSA" sur _443._tcp.<machine> ou est-ce que je crée un enregistrement TLSA générique de la forme <machine> TLSA <RDATA> sur lequel pointeront tous les autres ?
Je trouve la deuxième manière de faire plus lisible : lors d'un renouvellement de certificat x509, je cherche un enregistrement précis avec une sémantique précise et je change sa valeur. De plus, cela évite de faire penser que HTTPS est le protocole de référence pour tous les autres, ce qui n'a aucun sens.
En revanche, cette manière de faire peut conduire à des chaînes de CNAME. Si elles ne sont pas interdites dans la norme, elles sont déconseillées. Exemple de chaîne ? _443._tcp.shaarli.guiguishow.info. qui ponterait sur _443._tcp.viki.guiguishow.info. comme nous l'avons vu dans la section « CNAME » qui, lui-même, pointerait sur l'enregistrement générique viki.guiguishow.info. TLSA [...]. Un autre exemple ? _25._tcp.smtp.guiguishow.info. qui pointerait sur _25._tcp.viki.guiguishow.info. qui pointerait sur l'enregistrement générique.
En conclusion, j'ai :
ÉDIT DU 14/01/2017 À 17H45 : ajout d'informations suite à la relecture de Stéphane Bortzmeyer. Merci. :) FIN DE L'ÉDIT.
L'archivage se heurte à des problèmes :
En complément, le documentaire « Nos ordinateurs ont-ils la mémoire courte ? » est lui aussi intéressant même s'il date de 2013.
On estime qu'une inscription sur la pierre a une durée de vie de 10 000 ans. Un parchemin : 1 000 ans. Une pellicule photo : 100 ans. Un vinyle : 50 ans.
Via Irina sur #arn.
Un bouquin écrit par François Elie (agrégé de philosophie, ancien conseiller municipal orienté NTIC d'Angoulême ;) ) qui nous présente l'économie du logiciel libre en insistant très lourdement sur ce qu'il considère être la prochaine vague c'est-à-dire la mutualisation par la demande afin que les clients de logiciels réalisent des économies et de faire émerger des logiciels métier en logiciel libre.
Ce livre date de 2009. Je l'ai acheté fin 2010 mais je ne l'avais pas encore lu jusqu'à aujourd'hui : des déménagements successifs l'avaient fait prisonnier dans des cartons durant de longues années. :D
Ce livre est intéressant pour quiconque ne s'est jamais vraiment intéressé au financement des logiciels libres (comme moi) et qui croit que le logiciel libre peut être financé uniquement par de l'assistance payante / double licence.
Le militantisme de l'auteur en faveur de l'émergence de la mutualisation par la demande afin de faire émerger des logiciels métier est très intéressante. Le livre explique très bien les blocages : problème d'image, problème d'intérêt à agir, etc. Je nuancerai en disant que l'auteur en attend à mon avis beaucoup trop de la puissance publique qui pourrait jouer le jeu, faisant ainsi des économies, ce qui ferait apparaître cette mutualisation par la demande.
Au-delà de ça, ce livre, qui mélange économie et parfois philosophie, est parfois un peu difficile à suivre par son côté très abstrait. Beaucoup de répétitions sont également à signaler.
François Elie analyse le "marché" du logiciel libre en trois acteurs : le développeur amateur (que l'auteur nomme hacker… … …), le marchand et le client. Tous trois poursuivent des intérêts forts différents : le premier cherche la reconnaissance, le deuxième espère un gain, le troisième espère faire des économies. Le développeur amateur et le marchand des alliés quand il faut dire au client que libre ne signifie pas gratuit. Marchand et client sont de mèche quand il s'agit de dire que bénévolat, ce n'est pas assez sérieux, qu'il faut de l'assurance, de la garantie, de la maintenance. Le développeur amateur et le client sont d'accord quand il s'agit de rappeler au marchand qu'il ne sert à rien d'être un crocodile ou un ogre. C'est de là que viennent les tensions.
Le logiciel libre est partit des infrastructures (informatique générale pour l'informaticien) puis a conquis le middleware (informatique intermédiaire pour l'informaticien au service de quelqu'un genre genre un connecteur standard pour un SGBD). Pour les logiciels métier, c'est plus compliqué car personne n'a d'intérêt ce qu'ils soient libres à part le client : le marchand veut vendre du temps de travail donc il ne doit pas dire qu'il dispose de briques génériques pour développer le logiciel demandé et le bénévole ne voit rien de fun dans le développement d'un logiciel de gestion de la cantine scolaire ou de la gestion de stocks ou de celle d'un réseau de parcmètres, par exemple.
Tableau de bord des projets de systèmes d'information étatiques. Promesse d'actualisation « plusieurs fois par an ». Open Data, visiblement.
Via http://www.silicon.fr/henri-verdier-dinsic-informatique-etat-sorties-route-162992.html
Alain Juppé (Les Républicains) écrit dans son projet présidentiel qu’il souhaite « faire pression sur les fournisseurs d’accès à Internet pour qu’ils fournissent les clés de déchiffrement des logiciels cryptés utilisés par les terroristes ».
La vidéo explicative du Monde est superficielle : oui, ça ne sert à rien car les FAI n'ont pas les clés. Mais, contrairement à ce qu'indique le Monde, aller toquer chez Telegram ou WhatsApp ou autre fournisseur de service de messagerie, c'est tout aussi inutile : il va y avoir des complications juridiques "pas le même droit applicable, coopération internationale vaseuse" et cela fera migrer les honnêtes citoyen-ne-s ET les criminel-le-s vers des services de messagerie chiffrée de bout en bout dans lesquels seul-e-s les utilisateur-rice-s ont les clés comme TextSecure ou Signal. Cela aura donc pour effet de rendre encore plus aveugle toute forme de police/gendarmerie/brigades antiterrorisme/etc.
De même que les "points en clair" (allez savoir ce que c'est vraiment) désirés par le gouvernement actuel en 2015 sont une hérésie : si le chiffrement est enlevé à un quelconque moment de la communication, alors il n'y a plus de confiance dans le système de chiffrement et on a alors une atteinte au secret de la correspondance donc nous ne serions plus dans une démocratie. C'est là le vrai problème : il est d'ordre éthique, pas technique.
Une nouvelle panne semble avoir touchée les serveurs DNS d'Orange ce mercredi (quelques semaines après "l'erreur humaine" qui a touché quelques - gros - sites). Encore une fois, les réseaux sociaux (mais pas que) ont répandus l'idée d'arrêter d'utiliser les résolveurs de son FAI pour passer sur ceux de Google, de Cisco (OpenDNS) ou autres OpenNIC fumeux (quelques examples).
Certes Google Public DNS, pour rester sur le plus connu, est fiable (il ne ment pas et ne tombe pas souvent en panne) mais, Google étant Google, c'est leur donner accès à l'intégralité des requêtes DNS partant de vos machines, soit à peu prêt toute votre activité sur le net. Regardons ce que donnent de telles métadonnées [...]
Que voit on : en vrac, des requêtes qui ressemblent fort à un Firefox venant d'être lancé, avec en prime - en profilant un peu - des requêtes permettant de débusquer quelques extensions (Privacy Badger ici), des requêtes pour avoir l'adresse de trackers BitTorrent, le fait que je visite les sites d'Acrimed et de Valeurs Actuelles en même temps, mais aussi le site du Parti Socialiste et un site de vidéos de chatons (ne me jugez pas, merci).
Bien sûr, j'ai fabriqué l'exemple pour l'occasion afin de forcer le trait. Ceci dit, il faut prendre conscience du fait que le DNS est - indirectement - très efficace pour vous traquer et vous profiler. Ce n'est pas aussi élaboré que les mouchards des GAFA, mais c'est tout de même extrêment parlant,
Eh oui que faire ? car en attendant les résolveurs de votre FAI sont en panne. Je vois 3 options :
- Si vous êtes flemmard, vous pouvez passer sur les résolveurs ouverts de FDN. Ce sont des gens sérieux et digne de confiance. À noter qu'ils ne sont pas à l'abri d'un détournement comme mentionné plus haut.
Ça serait top de ne pas concentrer tout le trafic DNS chez FDN sinon on recrée un point central avec les mêmes problèmes ! Voici une liste d'autres résolveurs DNS ouverts sérieux et digne de confiance (puisque membres de la FFDN, tout comme FDN) : http://diyisp.org/dokuwiki/doku.php?id=technical:dnsresolver
- Si vous êtes encore plus flemmard, que vous souhaitez garder les résolveurs de votre FAI mais juste pouvoir aller sur le Web le temps d'une panne, utilisez Tor Browser. Avec un peu de chance, vous y prendrez goût (et avec la recrudescence de censure, vous devriez).
- Vous savez comment changer vos résolveurs sous Windows ou Linux ? Bonne nouvelle, vous êtes suffisament compétents pour utiliser votre propre résolveur.
Le top du top, c'est d'installer un résolveur dans votre réseau local, oui mais de les configurer pour transférer vos requêtes à un autre résolveur de confiance comme ceux cités ci-dessus. Ainsi, tout le monde y gagne : vous gagnez en vitesse (puisque le cache est local), vous pouvez faire de la validation DNSSEC donc vérifier l'intégrité des réponses que le DNS fournit et tout ça sans surcharger les serveurs qui font autorité sur les noms de domaine que vous consultez souvent.
Ha ouais… L'histoire des 5 millions d'euros provenant de Kadhafi collectés par Sarko pour sa campagne de 2007 se précise avec des témoignages concordants. On est loin des 50 millions d'euros annoncés mais c'est un début. Du coup, je ressors ça : http://taule.riotparis.com/ - « Est-ce qu'il va bientôt en taule ? ». :)
Le seul truc qui me fait tiquer, c'est les motivations de Takieddine : pourquoi balancer ça maintenant et pas avant ? En s'auto-incriminant. Que cherche-t-il, qu'a-t-il à y gagner ?
Dans un entretien filmé avec Mediapart, Ziad Takieddine, l’homme qui a introduit Nicolas Sarkozy auprès de Mouammar Kadhafi, avoue avoir apporté au ministère de l’intérieur, fin 2006 et début 2007, plusieurs valises d’argent liquide préparées par le régime libyen, pour un montant total de 5 millions d’euros. [...]
[...]
[...] Ziad Takieddine décrit avec précision la livraison des valises d’argent libyen au ministère de l’intérieur, place Beauvau. Il déclare les avoir remises à deux reprises à Claude Guéant, alors directeur de cabinet du ministre, dans son bureau, puis une troisième fois, en janvier 2007, à Nicolas Sarkozy en personne, dans l’appartement privé du ministre de l’intérieur.
[...]
Les valises d’argent que Ziad Takieddine s’accuse d’avoir transportées à Paris lui auraient été remises à Tripoli par l’un des chefs des services secrets libyens, Abdallah Senoussi, un proche de Mouammar Kadhafi dont il était le beau-frère par alliance.
Le même Senoussi qui torturait des opposant-e-s avec les systèmes de surveillance de masse électroniques fournis par la France.
[...]
Lors de son audition devant la CPI [NDLR : Cour Pénale Internationale ] le 20 septembre 2012 (récemment transmise aux juges français), l’ancien dignitaire libyen affirmait avoir « personnellement supervisé le transfert » d’une somme de 5 millions d'euros, « pour la campagne du président français Nicolas Sarkozy en 2006-2007 ». Il précisait que ce transfert avait été réalisé « via un intermédiaire français, en la personne du directeur de cabinet du ministre de l’intérieur » et « un second intermédiaire, le nommé Takieddine, un Français d’origine libanaise installé en France ».
[...]
Abdallah Senoussi était, côté libyen, l’un des artisans du rapprochement Kadhafi-Sarkozy. Il espérait que la France pourrait l’amnistier, ou en tout cas revenir sur la condamnation à perpétuité prononcée contre lui à Paris, en 1999, dans l’affaire de l’attentat contre le DC-10 d’UTA. Nicolas Sarkozy et son équipe en avaient non seulement accepté le principe, mais ils avaient confié le dossier à Thierry Herzog, l’avocat personnel du ministre devenu président, comme Mediapart en avait apporté la preuve ici.
Merci à Slash pour le rappel.
Le texte produit par la Commission spéciale chargée d'examiner le projet de loi égalité et citoyenneté a été publié en fin de matinée. Cela fait 8 jours que la commission s'est réunie et on est à 3 jours de la date max pour déposer des amendements. Une fois de plus, on voit la minceur du débat démocratique mais ça, j'en ai déjà parlé.
Sur l'article 37 qui concerne la liberté de la presse :
Pour l'injure et la diffamation portant sur l'origine ou l'appartenance à une nation, une ethnie, une race, une religion ou sexe, identité sexuelle ou handicap :
L'expérimentation d'un service civique obligatoire n'est toujours pas revenue. \o/
Le droit à la cantine scolaire indifféremment de la situation de la famille est de retour (article 47). \o/
Article 14 bis (instruction en famille aka "école à la maison") et 14 decies (ouverture d'établissements d'enseignement privés hors contrat) :
La légalité du décret est assise sur un ensemble législatif ancien, porteur, en lui-même, des dangers que ce fichier TES met brutalement en lumière aujourd'hui. L'article 27 de la loi dite « informatique et libertés » de 1978 laisse au gouvernement la faculté d'instituer, par un simple décret, tous traitements de données à caractère personnel pour le compte de l'État, ou touchant à la sécurité nationale. Pire, depuis 2004, les données biométriques sont soumises au même régime, au mépris de leur sensibilité extrême. De cette honteuse manœuvre, notre démocratie devrait tirer toutes conséquences : l'absence de contrôle parlementaire sur la création de fichiers concernant les individus par l'exécutif doit être combattue.
[...]
[...] Entre l'origine d'un fichier et son utilisation ultérieure, il y a systématiquement des dérives : changement de finalité, érosion progressive du contrôle, modification du champ d'application ou de l'étendue des accès à ce fichier... Même suite à des condamnations, y compris par la Cour Européenne des Droits de l'Homme, les fichiers ne sont pas, ou peu et tardivement corrigés. La France a été condamnée en 2013 par la CEDH pour le FAED (Fichier Automatisé des Empreintes Digitales) au motif que « La conservation des empreintes digitales par ce fichier s’analyse en une atteinte disproportionnée, ne peut passer pour nécessaire dans une société démocratique, et ne traduit pas un juste équilibre entre les intérêts publics et privés concurrents en jeu ». Pourtant ce fichier n’a été corrigé à la marge que deux ans après l'arrêt de la CEDH. Quant au FNAEG (Fichier National Automatisé des Empreintes Génétiques) créé pour ficher les auteurs d'infractions sexuelles condamnés par la justice, il est passé en 15 ans d'un fichier sous contrôle judiciaire et limité à un fichier policier recueillant l'ADN de toutes les personnes simplement suspectes dans les enquêtes pour les délits les moins graves, même sans condamnation et dont le refus de prélèvement est susceptible de constituer un délit.
[...]
Le choix de la centralisation du fichier est un choix dangereux : il expose un ensemble massif et précieux de données personnelles à la portée de puissances hostiles ou de criminels expérimentés. Les promesses réitérées de chiffrement robuste et de sécurisation avancée faites par le ministre de l'Intérieur seront évidemment invérifiables, et pourront difficilement compenser l'absence de résilience qu'aurait apportée une décentralisation du fichier, soit au niveau du porteur individuel de titre d'identité, soit au niveau des différentes composantes du fichier. Choisir la centralisation des données d'identification de l'ensemble des Français c'est choisir d'être une cible très alléchante, comme l'ont montré les attaques subies par des bases de données israéliennes, turques ou philippines. La question n'est donc pas : TES sera-t-il attaqué, mais : quand le sera-t-il ?
[...]
Si la volonté d'empêcher techniquement toute falsification peut sembler légitime, l'histoire nous rappelle combien la capacité à résister à des dérives autoritaires passe par la faculté d'échapper au contrôle étatique, notamment sur son identité. Les fichiers centralisés ne font pas les régimes autoritaires, mais tout régime autoritaire s'appuie sur un fichage de sa population. L'ajout de nombreux marqueurs biométriques aux éléments de filiation ou d'état civil renforce l'attachement de l'individu, par son corps, à l'État. Nul ne peut exclure des usages liberticides d'un tel fichier à l'avenir, et toute évolution vers plus d'identification devrait être discutée démocratiquement dans cette perspective.
"La CEDH se mêle de plus en plus de questions de société, qui font notre identité. On ne peut pas l'accepter. Je proposerai que la France quitte la CEDH", lance François Fillon au cours d'un meeting, après que la Cour a condamné la France pour avoir refusé de reconnaître la filiation d'enfants nés de mères porteuses à l'étranger.
Oui, les Droits des hommes et des femmes sont une question de société. Il est donc normal que la CEDH s'en préoccupe. Quel scoop !
"Si je suis élu président de la République, je proposerai la modification" de la Convention européenne des droits de l'Homme, sur laquelle veille la CEDH, "parce que j'affirme que rien ne justifie plus qu'on n'expulse pas les terroristes étrangers, les prêcheurs de haine et des délinquants", attaque Nicolas Sarkozy.
Ouiiiii, quand les droits des hommes et des femmes dérangent, on les met de côté ou on les abroge, c'est tellement plus facile.
[...]
La CEDH, qui dépend du Conseil de l'Europe et non de l'Union européenne, est un club de 47 États, dont sont membres la Turquie et la Russie. Son siège est à Strasbourg. Une sortie de la France de la CEDH l'exclurait du Conseil de l'Europe.
C'est ballot.
"On peut modifier la Convention, mais il n'est encore jamais arrivé que les Etats membres soient d'accord pour retirer un droit", souligne-t-il.
Et si un article de la Convention prévoit qu'un État peut formuler une réserve concernant une disposition particulière, il interdit les réserves "de caractère général" qui videraient un article de sa substance.
Il reste que pour les experts de la CEDH, les critiques méconnaissent sa jurisprudence. Sur le regroupement familial et la GPA, cette jurisprudence "est beaucoup plus prudente à l'égard de la souveraineté des États que les candidats veulent le dire", explique Vincent Berger.
Ainsi, l'article protégeant la vie familiale, dénoncé par Nicolas Sarkozy, n'interdit pas à un État d'expulser une personne menaçant la sécurité nationale. La CEDH peut en revanche s'y opposer si cette personne risque la torture dans son pays d'origine.
De même, "l'article qui garantit le droit à la vie permet parfaitement à un policier qui se sent menacé de tirer sur un agresseur", ajoute Vincent Berger.
LALA. Les raccourcis faciles, tout ça.
Sur ce point, François Fillon rejoint donc Marine Le Pen. La présidente du Front national appelait dès octobre 2014 «à couper le cordon» avec l'institution, accusée d'aller «contre l'avis des peuples» et d'«imposer aux peuples une vision que celui-ci rejette».
Un problème classique du système de cryptographie OpenPGP, normalisé dans le RFC 4880 est de vérifier les clés publiques des correspondants. Les trouver, c'est relativement facile : le correspondant pense à vous les envoyer ou bien on se sert tout simplement d'un serveur de clés. Mais ceux-ci ne garantissent rien sur la clé. N'importe qui peut créer une clé marquée flotus@whitehouse.gov et la mettre sur les serveurs de clé, même si cette clé n'a rien à voir avec la Maison-Blanche. [...] Que propose ce RFC ? De mettre les clés dans le DNS (nouveau type d'enregistrement OPENPGPKEY), dans le domaine de la partie droite de l'adresse de courrier, sécurisée par DNSSEC. En gros, il s'agit de faire pour le courrier et PGP ce que fait déjà DANE (RFC 6698) pour le Web/TLS.
Les serveurs de clés utilisent le protocole HKP (jamais décrit dans un RFC). Ils fournissent un service très utile en permettant de chercher une clé, par son identificateur, ou par l'adresse de courrier associé. [...]
Ces serveurs n'offrent aucune garantie : n'importe qui peut y publier une clé, avec n'importe quelle adresse et certaines clés sont clairement mensongères. L'usage normal est de récupérer la clé et ses signatures, puis de vérifier les signatures. Si elles sont faites par des gens qu'on a validés (directement, ou bien transitivement, jusqu'à une certaine profondeur), on estime la clé correcte (c'est ce qu'on nomme le web of trust). Autrement, la clé ne vaut rien. En outre, le seul système de révocation est de signer une révocation avec sa clé privée : si on l'a perdue, on ne pourra jamais retirer la clé des serveurs de clé. Pour ces deux raisons (fausses clés, et clés devenues inutilisables), il est donc difficile d'utiliser automatiquement, depuis un MUA ou un MTA, ces serveurs.
Mouiiii… en pratique la toile de confiance est plutôt décriée car elle rend vulnérable aux vérifications effectuées par les relations en commun : comment ces personnes ont-elles signé les clés ? Selon quels critères ? Peut-on avoir confiance en leur processus ? La méthode préférée reste la signature lors d'une rencontre AFK ou lors d'une signing party.
La solution proposée dans ce RFC est, comme souvent aujourd'hui, d'utiliser le DNS, qui a montré sa fiabilité et son ubiquité. Tout le monde peut faire des requêtes DNS, même coincé derrière un pare-feu, et tout le monde peut les valider, grâce à DNSSEC (RFC 4035).
[...]
La solution de ce RFC rend envisageable de récupérer et de vérifier automatiquement une clé avant l'envoi d'un message. Mais le RFC note bien qu'elle ne remplace pas complètement le web of trust, qui reste nécessaire si on veut une vérification sérieuse.
La section 2 de notre RFC décrit le format du nouveau type d'enregistrement DNS. Chaque enregistrement contient une et une seule clé. Si un utilisateur a plusieurs clés, il doit créer plusieurs enregistrements. Le type est 61 (et enregistré à l'IANA depuis août 2014). La partie droite de l'enregistrement (les données) contient la clé et au moins un ID et une auto-signature. Les clés PGP complètes, avec des tas de signatures, peuvent être grosses, trop pour le DNS ; le RFC recommande de ne publier que des clés minimales (pas trop de signatures, par exemple, et évidemment pas les photos qu'on peut inclure dans un attribut de la clé, cf. RFC 4880, section 5.12.1). [...]
gpg --export --export-options export-minimal,no-export-attributesLe format utilisé est celui du RFC 4880, section 11.1. C'est donc du binaire qui circule sur le réseau (rappelez-vous bien que, dans le DNS, le format de présentation, celui des fichiers de zone, et de la sortie de dig, n'a rien à voir avec le format binaire utilisé sur le réseau.) [...]
Et la partie gauche de l'enregistrement DNS ? Quel est le nom de domaine utilisé ? La section 3 du RFC fixe les règles :
- Le domaine de l'adresse de courrier (partie droite de l'adresse de courrier) est celui où on met les enregistrements DNS OPENPGPKEY. La clé pour l'adresse stephane+chose@trucmachin.example sera donc dans la zone trucmachin.example.
- Le nom de domaine sera la concaténation d'un condensat de la partie gauche de l'adresse de courrier (stephane+chose, dans l'exemple ci-dessus), et du composant _openpgpkey, avec le domaine de l'adresse de courrier (trucmachin.example dans l'exemple ci-dessus). Le condensat est tronqué à 28 octets. (Le nom de domaine n'est pas utilisé dans le condensat, pour faciliter la vie des opérateurs qui proposent la même adresse dans différents domaines.)
- En fait, la règle est plus compliquée en raison des équivalences entre certains caractères (voir les exemples plus loin). Une correspondance est donc faite pour certains caractères. (Ce fut l'un des points les plus discutés dans le groupe de travail à l'IETF.)
- Par exemple, les guillemets (oui, "jipoune le meilleur"@example.com est une adresse de courrier légale) sont retirés.
- La condensation de la partie gauche de l'adresse de courrier est faite en SHA-256 (RFC 5754). Cela permet une protection limitée (cf. section 7.4) de la vie privée : même si un méchant met la main sur tout le fichier de zone, il ne trouvera pas facilement toutes les adresses (qui sont des données personnelles). Mais le but principal de cette condensation est de résoudre le problème de certains caractères qui sont permis dans la partie locale d'une adresse de courrier, mais qui posent des problèmes dans le DNS.
YOLO ! \o/
[...]
Une des difficultés pour trouver le bon nom de domaine est que les applications doivent traiter la partie gauche des adresses de courrier comme opaque (pas le droit d'analyser sa structure) et qu'elles ne connaissent pas les règles de canonicalisation qu'appliquera le domaine de destination, comme d'ignorer la casse de la partie locale (ce qui est souvent fait, mais pas toujours). Par exemple, Gmail ignore les points dans les adresses (donc foobar@gmail.com et foo.bar@gmail.com arrivent dans la même boîte aux lettres). L'émetteur qui ne connait pas cette règle va chercher la clé dans un domaine qui ne sera pas le bon. Idem avec les sous-adresses utilisées par certains domaines (en général avec le séparateur plus, comme stephane+blog, stephane+ietf, etc). Le RFC rappelle que l'émetteur ne peut pas se permettre de deviner ces règles locales, et qu'elles peuvent changer à tout moment. C'est au destinataire de se débrouiller, en publiant la clé à plusieurs noms, et en faisant attention aux variantes qu'il publie.
[...]
Autre problème de sécurité, cette fois lié à la vie privée : les requêtes DNS révèlent avec qui on veut communiquer de manière sécurisée par courrier (RFC 7626). Le fait que le nom de domaine utilisé soit un condensat de la partie locale de l'adresse de courrier limite un peu les risques, mais pas suffisamment (si on soupçonne qu'Alice écrit à bob@example.com mais qu'on n'en est pas sûr, il suffit de construire le nom où se trouve l'enregistrement OPENPGPKEY et de vérifier que ce nom est demandé, cf. section 7.4). C'est d'autant plus grave que les clients DNS actuels envoient en général le nom de domaine complet à tous les serveurs, même ceux qui n'en ont pas besoin. La minimisation de la requête (RFC 7816) limite ce problème. Le chiffrement des requêtes DNS (RFC 7858) peut faire le reste. Le cache du DNS limite un peu les risques et il est donc essentiel de ne pas faire une requête DNS externe à chaque fois qu'on envoie un message PGP à quelqu'un, cela ferait fuiter bien trop d'informations (section 7.5).
Pour limiter les risques qu'un attaquant récolte toutes les adresses de courrier du domaine, le RFC recommande de signer la zone en utilisant NSEC3 (RFC 5155).
[...]
Où en sont les mises en œuvre de ce RFC ? GnuPG contient le code pour gèrer ces clés dans le DNS depuis la version 2.1.9. Même chose pour openpgp-milter. L'outil hash-slinger permet quant à lui de générer et de vérifier des enregistrements OPENPGPKEY .
[...] Il en découle logiquement que, si un nœud de l'arbre n'existe pas, les nœuds situés en dessous n'existent pas non plus. C'est évident ? Hélas, non. En pratique, bien des résolveurs DNS sont prudents et, lorsqu'ils reçoivent une réponse négative pour un nom, mettons foo.example, ils n'enregistrent pas pour autant le fait que les sous-domaines comme bar.foo.example n'existent pas non plus, et, si un client leur demande des informations sur ce sous-domaine, ils vont relayer la question aux serveurs faisant autorité, alors qu'ils auraient parfaitement pu répondre à partir de leur cache. Ce nouveau RFC remet les choses en place : les noms de domaine sont organisés en arbre, ce comportement traditionnel est donc bel et bien erroné, et un résolveur devrait, lorsqu'il reçoit une réponse négative, mémoriser le fait qu'il n'y a pas non plus de sous-domaines de ce nom. [...]
[...]
Pourquoi le résolveur est-il si prudent, et pose-t-il au serveur faisant autorité une question dont il aurait déjà dû connaitre la réponse ? Il y a plusieurs raisons mais la principale est que le RFC originel sur le DNS, le RFC 1034, est ambigu. Il ne décrivait pas de manière parfaitement claire ce qu'il faut faire lorsqu'un nom de domaine est un ENT, un Empty Non-Terminal, c'est-à-dire un nom de domaine qui n'a pas d'enregistrements mais qui a des sous-domaines. Certains ont pensé que cela autorisait à répondre NXDOMAIN lorsque le nom demandé est un ENT. Ce comportement a été clairement noté comme incorrect dans les RFC ultérieurs (section 7.16 du RFC 2136 et sections 2.2.2 et 2.2.3 du RFC 4592) mais tout le monde n'en avait pas forcément tiré les conséquences. Autre RFC qui contribuait au comportement erroné, le RFC 2308 (dans sa section 5) faisait l'erreur de dire qu'un résolveur ne pouvait renvoyer un NXDOMAIN que si la question portait sur exactement le même nom que celui qui avait été mis en cache. Notre nouveau RFC 8020 corrige cette erreur : un résolveur doit également renvoyer NXDOMAIN si la question est un sous-domaine d'un domaine inexistant.
[...]
La section 4 de notre RFC détaille les bénéfices attendus du NXDOMAIN cut. Le principal est la diminution de la latence des réponses, et celle de la charge des serveurs faisant autorité. On aura moins de requêtes, donc un bénéfice pour tout l'écosystème. Cela sera encore plus efficace avec la QNAME minimisation du RFC 7816, puisque le résolveur pourra arrêter son traitement dès qu'il y aura un domaine absent.
Cela sera aussi utile dans le cas de certaines attaques par déni de service, notamment les attaques random QNAMEs avec un suffixe un peu long (comme dans le cas de l'attaque dafa888).
[...]
Un petit mot de sécurité, maintenant qu'on approche de la fin. Si un résolveur accepte un NXDOMAIN mensonger (attaque par empoisonnement), les conséquences risquent d'être sérieuses puisque c'est un sous-arbre entier qui serait « détruit ». C'est pour cela que le RFC autorise un résolveur prudent à ne pratiquer le NXDOMAIN cut que si le NXDOMAIN a été validé avec DNSSEC. C'est ce que fait Unbound, cité plus haut. Notez que, si on a DNSSEC, une technique encore plus puissante consiste à synthétiser des réponses NXDOMAIN en utilisant les enregistrements NSEC. Elle est décrite dans un Internet-Draft actuellement en cours de discussion.
Bien évidemment, ces agents sont individuellement désignés et habilités et en théorie, leur accès est réduit à un nombre limité de finalité.
En théorie …
Car chacun sait que les premiers abus d’accès à tels traitements, viennent de l’intérieur.
Il est tout à fait humain et tentant, de consulter la fiche de son voisin avec lequel les relations ne sont pas toujours au beau fixe.
On peut aussi s’amuser à consulter des célébrités.
On peut aussi rendre un service … Après tout, ça n'est pas méchant et c’est très valorisant. En réalité, la chose ne paraît pas grave.
Il est très difficile voire quasi impossible de prévenir de tels comportements, l’abus venant de l’intérieur c’est-à-dire de ceux connaissant intimement le fonctionnement du système.
A la NSA, cette pratique a même un nom. On l’appelle la LOVEINT par référence à l’usage par lequel on utilise son accès pour son partenaire amoureux, sa compagne ou son compagnon.
Dans son livre « Data and Goliath », Bruce Schneier évoque cette pratique illégale mais qui peut ne pas être sans conséquence pour les personnes concernées.
Citant Edward Snowden et un audit de la NSA réalisé sur 12 mois entre 2011 et 2012, il révèle que cette pratique aurait été relevée durant cette période 2.776 fois.
Il ajoute que le chiffre devrait être bien plus important, car les chiffres venaient de la NSA elle-même …
Bien évidemment, plus le fichier est gros, plus le nombre de personnes autorisées à y accéder est important, plus le risque est grand de voir se développer le LOVEINT.
Il n’y aucune raison que ce type de comportements se limite d’ailleurs aux fichiers publics, et on n’ose imaginer ce qui se passe dans certaines grandes entreprises d’outre Atlantique, aspirateurs de donnée à caractère personnel venant du monde entier et renfermant toutes sortes de renseignements.
Très bon argumentaire. :)
Un bouquin provenant de Mediapart qui évoque la loi Renseignement (et celle de Surveillance internationale) votée en France en 2015 ainsi que la surveillance américaine et la surveillance étatique dans son ensemble.
Ce que j'ai apprécié, c'est la bonne définition, dès la préface, des termes manipulés et la contextualisation des sujets abordés et de la surveillance c'est-à-dire que l'on voit d'où ça vient la surveillance étatique et le fil rouge suivi.
Ce livre met aussi en évidence les jeux de pouvoir / amitiés politiques et les jeux des partis politiques dans le vote de la loi Renseignement et c'est un gros morceau qui explique bien des choses et qui m'avait échappé en très grande partie dans le feu de l'action.
Enfin, ce livre expose très bien en quoi la loi Renseignement constitue un changement de paradigme et s'insère dans une société dans laquelle une petite oligarchie se construit son opacité et son impunité vis-à-vis des citoyen-ne-s. J'vais revenir sur ce point plus loin
Ce que je n'ai pas apprécié, c'est le nombre élevé de répétitions. C'est normal pour un recueil de publications passées mais c'est assez pénible à lire, en fait donc il faut le savoir.
D'autre part, le nombre de typos et de fautes (principalement d'orthographe) est élevé, ce n'est pas sérieux. :/
Je recommande la lecture de ce livre.
Il n’est pas étonnant que la plèbe n’ait ni vérité ni jugement, puisque les affaires de l’Etat sont traitées à son insu, et qu’elle ne se forge un avis qu’à partir du peu qu’il est impossible de lui dissimuler. La suspension du jugement est en effet une vertu rare. Donc pouvoir tout traiter en cachette des citoyens, et vouloir qu’à partir de là ils ne portent pas de jugement, c’est le comble de la stupidité. [...]
Spinoza
Cette loi [ Renseignement ] est fondamentalement opposée à l’esprit même de la Révolution républicaine. La République, en France, en 1789, s’est fondée contre l’absolutisme royal. Elle se fixait comme première revendication libératoire la revendication de la sûreté. La sûreté, c’est très simple, c’est ce qui permet à chacune, à chacun, de savoir qu’il pourra rentrer chez lui le soir sans être arrêté, sans être réveillé au milieu de la nuit et sans que ses propriétés, ses effets, son intégrité morale soient d’un seul coup détruites par l’emprisonnement ou par la disparition.
Or, aujourd’hui, avec cette loi, ce soir, chez moi, quelqu’un peut rentrer, observer mes enfants et mon ordinateur, goûter ma soupe pour voir si elle est bien salée, vérifier que je fais ce que j’ai à faire, ne pas m’en vouloir si je ne le fais pas mais le noter et puis quitter mon domicile et passer chez mon voisin sans que même j’aie eu la moindre conscience de sa présence, c’est-à—dire que ma sûreté en tant que citoyen n’est plus garantie. Non seulement elle n’est plus garantie mais elle est violée. Moi, si je n’avais rien à cacher, je n’aimerais pas que cela se sache. C’est-à—dire qu’on est au cœur de l’intimité et de l’image que l’on a de soi-même.
Pierre Tartakowsky, président de la LDH.
Citation aménagée de Laurent Chemla : quand l'exécutif est maître à la fois de la surveillance des citoyens, du texte qui est voté par le législatif, de l'application et du contrôle juridictionnel (le recours contre les écoutes se fait auprès de l'administration donc de l'exécutif), on ne se retrouve plus dans une démocratie du tout.
L’un des problèmes avec les signaux faibles est le critère de «faiblesse » des données nécessaires à l’analyse. Jusqu'à quel niveau de sensibilité, et donc d’intrusion dans la vie privée, les algorithmes auront-ils besoin de descendre ? Le fait d’acheter des falafels, par exemple, peut-il transformer une personne en possible terroriste ? L’idée peut sembler ridicule. Elle a pourtant germé dans le cerveau de quelques responsables du FBI qui, en 2005 et 2006, avaient mis en place dans la région de San Francisco un programme de collecte des données des magasins d’alimentation moyen-orientaux. En épluchant les listes de ventes, les agents espéraient pouvoir repérer des « pics » pour certains produits et, en combinant ces données avec d’autres, remonter jusqu'à des agents secrets iraniens vivant dans la région. Alertée, la direction du FBI avait d’elle-même interrompu ce programme.
En 2009, la DST et les RG sont fusionnés pour devenir la DCRI. Objectif affiché ? Éviter de nouvelles barbouzeries des RG + concevoir un grand service de renseignement intérieur similaire à ce qu'est la DGSE pour l'extérieur. Résultat concret ? Instrumentalisation au profit du chef de l'État de l'époque, Sarko. Je parie que ça n'a pas changé.
Quelques abus documentés des services de renseignement.
Le think tank New America Foundation, de son côté, a passé en revue les cas de 225 individus appréhendés depuis 2001 pour suspicion d’activités terroristes et traduits devant la justice américaine : la collecte des métadonnées par la NSA sur le sol national a joué un rôle dans 1,8 % des cas, et les écoutes de personnes étrangères dans 4,4 % des cas. Autrement dit, selon ce rapport, « la surveillance téléphonique ou la collecte de métadonnées n’a eu aucun impact tangible pour prévenir des actes de terrorisme et uniquement un impact marginal pour prévenir les activités connexes comme le financement du terrorisme ».
Comment s’assurer que la police américaine ne se livre pas à des excès pendant ses diverses interventions ? Brandon Anderson pense avoir trouvé la solution grâce à son bot Facebook Messenger, prénommé Raheem.
Après une rencontre avec les forces de l’ordre, tout citoyen peut contacter Raheem pour répondre à une série de questions posées de manière naturelle sur différents points : l’âge du policier, la nature de cette rencontre, son ressenti personnel, le degré de violence ou d’intimidation exercé par le policier…
Le but affiché du projet est d’établir une cartographie numérique des comportements de la police américaine. [...]
La Cour de cassation a mis un terme à des années d’incertitudes judiciaires sur le statut de l’adresse IP. Dans un arrêt rendu le 3 novembre, elle considère qu’il s’agit d’une donnée à caractère personnel dont le traitement automatisé exige un passage préalable devant la CNIL.
[...]
La Cour de cassation vient de dynamiter cette analyse, posant dans son arrêt du 3 novembre un principe clair, net, sans appel : « Les adresses IP, qui permettent d’identifier indirectement une personne physique, sont des données à caractère personnel, de sorte que leur collecte constitue un traitement de données à caractère personnel et doit faire l’objet d’une déclaration préalable auprès de la CNIL. »
Une question qui a divisé la jurisprudence depuis des années
Dans son avis du 20 juin 2007, le G29, le groupe des « CNIL » européennes, expliquait que l'adresse IP attribuée à un internaute lors de ses communications était bien une donnée à caractère personnel. Très récemment, la CJUE s’est raliée à cette thèse s’agissant d’une adresse IP dynamique [ NDLR : ou fixe, l'arrêt de la CJUE explique qu'il n'y a pas lieu de distinguer les cas ], dans le cadre d'un litige né l’Allemagne.
J'ai beaucoup de mal à voir la portée de cette décision : l'HADOPI oppose un autre argument à la non communication du PV et la déclaration CNIL pour les logs httpd des sites web pro a toujours été fortement recommandée (les sites web perso et les traitements de données personnelles réalisés sur ses membres par une association sont couverts par des dispenses de déclaration, voir https://www.cnil.fr/fr/liste-des-normes-et-des-dispenses ), donc bon… Cette décision fait que les sites web pro ne peuvent plus ignorer la déclaration CNIL. Ouais, OK, rien de neuf quoi.
Je mets ici les écrits de deux avocats qui font une très intéressante lecture croisée de l'arrêt de la Cour de cassation et de celui de la CJUE :
Le premier considère que l'arrêt de la Cour de cassation est incorrect car il ne tient pas compte du contexte : la CJUE a reconnu le caractère de donnée personnelle à une adresse IP dans un contexte où l'une des parties était un FAI et a donc moyen de faire facilement, "raisonnablement", sans effort, un recoupement entre une IP et une identité. Le caractère donnée personnelle s'appliquerait uniquement dans ce cadre très restreint. Le deuxième considère que, justement, en France, il existe des procédures judiciaires comme celle utilisée dans l'affaire jugée par la Cour de cassation qui permettent de lever facilement/raisonnablement le voile sur l'identité derrière une IP, ce qui justifie le caractère de donnée personnelle. Bref, le cas est tranché en France (et encore, rien ne contraint un-e juge à suivre la jurisprudence ;) ), restera à affiner en confrontant la lecture française à la doctrine de la CJUE.
C'est avec plaisir que nous annonçons le démarrage du projet d'accès à internet haut débit sans fil !
Pour rappel, ce projet consiste à poser des antennes aux fenêtres ou sur les toits de différents logements de façon à pouvoir relier ces logements à internet [...]
Les antennes en question sont capables de fonctionner entre elles jusqu'à environ 5km de distance à condition qu'il n'y ait pas d'obstacles (arbres, bâtiments). [...]
[...]
Quels débits peut-on espérer ?
Proche l'une de l'autre nos 2 antennes fonctionnent à plus de 100 Mbps dans les 2 sens.
Quel ping ?
Rhizome rapporte un ping de 5ms pour faire 3 sauts radio de 1km de distance (testé pendant 10 minutes).
Que les Alsacien-ne-s, aussi bien ceux-celles qui sont OK pour mutualiser leur connexion ADSL-fibre-câble avec un-e voisin-e Wi-Fiste que ceux-celles qui voudraient bénéficier d'un accès à Internet par Wi-Fi, n'hésitent pas à inscrire leur logement sur la carte (https://wifi.arn-fai.net/map/contribute ) afin que les premières vraies expérimentations et mises en œuvre débutent.
Dans un arrêt rendu hier, la Cour de cassation a estimé que la publication d’un lien hypertexte vers un ancien article, faisait à nouveau courir le délai de prescription de trois mois en matière d’infraction sur la liberté d’expression. Il suffit que l'auteur des propos soit identique et le contexte éditorial, nouveau.
’affaire concernait une diffamation publique envers un fonctionnaire des impôts dans un texte posté en ligne en 2010. [...] Le 29 juin 2011, l’auteur du contenu avait publié un nouvel article en postant un hyperlien vers le document litigieux. Et c’est seulement après cette seconde publication que l’inspecteur avait attaqué cette personne. En appel, les juges ont néanmoins estimé que l’action était prescrite. Selon eux, la simple référence (« Voir à ce sujet (...) avec le lien suivant ») dans le second texte n’apportait qu’un simple complément au premier texte que les lecteurs pouvaient, ou non, lire.
Dans son arrêt du 2 novembre, elle a rappelé que « le point de départ de la prescription est le jour de la publication de l’écrit incriminé ». De là, « toute reproduction, dans un écrit rendu public, d’un texte déjà publié, est constitutive d’une publication nouvelle dudit texte, qui fait courir un nouveau délai de prescription ». Partant, elle a surtout considéré qu’un simple lien hypertexte vers la première publication litigieuse valait reproduction et donc nouveau point de départ des trois mois. Il suffit que ce lien soit posté par le même auteur, pour réenclencher la possibilité d’une action en diffamation, même dans un contexte éditorial nouveau.
La pente glissante où l'on considère qu'un lien hypertexte est assimilable à la ré-édition d'un contenu papier. :( On retrouve cela dans la jurisprudence de la CJUE, voir http://shaarli.guiguishow.info/?EbxT8A :(
http://www.silicon.fr/diffamation-hyperlien-etend-delai-prescription-162372.html :
Sur Internet, une première publication peut précéder la mise à disposition de ce même contenu à un nouveau public, et étendre ainsi le délai de prescription trimestriel. Pour en décider, il convient de vérifier la nature du lien posé, l’identité de l’auteur et son intention de mettre à nouveau le contenu incriminé à disposition des internautes, a rappelé la Cour de cassation dans son arrêt du 2 novembre.