Vache, pas simple, la livraison de la semaine ! :O
Confinés empilés
Les berges ne sont plus à vous !
Pas de joug sans cuir !
Sc/iure dans l'évêché
On bosse à distance, à treize !
Elle sent fort la verrine de paon
Flairant des traces de biles dans leurs cotons, des clientes en lutte poussent leurs cris tôt : « Ce Véran nous accule ! » « On parle délais de carence »
Confinés empilés
Les berges ne sont plus à vous !
Pas de joug sans cuir !
Sc/iure dans l'évêché (chuire dans les WC)
On bosse à distance, à treize ! (on baise à distance, atroce !)
Elle sent fort la verrine de paon (elle sent fort[,] la pine de Véran)
Flairant des traces de biles dans leurs cotons, des clientes en lutte poussent leurs cris tôt : « Ce Véran nous a/ccule ! » (ce Véra nous encule) « On parle délais de carence »
Dans le Canard enchaîné du 1er avril 2020.
Récemment, j'ai constaté que l'ordinateur portable Windows 8 (8.1 ?) d'une amie ramait à moooort. Pour donner une idée : elle a le temps de cliquer sur le raccourci d'un logiciel, de me faire la conversation, de trouver ça trop long, d'aller me chercher une binouze dans son frigo à l'autre bout de sa piaule pendant que le logiciel vient à peine de s'ouvrir. :O
Il s'agit d'un ordinateur personnel dont un usage professionnel se fait de plus en plus grand. Comment peut-elle se concentrer dans ces conditions ? :O
Je regarde un peu : CPU identique à mon ordinateur perso (2 cœurs 2,5 Ghz), quantité de RAM équivalente (8 Go), disque dur 5 400 tours/minute (ha, peut-être qu'on a trouvé l'une des causes). J'ai aussi constaté que certains bus sont sous-dimensionnés…
Je soupçonne aussi la présence d'un virus vu les quelques comportements erratiques de la machine.
J'ai la flemme de partir à la chasse aux virus (et, surtout, je ne sais plus faire…).
Je propose une réinstallation complète de Windows. Et, tant qu'à faire, de passer à winwin 10 (même si winwin 8.1 bénéficiera de mises à jour de sécurité jusqu'en janvier 2023).
En douce (cadeau), je lui achète un SSD. Un Samsung 860 Pro, produit qui remplace les excellents 850 Pro qui équipent mon ordinateur perso et un fournisseur d'accès à Internet alsacien, a ma faveur : ça marche bien et, en cas de pépin, la garantie Samsung 5/10 ans remplace à neuf sans faire chier. Winwin 10 sera installé dessus, ce qui permet de mettre le disque dur d'origine de côté afin de récupérer des fichiers si besoin. Au final, le gain est important mais moins ouf qu'avec un système Debian GNU/Linux…
Ci-dessous, je propose un résumé de ce qui m'a marqué durant cette installation de winwin 10.
L'ordinateur étant de marque Lenovo, il faut virer les mouchards incorporés par cet assembleur. Dans quel monde vit-on ?!
Le mouchard Computrace (voir aussi) n'apparaît pas dans l'UEFI, contrairement à mon ordinateur Dell.
Le deuxième mouchard de Lenovo, qui résiste lui aussi à une (ré)installation de winwin, n'était pas non plus présent. Les binaires mentionnés par Numerama n'existent pas sur l'ordinateur et le modèle de cet ordinateur n'apparaît pas dans le communiqué de presse de Lenovo (merci à la machine à remonter le temps maintenue par archive.org d'avoir conservé ce document effacé par Lenovo, n'hésite pas à faire un don).
Le troisième mouchard connu, SuperFish, n'était pas présent. Il ne résiste pas à une (ré)installation propre de winwin, mais je voulais voir. Pour diagnostiquer cela, j'ai suivi le tutoriel proposé par Lenovo lui-même. Si, comme moi, le menu démarrer refuse d'ouvrir le gestionnaire des certificats, utilise Windows+R puis tape « certlm.msc ».
On notera que les deux derniers mouchards sont devenus des failles de sécurité qui peuvent être exploitées par n'importe qui. Voilà pourquoi ce genre de merde doit être refusée.
Mes notes de 2013 sont toujours valables.
Parce que changer uniquement la valeur de l'option « Secure Boot » dans l'UEFI, ça serait trop simple. Je copie les instructions afin de les pérenniser :
Then scroll to the Security tab by using → . Then use ↓ to scroll to the Secure Boot entry. Press the Enter key and select Disabled. Follow that by navigating to the Reset to Setup Mode entry using the ↓ again. Press Enter, then select Yes on the popup to clear the PK, disable secure boot and enter setup mode. You’ll notice that the Platform Mode changes to Setup Mode and Secure Boot Mode becomes Custom. Press the Fn+F10 key to reboot.
Microsoft propose l'ISO de winwin 10 en téléchargement libre. Attention, il faut se rendre sur le site web avec un système autre que winwin (ou trafiquer le user-agent de son navigateur web), sinon le site web ne propose pas l'ISO mais l'outil de MS pour créer un support d'installation.
Un collègue qui se tient à jour sur les technos MS m'a conseillé d'utiliser le logiciel Rufus. Aucune difficulté.
D'une part, je voulais Bitlocker, la techno de Microsoft pour chiffrer un support de stockage car elle est plus transparente que VeraCrypt pour un utilisateur lambda (pas de code à saisir au démarrage, mais dépendance à une puce matérielle, le TPM). Bitlocker n'est pas disponible dans l'édition familiale. De plus, comme cet ordinateur va de plus en plus servir dans un contexte pro, je voulais être sûr que mon amie aurait tous les outils disponibles. Je voulais donc installer l'édition professionnelle de winwin 10.
Or, durant l'installation, le choix de l'édition ne m'a pas été laissé. Tous les tutoriels indiquent que le choix se fait au début, juste après l'appui sur le bouton « Installer maintenant ». Moi, je passais directement à l'acceptation du contrat winwin.
Winwin 8 édition familiale était préinstallé sur cet ordinateur. Donc la clé produit est stockée dans la table ACPI de l'UEFI. Donc l'installeur détectait cela et voulait installer l'édition familiale de winwin 10.
Pour avoir le choix, il faut ajouter un fichier nommé « ei.cfg » dans le dossier nommé « Sources » présent à la racine du support d'installation de winwin. Le contenu doit être (source) le suivant :
[Channel]
_Default
[VL]
0
Attention si tu utilises un système GNU/Linux pour créer ce fichier : la manière de terminer une ligne diffère entre Unix (LF) et winwin (CR+LF). Pense à convertir le fichier avec la commande unix2dos ei.cfg (la commande fait partie du paquet logiciel dos2unix).
Évidemment, il faudra acheter une clé produit winwin 10 pro. Pense à connecter l'ordinateur à Internet avant d'activer winwin, sinon il est en mode démonstration et l'activation (KMS ou clé produit) n'est pas disponible. Lors de cette première connexion, winwin demandera, à nouveau, s'il faut lier le compte utilisateur local à un compte dans le cloud…
Cela permet de créer facilement un compte utilisateur local, non-lié à une identité dans le cloud de Microsoft. Sans ça, Microsoft essaye de te piéger et c'est plus compliqué de faire marche arrière. Dans quel monde vit-on ?!
Lors de la création d'un compte utilisateur, il faut saisir une réponse à trois questions secrètes. Oui, trois ! On marche sur la tête… Le mot de passe d'un utilisateur lambda de winwin est sa date de naissance ou « 1234 », donc bon… Sans compter l'inutilité démontrée des questions secrètes…
Il s'agit de démarrer rapidement un ordinateur en ne l'éteignant pas totalement. Winwin et les pilotes restent ouverts, le reste est fermé. L'état du système est stocké sur le disque dur.
Je pense que cette fonctionnalité peut générer des ennuis. Quand le biniou ne termine pas sa mise en hibernation (ça arrive aussi sous GNU/Linux quand des pilotes / matériels font chier) et qu'il se réveille subitement dans ton sac en vidant la batterie. Quand le noyau winwin accumule de la merde. Quand les pilotes merdent. Etc.
Avec un SSD, un démarrage à froid prend 27 secondes entre la pression sur le bouton et l'arrivée sur l'écran de connexion. C'est acceptable. Fast Startup ne se justifie donc pas.
Tutoriel pour désactiver Fast Startup.
Attention : si tu comptais cliquer sur « Rechercher les mises à jour » et faire autre chose en attendant que toutes s'installent : si une mise à jour nécessite un redémarrage, les autres mises à jour sont mises en attente (elles ne s'installent pas). De même, les mises à jour facultatives ne s'installent pas automatiquement, sans action.
Disponibles sur le site web de Lenovo. Évidemment, comme l'ordi n'est plus en vente, la page web n'est plus à jour, mais Windows Update mettra à jour les pilotes installés.
Certains pilotes afficheront une erreur genre « Realtek machin ne peut pas s’exécuter sur cet ordinateur ». L'extracteur de Lenovo ne lance simplement pas le bon binaire… Il suffit d’aller dans le dossier d’extraction (c:\drivers, par défaut) et d’installer le pilote du bon constructeur parmi les sous-dossiers (généralement : Intel).
Je sais qu'il existe des outils automatisés comme DriverCloud (anciennement « Ma-Config »), mais ce n'est pas mon kiff niveau vie privée (le logiciel peut aspirer ce qu'il veut, faire ce qu'il veut, son programmeur peut faire ce qu'il veut des données récupérées, etc.).
La plupart des logiciels utilisés par mon amie peuvent être installés avec ninite, sorte de gestionnaire de paquets minimaliste pour winwin. Pour les autres, ce sera installation manuelle en essayant d'identifier le site web officiel ou en utilisant Clubic. Comment peut-on encore en être à ce stade ?!
C:\Users\<nom>\AppData\Local\Mozilla\Firefox\Profiles\<chiffres_et_letttres.default>, tout supprimer et mettre le contenu de la sauvegarde ;AppData\Roaming.Pour Thunderbird : même logique que pour Firefox sauf que c’est Local\Thunderbird et Roaming\Thunderbird.
C:\Users\<nom>\AppData\Local\Google\Chrome\User Data, tout supprimer et mettre le contenu de la sauvegarde.On en parle, de la masse de questions posées durant l'installation ?! Dans quel putain de monde vit-on ?!
À chaque question, le choix favorable à Microsoft est bien présenté, comme s'il s'agissait du paradis : envoyer l'historique des activités, c'est pour reprendre vos activités depuis n'importe où ; Refuser l'utilisation, par les applications, d'un identifiant publicitaire unique est présenté comme « vous recevrez toujours autant d'annonces, mais elles peuvent être moins pertinentes pour vous » ; Impossible de désactiver l'envoi de données de diagnostic, on peut juste choisir un envoi « complet » ou « basic ». Le choix inverse est limite présenté comme l'enfer sur terre.
À l'exception des trois premières questions (de mémoire), l'ergonomie est prévue pour embrouiller l'utilisateur. Genre le bouton se nomme « accepter » au lieu de valider. Donc quand tu réponds non + clic sur le bouton accepter, ça fait bizarre (j'accepte de refuser de me faire fliquer ou j'accepte le flicage tout court ?).
Dire que les autorités administratives de protection des données personnelles (la CNIL en France) ont validé ça… Les libristes que nous sommes ne pouvons pas faire les malins : on parle des données collectées par Mozilla Firefox et de l'ex-partenariat Amazon-Canonical pour intégrer Amazon dans le menu Unity d'Ubuntu ?! Tout le monde fait n'importe quoi…
Korben pointe un logiciel libre qui permet de réduire encore un peu le flicage de winwin 10 : DisableWinTracking (fork maintenu ici).
J'ai coché :
Je n'ai pas modifié les autres paramètres (notamment le choix entre désactivation et suppression de services).
Évidemment, il faut adapter cette liste à l'utilisateur : un joueur ne désactivera peut-être pas Xbox VR, par exemple.
Il faut désactiver Spotlight : clic droit sur bureau → personnaliser → écran de verrouillage → arrière-plan = diaporama ou image, mais pas « Windows à la une ».
Encore une fois : dans quel monde vivons-nous ?! Pourquoi acceptons-nous de nous faire maltraiter comme ça ?
Après avoir répondu aux questions sur la collecte de nos données, l'installeur de winwin affiche « Nous préparons votre système » puis … … … « Laissez-nous tout ». Il n'y a pas de suite à cette phrase ! :O Aveu ? :)
Ça fait des années que j'entends parler, en bien, de la série télévisée Black Mirror, que des gens me la recommande. J'ai visionné les cinq saisons existantes et… boarf…
Dans le fond, il y a rien de nouveau : la très grande majorité de ce qui est dépeint existe déjà avec ou sans la technologie. Le côté dystopique à court-terme en prend un coup. Les angles d'attaque ne sont pas non plus novateurs.
La technologie permettrait d'aller plus loin dans la connerie et la malveillance ? Boarf, c'est même pas sûr.
Dans les épisodes de Black Mirror, les conditions de vie et la capacité de la technologie semblent tellement éloignées de la réalité, que j'ai eu du mal à y croire, à entrer dans les histoires. Exemples : isolement travail/piaule + piaule qui est juste un box avec un lit (S01E02), transfert d'une conscience humaine dans plein d'objets (S03E04, S04E06, S05E03, etc.), robots-abeilles et ruches organisées en pair-à-pair + déplacement et transmission radio très longue distance sur de si petits appareils (S03E06), scanner d'ADN afin de créer un avatar numérique (S04E01) disposant des souvenirs (comme si les souvenirs étaient inscrits dans notre ADN…), etc. Si t'es un technophile, tu constates des incohérences dans quasiment tous les épisodes.
En revanche, la psychologie et l'environnement sont sombres et permettent d'entrer dans le bain. Tous ces individus tristes, très isolés (exemple : S01E02), apathiques, occupés par leurs écrans (mémoriels, spectacle, flicage, etc.) qui sont d'une grande froideur en permanence… Je pense que c'est ça qui m'a fait adhérer à Black Mirror. Peut-être que les dérives technologiques sont la pointe émergée de l'iceberg ? Notre inhumanité actuelle est peut-être plus préoccupante…
Je retiens que, dans le futur, nous continuons de baiser. À l'exception de la saison 1 et de rares exceptions dans les autres saisons, chaque épisode a sa scène de baise, même et surtout quand ça apporte rien à l'intrigue (genre S02E03)… … …
Je l'avoue, quelques épisodes m'ont marqué, soit parce qu'ils m'ont fait réfléchir, soit par leurs personnages. Se souvenir de tout (S01E03). Retrouver un être cher décédé (S02E01). Immortalité virtuelle (S03E04). Torture-spectacle (S02E02, S04E06). Simulateur de rencontres amoureuses (S04E04). Confiance en soi / vie par procuration en matant une star (S05E03).
Bref, Black Mirror est une série qui permet de passer le temps, mais sans plus. Peu originale, elle rate sa mise en exergue des dérives technologiques potentielles. Elle échoue à faire naître la compréhension des enjeux liés à la technologie chez les spectateurs par quasi absence d'arguments et ré-utilisation d'arguments faibles éculés. Y-a-t-il besoin de disserter sur la technologie pour se rendre compte que le monde va mal ?
Loin d'être virtuel, Internet repose sur des infrastructures physiques dont des câbles sous-marins. Parfois ces câbles se rompent à cause de l'usure, d'un événement naturel, d'un événement humain ou d'un sabotage. Quelques exemples ces deux dernières semaines sur le fil Twitter du « Directeur Réseaux et Services internationaux » d'Orange. Ces pannes ne datent pas d'hier. Exemple : en 1929, un tremblement de terre met KO un câble télégraphique transatlantique.
Plus d'infos sur le financement des câbles sous-marins et les enjeux géopolitiques.
Plus d'infos sur le financement des infrastructures physiques de l'Internet.
https://twitter.com/jlvuillemin/status/1242890487754887169 :
Et voila ! Reparation du SAT3 faite. Le câble était enfoui profondément sous des sédiments ce qui confirme l’éboulement du canyon du fleuve Congo en hte mer. Avec une tension de relevage croissante le câble a fini par se détacher du fond et a été remonté a bord pour inspection
Visualiser le tracé du câble SAT-3. Éboulement du canyon = écoulement turbiditique.
https://twitter.com/jlvuillemin/status/1243618627586269184 et https://twitter.com/jlvuillemin/status/1243791292913631233 :
la situation globale des cables sous-marin entre l’europe et l’ocean indien est tres dégradée. Le SMW 3 et le SMW 4 sont tous les 2 coupés en 2 endroits différents. Nous avons actuellement 3 cabliers en mer sur ces opérations. […] Réparation du SMW3. Lors du relevage le câble s’est cassé dans la boite de jonction qui reliait le câble au répéteur.
Il est donc très probable que le défaut était dans la boite nous en aurons la confirmation quand l’extrémité laissée au fond aura été remontée et testée.
Visualiser le tracé du câble SMW-3. Visualiser le tracé du câble SMW-4.
https://twitter.com/jlvuillemin/status/1238806688754470912 :
Comme tous les gamers de la réunion l’ont constaté il y actuellement une double coupure sur les cables SMW4 et SMW5 qui impacte non seulement la réunion mais aussi plus généralement le trafic vers l’Asie, singapour et HK. Les équipes sont en train de réparer. Je précise que les coupures sont sur la partie égyptienne des deux cables a quelques km de la station de Zafarana.
Visualiser le tracé du câble SMW-5.
https://twitter.com/jlvuillemin/status/1243657525028929545 :
Coupures qui entrent dans les statistiques des incidents habituellement constatés, svp ?
Trés supérieures a la moyenne habituellement constatée.
https://twitter.com/jlvuillemin/status/1243654077361381387 :
[…] Mais effectivement actuellement la situation est complexe. Entre l’Afrique, l’océan indien et la Méditerranée, nous avons un nombre de coupures particuliérement élevé.
J'ai du mal à croire à une hausse significative des pannes sur les câbles sous-marins. J'attends que des informations provenant de plusieurs sources soient publiées avant de conclure.
Si FAT16 et FAT32 sont grisés lors de la création d'une nouvelle partition ou le formatage d'une partition existante dans gparted : fermer gparted + apt-get install dosfstools + ouvrir gparted.
OMG, tout un site web du marchand Orange dédié au bien vivre le digital alors qu'une simple règle suffit : pour bien vivre le digital, utiliser du lubrifiant.
Explication ici. Je cite : « L’adjectif digital en français signifie « qui appartient aux doigts, se rapporte aux doigts ». ».
Merci Johndescs pour la blagounette du jour. :)
On se forme en paniquant ?
Ma femme use de ses droits, j'ai l'habitude.
Datez les tares !
Ces maires font l'affiche.
Erdogan emballe une folle de Chypre, l'emballe puis l'apaise.
Mes trouvailles :
On se forme en paniquant ?
Ma femme use de ses droits, j'ai l'habit/ude.
Datez les tares !
Ces maires font l'affiche.
Erdogan emballe une folle de Chypre, l'emballe puis l'apaise.
Dans le Canard enchaîné du 11 mars 2020.
Quelqu'un a-t-il des infos liées à l'un de ces sujets ?
Je cherche toutes les infos possibles, et, en particulier :
‒ Merci, Lise. Je m'appelle Muguette et je veux te dire un énorme merci. Merci d'avoir répondu à ton téléphone quand tu conduisais et d'avoir roulé trop vite, car tu as quitté la route des yeux et tu m'as débarrassé de mon mari Fréchon qui me pourrit l'existence depuis qu'il est sénile.
(Voix off) ‒ Sur la route, on a tous le pouvoir de sauver quelqu'un d'une vie affreuse. Insécurité routière. Vivre seule. Enfin.
:D
Avez-vous déjà remarqué que tous les instruments qui cherchent une forme de vie intelligente sont pointés loin de la Terre ?
+1. :)
Quels médias français ont mangé chez Google en 2018 ? La réponse est dans le rapport 2018 du Digital News Innovation Fund (DNI), la partie européenne du programme mondial Google News Initiative.
Je mets une copie de ce rapport de côté, au cas où il disparaîtrait, comme ceux du Fonds pour l'Innovation Numérique de la Presse (2013-2016, le précurseur du DNI).
France
TOTAL FUND €10.2m
PROJECTS 41[…]
Funded organisations
20 MINUTES
AGENCE FRANCE PRESSE
ATANAS TCHOBANOV
BAYARD PRESSE
CAMERA LUCIDA PRODUCTIONS
CASUS LUDI
CCM BENCHMARK GROUP
COSAVOSTRA
EURONEWS
FRONTLINE MEDIA
GEN TRAINING & CONSULTING
GROUPE LA DÉPÊCHE DU MIDI
GROUPE LES ECHOS
IJSBERGPRESS
L’EQUIPE 24/24
LA NOUVELLE RÉPUBLIQUE DU CENTRE OUEST
LE FIGARO
LE MONDE
LE PARISIEN
LE PARISIEN LIBÉRÉ
LES JOURS (125 000 €)
M6
MELTYGROUP
METEO CONSULT
MONDAY NOTE
NEXTINTERACTIVE
PLAYPLAY
POOOL
PRISMA MEDIA
RADIO FRANCE
THE CONVERSATION FRANCE
USBEK & RICA
VOXEUROP
WEDODATA
WORLDCRUNCH
Sans oublier le fonds Google Youtube pour l'innovation / News on Youtube qui n'est pas inclut dans le rapport sus-mentionné (via le Canard enchaîné).
3 médias français ont participé :
HugoDécrypte
Le Monde
Société Brut SA
On ne sait pas encore combien de fric Google a mis sur la table pour ces trois-là, mais Google promet que leur audience Youtube a augmenté. Comment avoir confiance puisque Google est Youtube ?
TL;DR : HSTS c'est bien si ta conf' TLS est propre ; HPKP c'est du passé ; Expect-CT me semble être en partie aussi pipeau que CAA ; Referrer-Policy est cool au sein d'un intranet / webmail / agrégateur RSS web ou autre ressource web privée et inutile au-delà ; X-Frame-Options, c'est du passé ; X-XSS-Protection et X-Content-Type-Options, ça ne mange pas de pain même si le gain est faible et que ce n’est pas encore normalisé ; Content-Security-Policy est loin d'être simple en pratique, même sur un logiciel qui se veut être simple comme Shaarli, car ça nécessite une parfaite connaissance du code de l'application web et des compromis utilisabilité / sécurité qui me semblent être très vite déconnants.
Toujours à la recherche de la hype en 2020 et m'étant fait tej' par TLS 1.3 et HTTP/2, je me demande quels entêtes HTTP trop stylés ajouter dans la configuration de mes serveurs web.
HTTP Strict Transport Security (HSTS), c'est plié : j'utilise une autorité de certification x509 maison, ce qui est incompatible.
HTTP Public Key Pinning Extension for HTTP (HPKP), c'est compliqué. On a vite fait de faire de grosses erreurs durables (même contre sa volonté, en raison de la fluctuation de ce que les autorités de certification incorporent dans un certificat x509 et en fonction des implémentations logicielles…), ce qui bloque l'accès au site web. Ça serait un deal à examiner si je n'avais pas déployé DANE TLSA, une solution concurrente au même problème qui propose une deuxième chaîne de certification via le DNS. De plus, je ne pense pas qu'un faux certificat x509 émis pour mon petit site de bouseux fasse partie de mon modèle de menaces… Au final, HPKP a été déprécié par son créateur, Google et retiré de Chrome. Affaire classée, donc.
Expect-CT indique au navigateur web de vérifier que le certificat x509 présenté par le serveur est bien publié dans Certificate Transparency, une base de donnée publique dans laquelle les autorités de certification peuvent ajouter (impossible de modifier et de supprimer) tous les certificats qu'elles génèrent… sauf quand elles se font vraiment pirater jusqu'à l'os. C'est là le hic. Je ne suis donc pas convaincu du gain foudroyant apporté par cet entête. De toute façon, j'utilise une autorité de certification maison qui ne publie donc pas dans Certificate Transparency, donc je ne suis pas éligible.
Referrer-Policy indique au navigateur web si, quand un utilisateur clique sur un lien présent sur un site web, il doit dire au site web de destination d'où il vient. On peut interdire toute communication ou demander à ce que seul le domaine soit communiqué et faire des mélanges genre communiquer l'URL complète si la destination du lien est le même site web et ne rien dire si la destination est externe, par exemple. Même possibilité de mélange si le site web de destination propose le même niveau de sécurité (comprendre HTTPS) que le site web source ou non. Je suis mitigé. Je vois très bien l'intérêt de cet entête pour un intranet ou un webmail ou un agrégateur RSS web , par exemple, mais pas pour mes sites web persos… Des extensions pour navigateurs web, comme Smart Referer permettent déjà de configurer l'envoi (ou non) du referrer, et, au moins, ça fonctionne pour tous les sites web consultés par un utilisateur, pas juste pour ceux qui ont mis un entête. L'utilisateur ne devrait pas compter sur l'administrateur d'un site web pour préserver sa vie privée. ÉDIT DU 07/04/2020 à 23 h 25 : cela permet à des adminsys de réduire (un peu, mais à moindre coût) le flicage des sites web qu'ils hébergent. FIN DE L'ÉDIT.
X-Frame-Options est déprécié et est remplacé par l'attribut « frame-ancestors » dans la version 2 de Content Security Policy, donc affaire classée.
X-XSS-Protection indique au navigateur web de bloquer les tentatives d'exploitation de failles XSS les plus triviales. Ça ne mange pas de pain. J'ajoute donc cet entête à mes configurations : X-XSS-Protection "1; mode=block".
X-Content-Type-Options indique au navigateur de ne plus faire de MIME sniffing, c'est-à-dire d'interprétation du type d'un fichier quand le serveur web ne le précise pas ou que le navigateur web pense qu'il est erroné. Ça évite des attaques par fichiers malveillants spécifiquement fabriqués pour une attaque. Son utilisation suppose que le site web qui envoie cet entête soit irréprochable sur les types de fichier qu'il envoie. Mais, contrairement à HPKP, il n'y a pas de sanction durable dans le temps si ce n'est pas le cas. Donc ça ne mange pas de pain, donc j'ajoute cet entête à mes configurations : X-Content-Type-Options "nosniff".
Content-Security-Policy. J'en ai déjà parlé, expliqué ce que c'est, etc.. Dans la pratique, son usage n'est pas si simple et suppose une grande maîtrise du code du site web auquel cet entête sera appliqué. Exemple concret : j'ai voulu ajouter CSP à mon shaarli, car je considère qu'il s'agit d'une application web toute simple. Grosse erreur.
Au début, j'envisageais de positionner la valeur « default-src 'none'; frame-ancestors 'none'; script-src 'none'; style-src 'self'; img-src 'self'; form-action 'self'; ». Dans l'ordre, ça dit ce qui suit. Tout ce qui n'est pas défini sera bloqué. Ce site ne peut pas être inclus dans un autre. Le seul CSS autorisé est celui provenant de la même origine (même protocole + nom de domaine + port). Même chose pour les images (comme les miniatures de vidéos ou d'images proposées par shaarli). Les formulaires peuvent uniquement être envoyés à une cible de même origine.
Rien que là, il y a des pièges. Il y a les non-dits, comme le fait que les scripts « inline » (insérés directement dans le XHTML) sont interdits de base sauf mention explicite. Il y a des différences de comportements. Je n'ai pas besoin de préciser « script-src », « font-src », « child-src », « object-src », « manifest-src », « media-src », « worker-src », « connect-src » car, en cas d'absence, un repli sur « default-src » est prévu. En revanche, il n'y a pas de repli pour form-action ou frame-ancestors, donc aucun blocage par défaut. Il y a des subtilités. « plugin-types » est un sous-type de « object-src », par exemple. Il faut donc lire la norme ou sa vulgarisation avec attention, ce qui est jamais top en matière de sécurité.
Ensuite, la définition CSP toute simple ci-dessus ne fonctionne pas avec shaarli.
Du coup, pour un shaarli qui semble être fonctionnel, il faut la CSP default-src 'none'; frame-ancestors 'none'; script-src 'self' 'unsafe-inline'; style-src 'self'; img-src * data:; media-src 'self'; form-action 'self';. Si l'on est prêt à sacrifier les miniatures de vidéos Youtube (et sites externes), la CSP suivante suffit : default-src 'none'; frame-ancestors 'none'; script-src 'self' 'unsafe-inline'; style-src 'self'; img-src 'self' data:; media-src 'self'; form-action 'self';. Et tout ça, sans être sûr que j'ai bien identifié tous les problèmes…
CSP est une bonne idée, mais il faut connaître parfaitement son application web. Et même en la connaissant, il faut autoriser de gros trous dans la raquette pour qu'elle fonctionne, ce qui diminue d'autant la sécurité apportée par CSP. Et encore, j'ai travaillé sur une application web qui se veut être simple, qu'est-ce que ça doit être avec n'importe quel CMS, site web pseudo-moderne ou application web Java ! Imagine les ressources externes (police récupérée ici, JavaScript récupéré chez Google, etc.). Imagine l'interférence des CDN (réseaux de distribution de contenus à l'échelle de la planète) et les possibilités de rendre caduque CSP que cela offre.
Bref, hors de question que je me prenne la tête avec CSP.
TL;DR : HTTP/2 est possible uniquement au-dessus de TLS avec nginx. HTTP/2 est possible avec ou sans TLS avec Apache httpd, mais, avec un système Debian GNU/Linux Stretch cela nécessite mpm_event ou mpm_worker (c'est recommandé par la fondation Apache pour Debian Buster et autres systèmes), ce qui, dans mon cas, signifie migrer préalablement vers PHP FPM. Bref, j'ai encore du taff.
Que faire en 2020 pour avoir la hype alors qu'on est un retardataire blasé par le progrès technique ? Activer TLS 1.3, la nouvelle version du protocole de sécurisation (confidentialité, authenticité et intégrité) des communications sur Internet ? Le retardataire a uniquement des systèmes Debian Stretch qui livrent la version 1.1.0 d'OpenSSL. Or, la version 1.3 de TLS nécessite la version 1.1.1 d'OpenSSL au minimum.
Bon bah alors, activer HTTP/2, le nouveau protocole qui soutient le web ? Faisons ça, avec Apache httpd et nginx.
Avec la version d'Apache httpd packagée dans la version Stretch de Debian GNU/Linux, il n'est pas possible d'activer HTTP/2 avec le module de multitraitements mpm_prefork (source, confirmé par /usr/share/doc/apache2/NEWS.Debian.gz). Notons que la documentation officielle Apache httpd ne recommande pas d'activer HTTP/2 avec mpm_prefork et préconise plutôt l'utilisation de mpm_event.
Oui, mais avec mpm_event (ou mpm_worker), il n'est pas possible d'utiliser le module PHP pour Apached httpd (car mpm_event est multithread, pas le module PHP). Il faut utiliser FPM ou FastCGI. Hé ouais, le retardataire utilise encore le module PHP…
Du coup, le test de HTTP/2 se fait ainsi :
a2dismod php7.0 ;a2dismod mpm_prefork && a2enmod mpm_event ;apt-get install libgcc-6-dev ;/etc/apache/apache2.conf : LoadFile /usr/lib/gcc/x86_64-linux-gnu/6/libgcc_s.so.1 ;a2enmod http2 ;Protocols h2 h2c http/1.1 dans /etc/apache2/mods-available/http2.conf). On peut surcharger ça dans un serveur virtuel. Pour un serveur virtuel HTTPS (TLS), la ligne de config' est Protocols h2 http/1.1. Pour un serveur virtuel HTTP, la ligne de config' est : Protocols h2c http/1.1. On peut aussi mettre du h2c dans du TLS, le module sait faire avec même si ça produira aucun effet ;systemctl restart apache2.J'ai jamais eu de PHP sur mon serveur web géré par nginx et il y a jamais eu d'histoire de module de pré-traitement avec nginx. Du coup, l'activation d'HTTP/2 devrait être plus facile que pour Apache httpd, non ? Oui avec un serveur virtuel HTTPS (TLS), non avec un serveur virtuel HTTP.
systemctl restart nginx.Sans TLS, le client web ne peut pas utiliser l'extension TLS ALPN (Application Layer Protocol Negociation) pour indiquer qu'il veut communiquer en HTTP/2.
Le client web pourrait causer HTTP/1.1 et positionner l'entête « Upgrade: h2c » qui est l'un des mécanismes permettant de monter en HTTP/2, mais nginx ne permet pas cela.
Il reste une possibilité : que le serveur positionne un entête HTTP Alternative Services qui indique au client que le même service est disponible en HTTP/2. Le client web cause alors en HTTP/2 en utilisant la méthode « prior knowledge » (différente de TLS + ALPN et de HTTP/1.1 + entête Upgrade). Sauf que, si l'on positionne la directive de configuration « http2 » sur une socket HTTP, nginx cause directement HTTP/2, donc pas de HTTP/1.1 (ou 1.0) avec un entête pour informer le client web. Donc le serveur virtuel devient accessible uniquement en HTTP/2. Il faudrait que le serveur virtuel port 80 positionne cet entête en redirigeant vers un serveur virtuel sur le port 81, par exemple. Sauf que, à ce jour, les clients web (cURL y compris) n'implémentent pas les services alternatifs HTTP.
Si l'on veut, on peut activer HTTP/2 comme dans un serveur virtuel HTTPS et tester avec curl -D - --http2-prior-knowledge <URL>. Mais, pour rappel, ton site web ne sera plus accessible en HTTP/1.1 ou HTTP/1.0. Ni en HTTP/2 avec la plupart des clients web actuels.
Apache httpd ou nginx, il faut tester le bon fonctionnement des manipulations décrites ci-dessus.
On peut tester avec curl -D - --http2 <URL> (« -D - » permet d'afficher les entêtes HTTP de la réponse, donc de vérifier la présence d'un « HTTP/2 » dès la première ligne).
On peut aussi utiliser l'onglet réseau des outils de développement de Firefox, mais, attention si tu utilises HTTP (non sécurisé) : Firefox ne positionne pas l'entête HTTP/1.1 « Upgrade: h2c » qui est l'un des mécanismes permettant de monter en HTTP/2. Curl le positionne. Bref, toujours avoir un wireshark en bandoulière.
On peut enfin regarder le journal des requêtes sur son serveur web, car la version y est mentionnée genre « GET / HTTP/2.0 ».
Bref, HTTP/2 avec Apache httpd, ça fonctionne, mais ça nécessite que je migre du module PHP à PHP-FPM ou que je mette à jour mon système vers la version Buster de Debian. Avec nginx, HTTP/2 fonctionne uniquement au-dessus de TLS en attendant que les clients web prennent en charge les services alternatifs HTTP ou que nginx gère h2c (« HTTP/2 in clear ») sans connaissance préalable de la part du client.
TL;DR : GLPI : logiciel web libre (GPL) de gestion d'un parc informatique : inventaire des machines-périphériques-réseau et de leur lieu géographique, stockage des contrats-facturation, gestion des stocks de consommables, tickets d'assistance, etc. Le package Debian glpi n'existe plus après Jessie. Il faut penser à passer à une version à jour installée à la mano. Le package gpli dépend de packages php5-*. Il faut migrer le moteur SQL utilisé par les tables GLPI de myisam à innodb avec un outil livré avec GLPI.
Sur mon ordinateur de bureau Debian GNU/Linux Stretch, des paquets php5-* étaient encore installés alors que je suis sûr d'avoir migré en PHP 7 + FPM il y a des mois. Dépendances du package glpi… qui n'est plus mis à jour depuis Jessie. Je suis donc en version 0.84 (2013 !) alors que le monde est à la 9.4.5 (il y a eu un saut de versions entre 0.xx et 9.x, je te rassure).
Je supprime et purge tout package php5-*.
Je télécharge la dernière version stable de GLPI. tar -xf dans /var/www . Droits : sudo chown -R root:www-data /var/www/glpi && chmod -R g+w /var/www/glpi/files /var/www/glpi/config (ces droits d'écriture seront réclamés par l'installeur de GLPI).
Flemme de créer un serveur virtuel Apache httpd alors que celui par défaut me convient. Flemme d'utiliser dpkg-divert pour éviter les conflits lors d'une mise à jour. J'ai décidé de créer un fichier /etc/apache2/conf-available/glpi.conf comme le package glpi l'avait fait (le « denied » nous sera demandé par GLPI lors de la première connexion après mise à jour) + sudo a2enconf glpi + sudo systemctl reload apache2 :
Alias /glpi /var/www/glpi
<Directory /var/www/glpi/files>
Require all denied
</Directory>
On installe les modules PHP 7 strictement nécessaires à GLPI (donc pas imap ni ldap, ni cas, qui sont juste recommandés) : sudo apt-get install php-gd php-mbstring php-curl php-xml php-xml php-xmlrpc.
On met à jour GLPI en suivant l'assistant web : http://127.0.0.1/glpi. Puis sudo rm -r /var/www/glpi/install.
À partir de la première connexion, un message d'erreur s'affichera : « XXX tables not migrated to InnoDB engine ». Un outil de migration est disponible depuis la nouvelle console CLI GLPI. Je l'ai utilisé ainsi : sudo -u www-data php /var/www/glpi/bin/console glpi:migration:myisam_to_innodb.
Comme je l'ai écrit mardi, ma banque me fait désormais utiliser une saloperie de clavier virtuel pour saisir mon mot de passe de connexion à mon espace client sur son site web. Un mot de passe d'exactement 8 chiffres… Une saloperie de clavier qui fait chier en réduisant le confort d'utilisation tout en diminuant la sécurité du client que je suis.
Un des points clés permettant de comprendre la diminution de la sécurité, c'est que ça fait belle lurette que les logiciels malveillants ne sont plus bloqués par les claviers virtuels. Il y a une multitude de méthodes pour récupérer le mot de passe malgré eux. Il y a les extensions malveillantes pour navigateurs web conçues pour retrouver la correspondance clic->image->chiffre. Il y a la traditionnelle capture vidéo de l'affichage. Il y a aussi la traditionnelle interception des flux réseaux, y compris ceux chiffrés (genre HTTPS). Les antivirus et les serveurs mandataires (proxy) d'entreprise / d'administration font ça depuis belle lurette aussi. Analyse HTTPS qu'ils disent. Pour notre sécurité qu'ils disent. Rien de nouveau : quand un attaquant est à l'une ou l'autre des extrémités d'une communication, il peut tout faire sans avoir à se donner la peine de casser le chiffrement soutenant la communication.
J'ai eu envie de voir le clavier virtuel de ma banque sous l'angle d'une interception du trafic HTTPS. Évidemment, sur mon propre identifiant + mot de passe, tout ça, tout ça.
Ça se fait très bien avec mitmproxy. J'ai découvert cet outil dans une causerie de l'ami Aeris au nom évocateur : Comment powned une application bancaire en 30 minutes.
On installe mitmproxy sur un système Debian GNU/Linux : sudo apt-get install mitmproxy.
On l'exécute : mitmproxy --socks ou mitmweb --socks si l'on veut l'interface web en suplément. --socks active le mode proxy SOCKS. Plusieurs modes sont disponibles.
Le certificat d'une autorité de certification x509 maison est automatiquement généré dans .~/mitmproxy/mitmproxy-ca-cert.pem. On l'importe dans le catalogue des autorités de certification reconnues de notre navigateur web (Firefox : Édition -> Préférences -> Vie privée et sécurité -> Certificats -> Afficher les certificats -> Autorités -> Importer… -> choisir -> Confirmer cette AC pour identifier des sites web -> OK). J'utilise un profile Firefox vierge (firefox -p pour en créer un) afin de ne pas pourrir le mien et pour que seul le site web de ma banque soit intercepté (ça rend l'analyse plus lisible, moins de flux interceptés).
Pour simplifier, je configure mitmproxy comme proxy SOCKS (127.0.0.1:8080) de mon navigateur web (Firefox : Édition -> Préférences -> Général -> bouton « Paramètres… » dans la rubrique « Paramètres réseau ». Comme ça, je n'ai pas besoin de conduire une "vraie" attaque de l'homme du milieu (sinon j'aurais choisi une machine virtuelle configurée en passerelle réseau de mon ordinateur et, pour une vraie de vraie attaque MitM, j'aurai sorti ettercap). Et ça nous permet de vivre comment agit un proxy installé dans une entreprise / administration au nom de la prétendue sécurité de celle-ci et au détriment de la vie privée des employés. ;)
Je me connecte au site web de ma banque. Je saisis mon identifiant et je valide le formulaire. Ho, une requête HTTP POST a été capturée par mitmproxy. Son contenu :
{
"validate": {
"<identifiant_unique_de_la_transaction>": [
{
"id": "<identifiant_unique_de_la_transaction>",
"login": "toto",
"type": "IDENTIFIER"
}
]
}
}
Intéressant (oui, j'avais bien saisi « toto » comme identifiant).
Le clavier virtuel s'est affiché. Je saisis mon code et je valide. Nouvelle requête HTTP POST :
{
"validate": {
"<identifiant_unique_de_la_transaction>": [
{
"type":"PASSWORD",
"id":"<identifiant_unique_de_la_transaction>",
"password":"9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 0711f5af-3e90-449f-bbe9-c55f08450a7d 92e47c70-00ab-4b88-95af-ab19cbad6644"
}
]
}
}
On voit clairement qu'il y a 8 groupes de blocs de chiffres… Comme les 8 chiffres de mon mot de passe.
Si mon navigateur web a émis ceci, c'est qu'il a été préalablement informé de la marche à suivre. Il y a forcément une convention entre le serveur de ma banque et mon navigateur web. Regardons les échanges précédents dans mitmproxy :
GET […]/api/v1u0/medias/images/imgb6ad9545-e3be-455f-9dd6-7b9e0de59c25 Content-Type: image/png
GET […]/api/v1u0/medias/images/imgb7f60f3f-5dff-4ba8-a85c-9fbf938c03e0 Content-Type: image/png
GET […]/api/v1u0/medias/images/img32e8d95a-67b7-409a-92ae-e200aedb0961 Content-Type: image/png
GET […]/api/v1u0/medias/images/img9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 Content-Type: image/png
GET […]/api/v1u0/medias/images/img8971b94e-7f4c-49c1-acb4-bce2b0db4498 Content-Type: image/png
GET […]/api/v1u0/medias/images/img0711f5af-3e90-449f-bbe9-c55f08450a7d Content-Type: image/png
GET […]/api/v1u0/medias/images/img4710dc98-9eae-4492-9cd3-a8250ee7c827 Content-Type: image/png
GET […]/api/v1u0/medias/images/img92e47c70-00ab-4b88-95af-ab19cbad6644 Content-Type: image/png
GET […]/api/v1u0/medias/images/img93292639-12e1-45c8-ba22-16107ad657d3 Content-Type: image/png
GET […]/api/v1u0/medias/images/img9d799ee1-166a-43af-a750-bbe3e7286c6b Content-Type: image/png
Ho bah dis donc, 10 fichiers image, comme les 10 chiffres du clavier virtuel ! Exemple : le fichier img9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 est une image du chiffre 6. Des fichiers son sont nommés selon la même nomenclature. Exemple : /api/v1u0/medias/sounds/snd9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 = chiffre 6. Ils sont utilisés par la version du clavier virtuel accessible aux handicapés visuel.
Hum, dis donc, le nom d'un fichier contient un bloc de chiffres qui ressemble à ceux du JSON, non ? C'est bien ça. 9ad8e027-86d9-4f9e-8ae9-3114e6c6bc78 = 6. Donc mon mot de passe est 666666XX . 0711f5af-3e90-449f-bbe9-c55f08450a7d représente un 4 et 92e47c70-00ab-4b88-95af-ab19cbad6644 un 2. Donc mon mot de passe est 66666642. C'est bien ce que j'avais saisi sur le clavier virtuel, en tout cas.
Pour info, le nom des fichiers images change à chaque tentative de saisie d'un mot de passe, tout de même.
Évidemment, l'utilisation de mitmproxy est de trop puisque les outils de dév' de Firefox permettent de voir le nom des images ainsi que le mot de passe encapsulé en JSON dans la requête POST. Mais ça nous a fourni un alibi pour jouer avec mitmproxy. :D
Du coup, ouais, n'importe quelle saloperie installée dans le navigateur web a accès à mon mot de passe, en JS ou autre… Et c'est à peine plus difficile à enregistrer que le contenu d'un champ XHTML standard. Les claviers virtuels, c'est du pipeau.
Tranquil IT est une société commerciale française qui vend de la prestation autour de Samba 4 AD DC (implémentation libre d'un contrôleur de domaine Microsoft avec un niveau fonctionnel winwin 2008 R2) : formation / transfert de compétences, migration AD / Samba 3 vers Samba 4 AD DC, documentation Samba 4 en libre accès, etc.
Elle développe également WAPT (Windows Apt), un logiciel libre (GPL) de gestion de parc avec inventaire et déploiement de logiciels et de configurations pour winwin, mais j'ai rien à en dire (pour l'instant ?). De quoi remplacer le vieillissant et plus maintenu wpkg ? Je ne sais pas (encore ?).
Nous avons eu recours aux services de cette société pour nous former sur Samba 4 AD DC et préparer une maquette de notre architecture Samba 4 (plusieurs contrôleurs, BIND DLZ + délégation DNS, avitaillement des identités / comptes utilisateur depuis notre OpenLDAP, PRA Samba 4, etc.). Rien à signaler. Nous n'avons pas souscrit à sa prestation de migration, car cette dernière nécessitait un travail d'intégration (scripts, procédures, etc.) sur lequel nous voulions garder la main.
Bref, une petite société commerciale qui fait vivre le logiciel libre.
XiVo est une solution de téléphonie complète en logiciel libre (GPL, LGPL) développée en France. Elle est basée sur l'autocommutateur téléphonique Asterisk (je me suis déjà un peu amusé avec). XiVo propose une surcouche comme une interface web bien foutue et des API (pour changer les droits d'appel ‒ appels nationaux, internationaux, vers des numéros surtaxés, etc. ‒, pour changer le nom d'une ligne, etc.).
XiVo sait faire toute la téléphonie d'entreprise habituelle : appels, interception d'appel, renvoi d'appel (tout ou conditionné), filtrage d'appel (dit patron/secrétaire), files d'attente, messagerie vocale, diffusion d'un message éventuellement conditionné à un calendrier, salon de conférence, etc. Je crois que le seul truc que ça ne fait pas, c'est des rapports de facturation genre agréger la consommation des lignes téléphoniques d'un service afin de faire de la refacturation interne (le service informatique paye l'intégralité de la facture de téléphone et refacture leur consommation aux autres services) et de présenter aux chefs la consommation de leurs sous-fifres sous une forme kikoo-jolie.
Nous utilisons cette solution depuis 5 ans. Nous avons deux machines virtuelles Debian GNU/Linux + XiVo en failover sur deux sites géographiques pour la partie commutation, deux lignes téléphoniques T2 avec deux passerelles T2<>IP XiVo, des téléphones IP, des téléphones analogiques avec des rocades analogiques et des passerelles analogique<>IP Patton et Realtone, des logiciels de téléphonie (softphones) + XiVo client (qui permet des recherches dans l'annuaire, de voir qui nous appelle, de transférer simplement un appel, etc.), et des saloperies automatiques qui nécessitent une ligne de téléphone (ascenseurs, interphones, etc.) soit un total de 850-900 lignes.
L'éditeur de XiVo, Avencall, propose des prestations d'intégration et de support pour tout le périmètre sus-cité, une liste de matériels totalement compatibles (genre un téléphone IP avec les touches de fonction ‒ intercepter l'appel d'une autre ligne, par exemple ‒ fonctionnelles, genre des casques audio avec les boutons de fonction ‒ muet, sourd, etc. ‒ fonctionnels) et de la revente de matos (genre des téléphones IP, des cordons de téléphone, etc.). D'autres prestataires / revendeurs existent sur le marché, mais nous avons été déçu par le précédent.
Merci Seb' d'avoir monté et entretenu tout ça toutes ces années. :)
LDAP Synchronization Connector, LSC, est un logiciel libre (avec des restrictions sur l'usage du nom), programmé en Java et qui mange une configuration en XML, qui permet de synchroniser (créer, modifier, supprimer) le contenu d'un annuaire LDAP (OpenLDAP, Samba 4 AD DC, etc.) depuis tout un tas de sources : un fichier CSV, une base de données, un autre annuaire LDAP, etc.
LSC peut fonctionner selon 3 modes :
lsc -f /etc/lsc -s all) permet de créer un ou des objets / identités à un instant T en étant sûr qu'ils seront créés sans délai (dans le lsc.xml que l'on mettra dans /etc/lsc, il faut créer autant de tâches qu'il y a de comptes utilisateurs à créer) ;lsc -a all), LSC synchronise tous les attributs qu'on lui demande de tous les objets qu'on lui demande de surveiller. LSC fait une comparaison complète de l'annuaire (ou d'une branche) puis, si la source est un LDAP, toutes les 5 secondes, il fait une recherche avec le filtre LDAP « (modifyTimestamp>=<maintenant - 5 secondes>) ». Si des objets ont été modifiés dans la source ces 5 dernières secondes, il synchronise les objets correspondants dans la destination ;lsc -c all) supprime de la destination tout les objets qui ne sont plus dans la source. Oui, même si tu précises « delete » = « true » dans « conditions » dans « propertiesBasedSyncOptions » dans la définition d'une tâche, LSC ne supprimera pas l'objet tant qu'il tournera en mode démon / asynchrone.Nous utilisons LSC pour synchroniser un Samba 4 AD DC (implémentation libre d'un contrôleur de domaine winwin) à partir d'un OpenLDAP. Nous avons besoin d'un contrôleur de domaine, notamment pour intégrer les versions récentes de Windows (Samba 3 / domaine NT 4, c'est mort depuis 10 à 15 ans) et pour intégrer pleinement les NAS modernes (CIFS, NFSv4 authentifié, possibilité pour l'utilisateur de restaurer lui-même ses données ‒ onglet « versions précédentes » dans les propriétés d'un fichier/dossier sous winwin ‒, etc.), mais nous n'avons pas encore envie que Samba 4 devienne le cœur de notre système d'information, on veut qu'il reste en périphérie, qu'il s'occupe uniquement des stations de travail winwin. Une comparaison complète, par un seul thread, entre notre OpenLDAP et notre Samba 4 prend environ 7 minutes pour environ 10 000 objets / identités utilisateur.
Info importante : dans l'Active Directory de Microsoft, et Samba 4 respecte cela, le mot de passe d'un utilisateur est en écriture seule quand on y accède par le protocole LDAP. Autrement dit : le mot de passe étant impossible à lire, il est impossible, pour LSC, de le comparer afin de savoir s'il a changé par rapport à la source. Deux solutions : 1) lorsqu'un utilisateur change son mot de passe, on le change dans Samba 4 AD DC avec samba-tool user setpassword ; 2) lorsqu'un utilisateur change son mot de passe, on pourrait le chiffrer et le mettre dans l'attribut Samba 4 « userPasswordEncrypted » puis la synchronisation (mode démon) de LSC déchiffrerait le mot de passe et le mettrait dans le bon attribut Samba 4 (voir la doc' LSC à ce sujet).
Merci à Seb' d'avoir intégré LSC et d'avoir appuyé le choix Samba 4 AD DC (ça m'aurait bien fait chier de payer M$ pour un contrôleur de domaine). :)
Des collègues se plaignent que les modifications qu'ils effectuent dans notre IPAM (interface web de gestion des adresses IP et de la conf' DHCP et DNS ‒ quelle IP est utilisée ? À qui est-elle attribuée ? Dans quel VLAN ? Etc. ‒) maison ne deviennent pas effectifs dans le DNS. Un collègue diagnostique l'usage d'un underscore dans le nom d'une machine, caractère qui serait invalide dans le DNS et bloquerait nos serveurs de noms BIND.
Je tique. À l'école Bortzmeyer, on a appris que le DNS impose une seule limitation concernant les noms, c'est leur taille. De plus, de nos jours, l'underscore est utilisé dans plein de noms DNS. DKIM (signature électronique de l'entête des emails afin d'authentifier le domaine d'émission), DANE TLSA (réparer l'énorme faille conceptuelle des certificats x509 utilisés pour authentifier les parties d'un échange chiffré ‒ TLS, par exemple ‒, voir un exemple d'utilisation ici). Jabber (protocole de messagerie instantanée textuelle libre et fédéré). Tous utilisent l'underscore, et ça se passe très bien.
Je regarde le journal de notre serveur DNS (BIND) : « nom-de-machine_a_suppr.mon-organisation.example: bad owner name (check-names) ». C'est donc vrai. Whaaat ?! :O Il y a donc une contradiction entre la théorie et la pratique.
Un essai me montre que, sur un BIND récent (9.10, packagé dans Debian Stretch), on peut ajouter un nom contenant un underscore si son type est SRV ou TXT, mais pas si son type est A ou AAAA. Cela met en exergue un comportement qui va au-delà de la norme, qui est sans doute spécifique à une implémentation.
L'école Bortzmeyer nous a aussi appris qu'il y a une différence entre un nom de machine et un nom de domaine et que les caractères autorisés pour un nom de machine sont beaucoup plus restreints que pour un nom de domaine. Mais… ça ne change rien, BIND manipule bien un nom de domaine, donc il devrait autoriser l'underscore, qui est un caractère valide pour un nom de domaine (mais pas pour un nom de machine).
Il devrait, oui, mais, par défaut, BIND vérifie que les noms associés à un type A ou AAAA respectent la syntaxe d'un nom de machine. L'idée est de dire que, 99 % du temps, l'administrateur voudra associer une IP à un nom de machine, car ce nom sera manipulé par des programmes qui manipulent des noms de machines et l'admin voudra que ça fonctionne. On peut débrayer ce comportement avec les directives de configurations « check-names ».
Un essai avec nsd 4, autre implémentation d'un serveur DNS qui fait autorité, montre aucun problème : il est parfaitement possible d'associer un nom de domaine avec un underscore à une adresse IP.
Si l'on résume : un nom de domaine a bien aucune limite concernant les caractères qui le composent, mais une implémentation de serveur DNS comme une autre, BIND, a fait le choix de bloquer les noms DNS qui ne respectent pas la syntaxe d'un nom de machine (lettres + chiffres + tiret) quand ils sont associés à un type A ou AAAA ou MX. D'après la doc', BIND vérifie également la syntaxe de la valeur d'un nom de domaine (le RDATA) pour les types SOA, NS, MX, SRV et PTR.
Un autre point m'échappe. Avant de pousser en production le fichier de zone généré par notre IPAM, nous utilisons un script de contrôle maison qui se repose, entre autres, sur named-checkzone. Il s'agit d'un outil livré avec BIND. Pourquoi a-t-il rien détecté ?
Le contrôle de la syntaxe des noms a été introduit dans la version 9.2 de BIND 9, mais il n'est pas activé par défaut. Sur les serveurs DNS maîtres, il est activé par défaut depuis la version 9.3.
named-checkzone vérifie la syntaxe des noms à partir de la version 9.3 de BIND 9, mais il se contente d'émettre un avertissement. C'est toujours le cas dans la dernière version stable (9.14).
Donc, forcément… Vu qu'il écrit tout sur stdout, si named-checkzone ne sort pas en erreur, notre script considère que tout est OK et met le fichier de zone en production. Tout s'explique.
Solutions ? Soit débrayer le contrôle de la syntaxe des noms dans la conf' de BIND, soit forcer named-checkzone à sortir en erreur si le contrôle de la syntaxe des noms échoue en utilisant son option -k fail, soit utiliser une autre implémentation de serveur DNS (BIND veut assurer les deux grands services distincts du DNS ‒ serveur qui fait autorité et serveur récursif ‒ + il veut implémenter toutes les fonctionnalités à la mode + il est monolithique = il est plus difficile à sécuriser).
Pour moi, ce contrôle de la syntaxe des noms de domaine est illégitime en cela qu'il n'est pas conforme à la norme, même s'il évite des prises de tête aux administrateurs (mais il en donne à d'autres, comme moi…).
C'est dans ce genre de moments que je me réjouis d'avoir une monoculture de serveurs DNS (d'utiliser que du BIND au sein d'une même architecture) : si l'on avait eu une diversité de serveurs de noms, certains auraient accepté le fichier de zones et d'autres non, ce qui aurait causé quelques instabilités sur le réseau et aurait rendu la mise en exergue du problème compliquée (le diagnostic n'aurait pas changé : un coup de check-soa, on aurait vu un numéro de série différent, on aurait analysé les journaux, etc.).
Avec freeRADIUS, implémentation libre d'un serveur RADIUS, on peut tester la configuration banale en simulant des requêtes avec l'outil radtest livré de base. Mais cet outil ne prend pas en charge les protocoles EAP (utilisés, entre autres, dans 802.1X donc dans le WiFi WPA2-Enterprise, nom commercial de WPA2-EAP). Le logiciel fourni par freeRADIUS, radeapclient, est compliqué à utiliser : il faut saisir les paquets RADIUS qui seront envoyés au serveur RADIUS… On ne va quand même pas faire clignoter le Wi-Fi de production ? :-
Heureusement, le projet hostapd, logiciel libre permettant de transformer son ordinateur en un point d'accès Wi-Fi, a créé un outil de test EAP adapté nommé eapol_test.
L'ennui, c'est qu'il n'est pas livré dans le paquet Debian de freeRADIUS ni dans celui d'hostapd… ÉDIT DU 09/10/2022 : depuis Debian Bullseye (Debian 11), eapol_test est livré par le paquet eapoltest des dépôts officiels. FIN DE L'ÉDIT.
Un guide existe déjà pour compiler eapol_test depuis ses sources. Je copie :
sudo apt-get install git libssl-dev devscripts pkg-config libnl-3-dev libnl-genl-3-dev ;git clone --depth 1 --no-single-branch https://github.com/FreeRADIUS/freeradius-server.git ;cd freeradius-server/scripts/ci ;./eapol_test-build.sh ;sudo cp ./eapol_test/eapol_test /usr/local/bin/.Ensuite, il faut un fichier de config' pour eapol_test. Je recopie ici celui qui m'intéresse le plus, celui qui permet de tester EAP-TTLS-PAP :
network={
key_mgmt=WPA-EAP
eap=TTLS
identity="a_user@<your-instiutions-domain>"
anonymous_identity="anonymous@<your-instiutions-domain>"
# Uncomment to validate the server's certificate by checking
# it was signed by this CA.
#ca_cert="raddb/certs/ca.pem"
password="changeme"
phase2="auth=PAP"
}
Ensuite, il faut s'assurer que l'IP de la machine qui exécutera eapol_test est bien un client RADIUS autorisé dans le fichier clients.conf de freeRADIUS.
Il y a plus qu'à tester : eapol_test -c <nom_fichier_conf_récupéré_précédemment> -a <IP_serveur_RADIUS> -s <secret_partage_avec_le_serveur_RADIUS_voir_clients.conf>. Ça débite bien, mais nous, tout ce qui nous intéresse, c'est le « SUCCESS » ou le « FAILURE » final.