systemd-journald est conçu pour archiver puis supprimer les vieux journaux (logs) selon une politique d'occupation de l'espace de stockage. Pour une politique basée sur le temps, lire ici.
Par défaut, il prend le minimum entre 10 % de la taille du système de fichiers (SystemMaxUse) et 85 % (SystemKeepFree), dans la limite de 4 Go soit min( min(10 % ; 4 Go) ; min(85 % ; 4 Go) ). 85 % car SystemKeepFree calcule ce qui doit rester libre, alors que SystemMaxUse calcule la taille maximale du journal. Les deux ne sont pas comparables directement, donc on harmonise : si 15 % doivent rester libre, 85 % peuvent être occupés et se comparent aux 10 % de SystemMaxUse.
Si la valeur de SystemKeepFree est dépassée dès le démarrage de journald, alors le plafond sera l'espace restant.
Évidemment, si tu sépares / et /var dans des systèmes de fichiers différents, journald prend en compte la taille de /var.
SystemMaxFileSize définit la taille maximale d'un fichier journal. Par défaut, 1/8e de SystemMaxUse. SystemMaxFiles définit le nombre parallèle de journaux. 100 par défaut.
L'occupation du stockage se mesure avec :
journalctl --disk-usage
et/ou
du -hs /var/log/journal
et/ou, en version prise de tête inutile :
journalctl -u systemd-journald -o json | jq 'select(.JOURNAL_PATH | test("/var/log/journal"))' 2>/dev/null | jq -s '.[-1].CURRENT_USE_PRETTY'
.
Sur tous mes systèmes Debian GNU/Linux 11 (bullseye), SystemKeepFree est calculé automatiquement pour 5 % du système de fichiers, pas 15 % comme le dit la doc'.
On peut voir ça avec :
journalctl -u systemd-journald -x
et/ou
journalctl -u systemd-journald -o json | jq 'select(.JOURNAL_PATH | test("/var/log/journal"))' 2>/dev/null | jq -s '.[-1] | .MAX_USE_PRETTY,.DISK_KEEP_FREE_PRETTY'
.Le manuel (man
) livré par Debian dit 15 %. La configuration n'est pas surchargée dans aucun des chemins donnés par la doc' de journald (on peut également vérifier avec systemd-analyze cat-config systemd/journald.conf | grep -e 'SystemMaxUse' -e 'SystemKeepFree'
). Donc, a priori, Debian change ça à la compilation. 5 %, ce n'est pas déconnant, ça correspond à l'espace réservé pour root sur un système de fichiers ext, mais ça serait mieux de l'annoncer.
Sur l'un de mes systèmes Debian GNU/Linux, une station de travail, journald dépasse la limite qu'il cale sur SystemMaxUse. Toutes les commandes permettant de mesurer l'occupation disque le montrent, y compris du
.
Dès son démarrage, il consigne que le journal dépasse la limite, mais ne prend aucune action correctrice.
Lors du démarrage, il restait, et il reste 40 % de libre sur le système de fichiers /var, donc on n'est pas dans l'hypothèse d'un dépassement de SystemKeepFree (et, toute façon, la limite a été calée sur SystemMaxUse).
J'ai 8 fichiers journaux dont 7 archives, donc il ne s'agit pas d'un unique journal courant volumineux impossible à supprimer (seuls les archives peuvent l'être). Sa taille, comme celle des journaux archivés est inférieure à SystemMaxFileSize.
Après un journalctl --rotate
, qui demande d'archiver les journaux courants, je repasse sous la limite. Donc, a priori, journald s'impose la limite au moment de l'archivage, donc la limite est SystemMaxUse + SystemMaxFileSize (source), soit, par défaut, SystemMaxUse + (1/8)*SystemMaxUse.
Je constate également qu'il y a deux journaux dans /var/log/journal : system et user-1000. Et, d'après mes observations sur mon système, chaque fragment (archive + courant) peut grossir jusqu'à 1/8e de SystemMaxFileSize, donc, forcément, ça peut dépasser SystemMaxUse
Merci Johndescs du coup de main pour démêler tout ça.
Firefox me gonfle à bloquer des téléchargements avec le motif « Fichier non téléchargé : risque de sécurité potentiel ».
about:config
, dom.block_download_insecure
=> false.
C'est censé gueuler lors d'un téléchargement en HTTP (sans TLS), mais ça semble aussi dépendre de la source : un .deb depuis les serveurs de Debian, ça couine ; le même .deb depuis mon serveur perso, toujours en HTTP, ça passe.
Ça ne fait que le énième paramètre Firefox à changer…
Une administration a un mois pour informer la CADA de la suite qu'elle va donner à une demande d'avis dans le cadre d'une communication de documents.
Dans son rapport d'activité 2021, la CADA consigne que le taux de réponse des administrations s'élève à 61,5 %, constant sur les 5 dernières années. Parmi ces réponses, 69,6 % des administrations ont fait part de leur intention de suivre au moins partiellement l'avis de la CADA, en baisse constante depuis 5 ans.
On notera que ce même article prévoit que la CADA rende son avis sous un mois. Ça n'a jamais été le cas pour moi. Le même rapport d'activité consigne un délai moyen annuel de traitement d'une demande d'avis de 82 jours en 2021.
Il est possible de demander la communication d'un certain nombre de documents détenus par une administration française. Si cette dernière s'y oppose (explicitement ou implicitement après un mois sans réponse), il est possible de saisir, dans les deux mois, une autorité administrative indépendante, la CADA, d'une demande d'avis (qui est un pré-requis pour contester le refus de l'administration au contentieux). Lire toutes les notes concernant cette procédure.
La CADA contacte alors l'administration visée afin qu'elle produise des observations (pourquoi a-t-elle refusé ?). Ces observations destinées à la CADA sont des documents administratifs… communicables (sous réserve des habituelles réserves ‒ vie privée, secrets des affaires, fiscal, défense, etc. ‒). Pré-requis : la CADA doit avoir rendu son avis (sinon, documents relatifs à une décision en cours d'élaboration, donc pas communicables). C'est le journaliste Marc Rees qui me l'avait appris (je ne trouve plus le tweet ou l'article NextInpact original, mais il y a ce tweet plus récent).
Il y a deux parties qui échangent (CADA et administration). À qui demander ? Est-il seulement possible d'adresser une demande de communication de docs à la CADA ? Oui ! Il est même possible de saisir la CADA contre un refus de communication de la CADA. :D Pour m'en assurer, j'ai cherché (et trouvé) des avis dans la base des avis de la CADA.
La CADA a répondu à ma demande de communication en me transmettant les observations produites par l'administration.
À titre d'inspiration, voici ma demande adressée à la CADA par email :
Sujet : Demande de communication de documents détenus par la CADA
Bonjour,
Je demande à la CADA de me communiquer une copie des documents suivants :
- Tous les échanges (email, courrier, etc.), toute la correspondance bidirectionnelle, entre la CADA et <CENSURE> intervenus dans le cadre de ma demande d'avis numéro <CENSURE> adressée à la CADA le <CENSURE> via son formulaire de saisine en ligne (avis rendu le <CENSURE> qui m'a été transmis le <CENSURE>). Pour les éventuels courriers postaux envoyés par la CADA, vous y joindrez toute preuve de dépôt La Poste (affranchissement, suivi LRAR, tampon La Poste, etc.) ;
L'existence de ces échanges est attestée dans le corps de l'avis rendu par la CADA, cf. PJ 1 (« en réponse à la demande qui lui a été adressée », « ce que fait valoir le président de <CENSURE> », « le président de <CENSURE> […] lui a indiqué », etc.).
Conformément à l’article L311-9, 3° du CRPA, je vous demande de m’adresser ces documents par courrier électronique à l’adresse <CENSURE>.
Cordialement.
Ce tuto reste d'actualité.
Je n'avais pas renouvelé mes clés DKIM depuis 2016. C'est fait. Ça prend moins de 15 minutes par serveur, et encore, en traînant.
Malgré un rejet dû à cela en 2020, je suis resté sur une taille de clé RSA de 3072 bits. La norme (RFC 8301 qui met à jour le RFC 6376) dit que les expéditeurs devraient utiliser une clé RSA d'au moins 2048 bits et que les destinataires doivent savoir valider une taille de clé RSA comprise entre 1024 bits et 4096 bits. Pas d'avancées cryptographiques et pas d'actualisation du référentiel de l'ANSSI, donc je ne vois pas l'intérêt de passer à la taille supérieure.
ÉDIT DU 30/12/2023 : consécutivement à une pièce jointe trop lourde, le serveur emails d'une administration m'a renvoyé mon email. Les entêtes ajoutés par lui montraient une erreur de validation de ma signature DKIM au motif d'une clé trop grosse (sans que ça soit l'origine de mon problème). J'ai décidé de passer à une clé RSA de 2048 bits. DKIM ne sert déjà à rien, ni dans la lutte contre le spam, ni pour l'acceptation d'un petit serveur par les géants de l'email, je ne vais pas en plus me mettre des bâtons dans les roues. Dommage. FIN DE L'ÉDIT DU 30/12/2023.
Liste non exhaustive triée par préférence.
Ma préférence va à kdig
, le dig
de l'implémentation DNS Knot, car il donne des informations techniques sur la négociation TLS et le dialogue HTTP (status, etc.). Paquet knot-dnsutils
dans Debian GNU/Linux.
DoT avec vérification du certificat x509 : kdig @ns1.fdn.fr +tls +tls-ca=/etc/ssl/certs/ca-certificates.crt AAAA shaarli.guiguishow.info
.
DoH avec vérif' du cert' x509 : kdig @ns1.fdn.fr +https +tls-ca=/etc/ssl/certs/ca-certificates.crt AAAA shaarli.guiguishow.info
.
À partir de sa version empaquetée dans la version 12 (bookworm) de Debian GNU/Linux (paquet bind9-dnsutils), dig
, l'outil de l'implémentation DNS BIND prend en charge DoT et DoH, mais il file aucune info sur la session TLS et les messages HTTP.
DoT avec vérif du cert' x509 : dig @ns1.fdn.fr +tls +tls-ca=/etc/ssl/certs/ca-certificates.crt AAAA shaarli.guiguishow.info
.
DoH avec vérif : dig @ns1.fdn.fr +https +tls-ca=/etc/ssl/certs/ca-certificates.crt AAAA shaarli.guiguishow.info
.
Développé en python par Bortz. Dépôt git. Tutoriel. Il n'est plus maintenu (source : échange privé avec Bortz).
La sortie est brute de décoffrage. Outil plus pour s'amuser qu'autre chose et qui ne file aucune info sur la session TLS et les messages HTTPS. Vérif' du cert' x509 effectuée de base.
DoT avec vérif' : ./remoh.py -t ns1.fdn.fr shaarli.guiguishow.info AAAA
.
DoH avec vérif' : ./remoh.py https://ns1.fdn.fr/dns-query shaarli.guiguishow.info AAAA
.
Je note les options --check
et --mandatory-level
qui testent la conformité d'un serveur DoT / DoH avec les RFC, les bonnes pratiques, etc.
La sortie est minimaliste : pas d'info, ni sur TLS, ni sur HTTPS ni sur le DNS lui-même. Codé en Rust, donc cargo
télécharge la moitié de l'Internet (317 Mo pour un binaire de 14 Mo). En revanche, a priori, la vérification du cert' x509 est effectuée de base, sans option supplémentaire, en se reposant sur OpenSSL.
DoT avec vérif' : ./dog -S @ns1.fdn.fr shaarli.guiguishow.info AAAA
DoH avec vérif' : /dog -H @https://ns1.fdn.fr/dns-query shaarli.guiguishow.info AAAA
Évidemment, toute la partie TLS peut être testée avec openssl et gnutls.
openssl s_client -connect ns1.fdn.fr:853
gnutls-cli ns1.fdn.fr:853
.
DoT = DNS over TLS (lire).
DoH = DNS over HTTPS (lire).
Explication en vidéo 1. Explication vidéo 2.
Dans les deux cas, on chiffre et on authentifie le trafic DNS entre une machine (stub resolver) / un serveur récursif local (genre Pi-hole) et un serveur récursif sur Internet.
Le but ? Si l'on utilise un serveur DNS récursif (resolver) différent de celui de son FAI afin d'échapper à différents types de filtrage (judiciaire, administratif, technique, etc.), le FAI peut voir et censurer ce trafic DNS. Donc on le chiffre et on l'authentifie (je ne parle pas d'authentifier la donnée, ça c'est le boulot de DNSSEC). (Évidemment, le FAI pourra bloquer l'adresse IP d'un récursif DoT / DoH ou en fonction du SNI… et on passera alors à Encrypted SNI, etc., etc.)
Un stub resolver (la libc de GNU/Linux, par exemple) ne sait pas utiliser DoT / DoH.
Certains logiciels savent les utiliser (Firefox, par ex.), mais alors seuls eux en bénéficient, le trafic DNS des autres logiciels reste en clair.
Comment utiliser DoT ou DoH pour tous les logiciels d'une machine ? En demandant au stub resolver (la libc de GNU/Linux) de les transférer à un intermédiaire qui, d'un côté, cause DNS, et de l'autre, DoT / DoH. Mais lequel ? (Le transfert s'effectue en mettant l'adresse IP de l'intermédiaire, y compris ::1 / 127.0.0.1 dans /etc/resolv.conf.)
systemd-resolved implémente DoT mais je souhaite éviter cette pieuvre.
(Ou tout autre serveur DNS récursif installé localement.)
Config' à mettre dans /etc/unbound/unbound.conf.d/forward.conf
(par exemple) :
server:
tls-cert-bundle: /etc/ssl/certs/ca-certificates.crt # magasin des certificats racines, apt install ca-certificates
forward-zone:
name: "."
forward-tls-upstream: yes # activation DoT
forward-addr: 2001:910:800::40@853#ns1.fdn.fr # syntaxe : <IP>@<PORT>#<NOM> (le nom sera comparé avec ceux présentés par le serveur dans son certificat x509)
forward-addr: 2001:910:800::12@853#ns0.fdn.fr
Tout comme tonton Bortz, j'ai d'abord rencontré une erreur dans la vérification du certificat x509 : « error: ssl handshake failed crypto error:1416F086:SSL routines:tls_process_server_certificate:certificate verify failed ». openssl s_client
et gnutls-cli
validaient le certificat avec le même magasin de certificats. Puis Unbound est tombé en marche tout seul… Je l'ai réinstallé en supprimant /etc/ounbound et en vérifiant qu'il n'avait rien laissé dans /var, et ça fonctionne encore avec la conf' ci-dessus… Ce n'est pas un problème de Subject / Subjet Alternative Name, ni un problème de certificat intermédiaire non-fourni dans l'échange TLS, ni… J'ai aucune piste sérieuse.
Dans le cadre de tests de charge simulant un usage courant, je voulais que les requêtes DNS de mon système soient transférées à un récursif DNS sans mise en cache local des réponses. Or, Unbound pratique une telle mise en cache.
Tonton Bortz m'a signalé deux options censées désactiver la mise en cache dans Unbound :
rrset-cache-size: 0
msg-cache-size: 0
Mais il n'a pas testé et le manuel d'Unbound ne dit pas explicitement que ça désactive toute forme de cache. Donc ça ne me convient pas : un test doit se faire sur des bases saines.
Bortz m'a parlé de Stubby. Il est empaqueté dans Debian GNU/Linux (paquet du même nom).
Dans /etc/stubby/stubby.yml
, on s'assure d'avoir :
dns_transport_list:
- GETDNS_TRANSPORT_TLS
Et dans « upstream_recursive_servers: », on choisit ou on ajoute ses serveurs. Exemple :
upstream_recursive_servers:
- address_data: 2001:910:800::40
tls_auth_name: "ns1.fdn.fr"
- address_data: 2001:910:800::12
tls_auth_name: "ns0.fdn.fr"
C'est du YAML donc gaffe à bien respecter l'indentation.
On peut aussi pratiquer l'épinglage (le pinning) afin de s'assurer que la clé privée du serveur en face ne changera pas en douce, mais pour moi, il s'agit d'une surenchère inutile.
Je vais en parler pour DoH. Il suffit de remplacer le schéma « https:// » par « tls:// » dans le paramètre « -u » pour transmettre les requêtes DNS via DoT.
Stubby n'implémente pas DoH.
Le projet Adguard (équivalent à uBlock Origin, mais, d'après mes notes de 2016, il était ouvert à la publicité dite acceptable) propose dnsproxy. Source.
Attention : c'est un tout autre logiciel qui est empaqueté sous le même nom dans Debian GNU/Linux.
On télécharge. On décompresse le binaire dans /usr/local/sbin
.
On l'utilise (il est possible de passer un fichier de configuration YAML avec --config-path
) :
sudo dnsproxy -l ::1 -l 127.0.0.1 -p 53 -u https://ns1.fdn.fr/dns-query -u https://ns0.fdn.fr/dns-query --all-servers -b [2001:910:800::40]:53 -b [2001:910:800::12]:53
Écouter sur localhost, en IPv6 et en IPv4, sur le port 53. Transférer les requêtes DNS en alternance aux serveurs ns1.fdn.fr et ns0.fr. Les noms ns(1|0).fdn.fr seront résolus en clair en utilisant les serveurs 2001:910:800::40 et 2001:910:800::12 (qui sont ns(1|0).fdn.fr).
Pour gérer dnsproxy, j'ai créé l'unit systemd suivante dans /etc/systemd/system/dnsproxy.service
:
[Unit]
Description=Proxy DoH
Wants=network-online.target
After=network-online.target
[Service]
Type=simple
ExecStart=/usr/local/sbin/dnsproxy -l ::1 -l 127.0.0.1 -p 53 -u https://ns1.fdn.fr/dns-query -u https://ns0.fdn.fr/dns-query -b [2001:910:800::40]:53 -b [2001:910:800::12]:53
RemainAfterExit=no
Restart=on-failure
RestartSec=10s
[Install]
WantedBy=multi-user.target
Si Unbound refuse de résoudre des noms (même s'il est configuré pour transférer toutes les requêtes à un autre serveur DNS récursif) en consignant « error: failed to read /var/lib/unbound/root.key » dans syslog, il suffit de lancer sudo unbound-anchor -vv
. :-
J'avais configuré mes serveurs web pour écrire des journaux (accès et erreurs) par virtualhost, au sens littéral, donc deux pour l'accès HTTP à un site web, deux autres pour l'accès HTTPS au même site web.
Cette granularité m'a jamais servi en plus de dix ans. Dans mes différents emplois, nous ne faisions pas la distinction, et nous n'avons jamais regretté un manque d'information ou une difficulté à la retrouver.
Même théoriquement, je ne vois pas l'intérêt de journaliser différemment les requêtes en fonction de la couche de chiffrement. Les erreurs liées à la configuration TLS seront consignées dans l'error.log général (nginx) ou dans le premier virtualhost HTTPS avec parfois une indication dans l'error.log général (Apache httpd).
Donc, désormais, hop, deux journaux par site web (access.log, error.log), plus de discrimination en fonction de la présence ou non du chiffrement.
De même, je stockais la configuration de chaque virtualhost dans un fichier différent. Donc, un pour HTTP, un pour HTTPS (pour un même site web). Évidemment, j'incluais les directives de configuration communes depuis un fichier de config' tiers.
Là encore, ça ne m'a jamais servi, ça ne se faisait pas dans les emplois que j'ai occupés, et je n'en vois pas l'intérêt. Dans quel cas voudrais-je désactiver HTTPS sur un site web sans désactiver HTTP (ou inversement) ? Aucune idée. Si je le veux absolument, je pourrais toujours mettre un virtualhost en commentaire. C'est un poil plus chronophage que la suppression d'un lien symbolique (avec ou sans a2dissite
), mais ça cette échelle-là, compter sert à rien.
Donc, désormais, hop, un fichier de configuration par site web contenant un virtualhost HTTP et un HTTPS.
Le sujet est l'effet de contagion de la GPL, pas de faire ce qu'on « veut avec du code source libre pour le rendre propriétaire ». On parle donc d'un sous-ensemble, d'un cas minoritaire.
Payer ne résout pas le problème en cela que ça ne lève pas la contrainte posée par la GPL. Payer n'est utile dans le cas qui nous intéresse que si le code d'origine est sous une double licence privatrice, donc qu'on est sortis de la GPL et de sa contagion, donc du sujet. Mon « tu es essentiellement hors-sujet » vient de là.
De plus, si l'on prend la définition de « libre » du HV (en tout cas ce que j'en comprends de ses articles sur la GPL), la GPL a bien posé une restriction à la liberté de réutilisation du logiciel libre (qui est l'une de ses caractéristiques) puisque, dans un cas de contagion, le ré-utilisateur est marron si le code original n'est pas sous une double licence (ce qui est le cas majoritaire, peu de logiciels libres sont diffusés sous une double licence).
Jusque-là, comme lors de ma dernière intervention, je ne prends pas position, j'expose ce que j'ai compris des termes du débat.
Je suis dubitatif sur l'aspect moral de payer pour s'affranchir d'une contrainte au motif que ça contribuera indirectement au logiciel. Ça me rappelle toutes les compensations bidonnes (carbone, volet civil d'une affaire pénale, pour la perte accidentelle d'un proche, épargne salariale / partage de la valeur, etc.). L'argent résout-il tous les problèmes ? Sans compter que rien ne dit que les contributions payantes seront intégrées à la version communautaire (mais on espère que les devs pourront coder d'autres fonctionnalités avec l'argent reçu, youpi). Et que dire de payer pour pouvoir diffuser son travail dérivé.
Tu es essentiellement hors-sujet. LHV fait référence à l'effet contaminant / contagieux de la GPL (si un programme diffusé dépend, combine ou étend un ou plusieurs codes sous GPL alors ce programme doit être sous GPL), et estime que ça restreint certaines réutilisations, alors que sa définition du concept de liberté se rapproche plus de la WTFPL : n'importe qui devrait pouvoir réutiliser du code libre pour n'importe quel usage, sans conditions.
As we’ll consider below, it might be impossible to use reCAPTCHA legally under EU law, but no data protection authority has said this.
Si, si, des APD ont clairement estimé que reCAPTCHA n'est pas conforme au RGPD, notamment dans des mises en demeure. Idem pour hCAPTCHA (arrêt CJUE Schrems II, raisonnement ici).
L'auteur connaît au moins l'une des mises en demeure de la CNIL sur le sujet, donc j'imagine qu'il voudrait qu'une APD dise que reCAPTCHA est illégal en tout temps et en tout lieu. Or, au moins en droit français, une autorité administrative ne peut pas prescrire des interdictions d'ordre général, mais elle doit examiner la conformité au cas par cas. C'est au responsable de traitement (et à son DPO) de décliner des lignes directrices ou une décision de justice ou celle d'une autorité administrative pour vérifier si ses traitements de données personnelles sont conformes au RGPD à travers le temps (il y a un travail de suivi).
Après tout, tu peux légalement faire télécharger aux visiteurs de ton site web une police de caractères depuis les serveurs de Google Fonts si tu installes un reverse proxy bien configuré au milieu (ceci dit, tu iras plus vite en hébergeant ladite police en local, avec les autres fichiers de ton site web). Tu peux légalement utiliser Google Analytics sous la même condition technique (mais tes stats vont perdre tout intérêt). Tu peux légalement stocker les données chiffrées de tes clients sur du stockage à froid ricain type mamazone S3. Etc. L'enjeu, c'est les conditions de mise en œuvre.
Par simplification, on fait parfois des raccourcis comme d'affirmer que Google Analytics est illégal, car les moyens de l'utiliser légalement détruisent complètement son intérêt, donc on sait d'avance qu'environ personne s'y aventurera, donc on peut directement affirmer que son utilisation est illégale. Mais il n'est pas toujours possible d'exclure tous les cas d'utilisation d'un produit / service.
Exemple. À l'heure actuelle, les conditions d'utilisation de reCAPTCHA précisent qu'il collecte beaucoup plus de données techniques identifiantes que ce qui est nécessaire pour la sécurisation d'un formulaire web. Donc son utilisation doit reposer sur le consentement du visiteur. Or, le RGPD dispose que le refus de consentir ne doit pas entraîner de préjudice. Donc il faudrait autoriser l'envoi du formulaire web protégé à tout visiteur qui refuserait de consentir… dont les robots. Ou basculer sur une deuxième procédure de vérification. Dans les deux cas, l'intérêt d'utiliser reCAPTCHA tombe. Tant que Google ne changera pas le fonctionnement interne de reCAPTCHA, ce raisonnement demeurera intact. Et ça, c'est pour un seul grief, il reste le deuxième, le fait que des données personnelles (ne serait-ce que l'adresse IP pour télécharger le CAPTCHA) sont envoyées à une société commerciale ricaine sans garanties suffisantes (arrêt Schrems II de la CJUE, toujours). Vu les données techniques récoltées par reCAPTCHA pour son fonctionnement, il n'est pas certain qu'intercaler un reverse proxy qui supprime les données persos permette son fonctionnement. Donc il n'est pas faux d'affirmer que reCAPTCHA n'est pas conforme au RGPD. Et encore moins qu'il vaut mieux dépenser de l'énergie à s'en passer plutôt que d'essayer de le tordre, ainsi que le RGPD, dans l'espoir que ça fasse le boulot.
Autant j'arrive à comprendre les autres points autant celui-ci je n'y parviens pas. À quel moment rendre des sources libres peut-il empêcher leur emploi ?
@Timo tu aurais un exemple à me donner ?
Il s'agit de l'éternel débat autour de la GPL. Comme d'hab, tout dépend du sens que l'on donne au mot « libre ». La liberté, est-ce faire tout ce que je veux, de la manière dont je l'entends, y compris au détriment d'autrui ou est-ce plus subtile, comme choisir son carcan, etc. ?
Bug toujours présent dans la version 102.12 de Thunderbird packagée dans Debian 11. Pour SMTP, mais aussi pour IMAP.
Sérieusement… :(
Je souhaite transférer le contenu du disque dur système d'une machine virtuelle sur un disque dur en ma possession.
Je n'ai pas accès à l'hyperviseur, et il est distant alors que le nouveau disque est local.
J'utilise tar avec les bonnes options.
Je répare grub avec la méthode habituelle.
Mais grub-install
refuse de bosser :
grub-install: warning: this GPT partition label contains no BIOS Boot Partition; embedding won't be possible;
grub-install: warning: Embedding is not possible. GRUB can only be installed in this setup by using blocklists. However, blocklists are UNRELIABLE and their use is discouraged.
grub-install: error: will not proceed with blocklists
Oui… Le disque de la machine virtuelle contient une table des partitions MBR, le nouveau disque dur une table GPT.
Compte-tenu de la capacité du nouveau disque dur (8 To), je suis obligé d'utiliser GPT.
Il me reste deux solutions :
La première solution oblige à modifier la configuration de l'hyperviseur de destination. De plus, si dans le futur je transfère cette machine virtuelle sur un autre hyperviseur, cela me contraindra, car peu de prestataires fournissent des VM avec EFI (et il est peu probable que j'ai autant de capacité de stockage, donc l'utilisation de GPT ne se justifiera plus).
J'ai donc choisi la deuxième solution, plus pérenne. Avec gparted
:
Retour dans un chroot pour ré-installer GRUB, et, cette fois-ci, grub-install
fonctionne. \o/
Tout est dans le titre.
Si le besoin est temporaire, on peut également utiliser la nomenclature « /dev/sd* ».
Je veux archiver mes jeux vidéos afin de pouvoir y rejouer quand Steam (ou Ubisoft Connect ou autre) aura disparu ou les aura retirés de son catalogue. Je rejoue régulièrement à des jeux de 2004-2006, ça me procure du plaisir. La fin de vie de serveurs de licence de jeux vidéos, c'est déjà arrivé. La suppression de titres d'un catalogue aussi (chez mamazone kindle, par exemple).
Les juristes rétorqueront que Steam (ou équivalent), c'est de la location, le contrat est clair, la loi aussi. J'ai essayé d'acheter des jeux vidéos. En 2016, Doom était vendu sur un DVD… qui ne contenait pas tout le jeu, il fallait utiliser Steam (voir). Idem en 2017 avec Wolfenstein II : The New Colossus. En 2021, Doom Eternal n'était plus du tout vendu sous forme matérielle. Sous forme dématérialisée, on revient toujours à un verrou "connecté" qui peut disparaître. Je voudrais bien acheter plutôt que louer, mais les éditeurs ne semblent pas vouloir vendre… Comment fait-on dans ce cas-là ? Le marché est verrouillé de fait. Faut-il l'accepter ? Doit-on laisser une œuvre disparaître ?
Avant de s'embêter, on peut vérifier si un jeu n'est pas disponible libre de tout verrou sur une plateforme telle que GOG.com (ex Good Old Games).
C'est ennuyeux de repasser à la caisse une deuxième fois, mais si ça épargne des heures de prise de tête, ça se discute.
J'ai regardé sur le site web officiel de plusieurs jeux vidéos : Steam est remplacé par la plateforme maison, mais le fond ne change pas, donc ça ne me convient pas.
Si je me suis mis à acheter mes jeux vidéos, c'est que j'en avais les moyens, que je voulais financer ceux qui me divertissent, et que je voulais éviter les virus et les bugs dont on peine à déterminer s'ils viennent du crack ou non.
Télécharger une version crackée de mes jeux Steam (ou similaire) me confronterait à nouveau à ces problèmes que j'ai fuis, donc je préfère éviter.
Steam-Auto-Crack et SteamAutoCracker permettent de faire sauter le verrou Steam. Sur 7 jeux, le premier m'en a déverrouillé 4, le deuxième 3.
Un jeu peut être protégé par plusieurs verrous. Notamment ceux pour lesquels Steam exécute, en arrière-plan, un autre launcher, comme Ubisoft Connect (ex-Uplay) ou Rockstar Games Social Club. Dans ce cas-là, ces logiciels ne fonctionneront pas.
Évidemment, pour que ces logiciels de déverrouillage fassent leur taff, Steam doit être installé (car ils utilisent l'API officielle de Steam avec ton compte, comme le ferait le client Steam officiel, d'où aucun risque de bannissement).
Bien souvent, c'est Steam qui configure la langue d'un jeu et le menu de celui-ci ne permet pas d'en changer. Il faut donc choisir sa langue dans Steam-Auto-Crack (sinon en changer après coup dans le fichier « SteamConfig.ini » à la racine du jeu) ou modifier le fichier « steam_settings/force_language.txt » créé par SteamAutoCracker à la racine du jeu.
Pour s'assurer que Steam-Auto-Crack et SteamAutoCracker ont fait leur taff, il faut désinstaller Steam, sinon risque de faux espoir (c'est du vécu). Attention : pour rappel, désinstaller Steam supprime les jeux, donc, avant, copie-les ailleurs.
Après le déverrouillage et le test, je crée une archive compressée (7z) du dossier du jeu.
C'est la bibliothèque de fonctions Steam qui informe un jeu des DLC qui ont été achetés. Pour les inventorier : clic-droit sur le nom d'un jeu dans la bibliothèque Steam, « propriétés », « DLC ».
Les DLC sont parfois regroupées dans une édition (Deluxe edition, Definitive upgrade, etc.). Pour les conserver, il faut alors identifier l'édition que l'on possède. Dans la bibliothèque Steam, on clique sur un jeu, puis sur le lien « Assistance » dans l'entête de la page (sous l'image transversale), et, dans l'entête de la page support, qui permet de récupérer un reçu, on trouve le nom de l'édition. Source. Parfois, ce n'est pas le cas, donc il faut consulter le reçu et/ou récupérer l'ID du jeu dans l'URL du lien « Voir dans le magasin » (clic droit -> copier).
C'est le nom / l'ID de l'édition qu'il faudra communiquer à Steam-Auto-Crack / SteamAutoCracker.
SteamAutoCracker crée un dossier « steam_settings » à la racine du jeu. Il contient un fichier « steam_appid ». Steam-Auto-Crack crée un fichier « SteamConfig.ini ». Il contient l'ID de du logiciel mais aussi la liste des DLCs. En cela, Steam-Auto-Crack permet de conserver les DLC qui ne font pas l'objet d'une édition. Granularité fine.
Pour s'y retrouver dans tout ce bazar, la SteamDB est bien pratique.
Certains contenus d'un jeu ne sont pas un DLC. Exemple : le mode Horde de Doom Eternal est apparu avec le patch 6.66 d'octobre 2021 (build 7538979).
Steam-Auto-Crack et SteamAutoCracker ne permettent pas de conserver ces contenus. Il faudra télécharger une version du jeu qui les contient.
Là encore, pour identifier la date de sortie et/ou le build ID d'un contenu, la SteamDB est incontournable.
J'ai rien trouvé pour Ubisoft Connect et Rockstar Games Social Club.
À part UplayR1Unlocker / UplayR2Unlocker qui permettent uniquement de débloquer les DLC achetés sur Ubisoft Connect.
Quand un jeu est protégé par plusieurs verrous et/ou par un autre verrou que SteamSub, il reste le torrent (ou le téléchargement direct ou tout autre moyen d'échange).
Toujours dans l'idée de modifier le moins possible les fichiers de mes jeux afin d'éviter tout bug lié au crack, j'ai tenté d'appliquer des « crack only » sur mes jeux Steam. Ce fut très rarement fructueux : le jeu ne démarre pas ou crashe. Probablement car le crack correspond à une version du jeu qui n'est pas celle des autres fichiers du jeu (apportés par Steam).
J'utilise le tracker YggTorrent.
Les releases de Mephisto sont fonctionnelles, sans virus, et installent une partie des dépendances (notamment MS VC++).
Avant d'installer des jeux crackés, j'ai sauvegardé le disque dur de mon ordinateur de jeu avec la version liveUSB de Clonezilla.
Je conseille également d'utiliser l'échantillon gratuit de plusieurs antivirus comme Kaspersky Virus Removal Tool, Trend Micro HouseCall, ESET Online Scanner, F-Secure Online Scanner, etc., et de procéder à un "vote" majoritaire : si un seul antivirus bipe, osef, surtout si le nom du virus est un truc générique comme « HackTool:Win32/Crack » (il détecte un crack inoffensif, rien de plus), mais si la majorité bip, il faut s'inquiéter. Dans mon cas, jamais plus d'un antivirus a hurlé pour un jeu donné, donc osef.
Évidemment, dans le pare-feu, il faudra interdire au binaire d'un jeu cracké de se connecter au réseau local (et donc à Internet) afin qu'il ne se fasse pas détecter ni qu'il ne fasse de la merde s'il s'agit d'un virus bien caché.
J'ai découvert SteamUnlocked. Il propose parfois du torrent. J'en ai jamais entendu parlé, pas même sur la rivière de shaarlis ou Twitter. La communauté WOT semble dire que c'est OK avec un bloqueur de pub, mais bon, dans le doute, j'ai péféré rester fidèle à mon tracker torrent de confiance.
Comme tout logiciel, les jeux vidéos dépendent de bibliothèques de fonctions. En grande majorité : Direct X et Microsoft Visual C++ redistribuables.
Certains jeux fournissent toutes les bibliothèques dans leur dossier Steam. D'autres non.
Parfois il faut une version précise d'une dépendance. Exemple : Microsoft Visual C++ redistribuables 2010. Ou une architecture précise. Exemple : x86 sur un ordi et un système x64.
Steam (ou équivalent) installe ces dépendances. Rien dit que l'éditeur (Microsoft dans le cas présent) les diffusera encore longtemps. Certaines sont même diffusées via un exécutable qui lui-même télécharge la bibliothèque… Aucune pérennité, donc. Il faut donc archiver ça aussi si l'on espère rejouer dans longtemps.
J'y suis allé en bourrin : réinstallation de winwin via la partition de récupération, installation d'un jeu, identification des bibliothèques manquantes, réinstallation de winwin, etc.
Sur 13 jeux :
Ça m'aura coûté quasiment une semaine temps plein. Inventorier l'édition et les DLC de chaque jeu, installer chaque jeu (pas assez d'espace sur mon HDD), tenter de virer SteamSub, tester, chercher un crack only en cas d'échec, torrent en cas d'échec, vérifier le bon fonctionnement du jeu dans tous les cas, vérifier les dépendances de chaque jeu, construire les archives ou modifier les existantes en cas d'oubli de dépendances, etc. Comme d'autres choses de la vie, il faut archiver ses jeux au fil de l'eau sinon c'est insoutenable.
Tout ce temps perdu. :( L'humanité aurait mieux à faire, mais elle préfère perdre son temps à verrouiller des choses… Toute cette ingéniosité (des concepteurs et des crackeurs) perdue… Si ça ce n'est pas une énième illustration que les modèles de société de mécénat global ou de licence globale ont du sens, permettre aux auteurs de bouffer sans perdre du temps à verrouiller les choses, je ne sais pas ce qu'il faut de plus.
Ce shaarli illustre à merveille la contribution social des bidouilleurs, des hackers, des crackers : libérer les gens, ouvrir le marché (cf. quasi plus aucun éditeur ne vend du jeu vidéo, donc, résistance), et archivage des œuvres numériques.
Lenovo propose un « bouton Novo ». Touche F9 (étoile avec un S dessus, à droite). Malgré que ce soit une touche de fonction, pas besoin d'appuyer simultanément sur Fn. Dans le menu, choisir « System Recovery ». Se laisser guider par l'assistant winwin.
Ça fait plusieurs fois, reparties sur plusieurs années, que je constate que mon accès à Internet SFR câble (ex-Numericable) plante quand je télécharge "trop" vite. Exemple : téléchargement d'un jeu sur Steam (80-100 mo/s durant plusieurs dizaines de minutes).
Souvent, un redémarrage de la box (Sagemcom F@st3686 V1B) via son bouton on / off et, hop, ça repart, mais, parfois, ça plante à répétition et le téléchargement Steam devient impossible.
Souvent, le problème disparaît en faisant transiter le téléchargement Steam via le VPN d'un FAI associatif. Mais il s'en trouve ralenti à 25 mo/s (car ce FAI n'a pas de serveur cache de Steam dans son réseau, car l'interconnexion entre lui et Steam est indirecte ‒ pas de peering ‒, idem pour l'interconnexion entre SFR et ce FAI asso, etc., on ne sait pas). Mais, ces derniers jours, cet artifice n'a pas fonctionné. En revanche, aucun problème pour faire du torrent à 25 mo/s une bonne partie de la nuit suivante…
Cette coupure s'est déjà produite durant mes sauvegardes (connexion SSH dans le VPN FAI asso) ou quand je faisais environ rien… Mais ça se produit quand même plus fréquemment quand il y a une forte activité.
Que signifie « mon accès à Internet plante » ?
Au début, je pensais que c'est la box qui crashait. En souvenir du modèle qui ne supportait pas plusieurs "gros" flux en parallèle ou de celui qu'un appel VOIP entrant faisait reboot. Mais, durant la coupure de service, ses LEDs restent inchangées et son interface web reste accessible, donc elle est innocente.
Bien que la box indique être toujours connectée au réseau, avoir une IP, etc., un traceroute s'arrête à elle, un ping de la passerelle (côté SFR) ne fonctionne pas, etc.
Du coup, difficile d'émettre un avis technique sur ce qu'il se passe dans le réseau de SFR.
Le côté aléatoire est intrigant. Délestage en cas de charge importante sur le réseau ? J'y crois pas, une limitation du débit serait privilégiée, je pense. À l'époque du dégroupage ADSL, certains FAI interrompaient les connexions P2P, et vu le procédé, envoi de messages TCP FIN/ACK / RST/ACK, j'imagine des dommages collatéraux, mais pas une perte totale de l'accès au ternet.
Les huit occurrences que j'ai consignées :
Ça tombe quand même pas mal en panne à 14 h ou 21 h. Les jours sont variés. Difficile de dire si le réseau SFR est en tension à ce moment-là.
À partir de septembre 2022, donc 1 an et 2 mois après son acquisition, la touche flèche bas du clavier de cet ordi se déclipse à plusieurs reprises. Fin octobre 2022, elle tombe au sol, et je ne parviens pas à retrouver le chariot, donc impossible de la re-clipser. Les boules.
Je me sers de ce PC exclusivement pour jouer, et j'utilise les flèches pour me déplacer dans les jeux (au lieu de Z, W, Q, D), donc ça pourrait s'expliquer. Mais j'utiliserai beaucoup plus la touche flèche bas par rapport à la touche flèche haut au point de l'user significativement plus ? Ça me paraît improbable. Je n'ai pas violenté ce clavier. Donc je penche pour un défaut de fabrication.
J'ai fait remplacer ce clavier en janvier 2023. Évidemment, la garantie ne prend pas en charge ce cas. Comme Dell, Lenovo ne vend pas la pièce détachée, donc impossible de faire intervenir un réparateur de quartier.
Coût ? 239,75 € TTC soit 20 % du prix d'achat TTC. 49 € HT de diagnostic par le revendeur (FNAC), 32 € HT de main-d'œuvre, 40 € de TVA, et 118 € HT de clavier. Oui, car le clavier est thermos-moulé dans le bloc supérieur du châssis, donc il faut remplacer tout ce bloc…
Il s'est écoulé 10 jours entre ma dépose du matériel chez mon revendeur et sa mise à ma disposition.
Je passe sur les trucs "rigolos" comme le SAV du revendeur (FNAC) qui demande le mot de passe de session winwin. Je l'ai changé in-situ pour un mdp bidon (genre « toortoor »). Je pensais ne pas stocker de données perso sur cet ordi (à peine un historique de navigation sur des sites web liés à mes jeux vidéos), sinon ça m'aurait bien posé problème (jadis, j'ai fait un stage d'orientation dans un SAV d'où j'ai constaté qu'on ne se gène pas pour mater les boobs des clientes et/ou de leurs mineures). En vérité, je m'en suis rendu compte ces derniers jours, j'ai foiré : cet ordi stockait, sur le bureau, des fichiers textes contenant mes mots de passe pour Steam et similaires. Désormais, j'utilise KeePass.