J'avais noté deux-trois trucs sur les films que j'ai visionnés en 2014-2015-2016. J'décide de publier ça ici… Ça me sers à me souvenir de ce que j'ai déjà regardé ou non, ça permet à quelques lecteurs de venir me troller et aux autres d'apprendre que j'ai des loisirs parfois douteux. :P
Je ne présenterai pas les films, libre à vous d'aller chercher le scénario sur les sites web habituels.
Mon avis est compliqué.
Bref, au final : l'ensemble est plutôt du grand nawak et est plutôt décevant. Mais, il a le rythme d'un Terminator pour passer le temps.
L'intégralité du scénario est attendue et capilotractée : des paquets de décisions illogiques s'enchaînent pour amener l'intrigue (l'apogée étant de courir bien en évidence devant le T-Rex, une bestiole qui te rattrape immédiatement…). Je note quand même une bonne réplique sur les drones armés en lesquels on ne peut pas avoir confiance car ils sont facilement piratables. :D
Bref, c'est juste du Jurassic Park à l'ancienne, juste du divertissement, il ne faut pas chercher plus loin. Mais, il vaut mieux regarder autre chose. :-
Bon… Là, c'est clair, on a touché le fond. Des zombis partout, sensibles au bruit, un mec qui a tous les bons contacts pour faire héberger sa famille en lieu sûr, une idée saugrenue sur l'origine du mal, des scènes méga-prévisible (genre l'escalade de l'enceinte de sécurité qui, évidemment n'a pas pu se produire avant l'arrivée de Brad alors que la ville était tout aussi bruyante,…). Même quand on veut s'écrouler devant un film, il ne faut pas choisir celui-là. :-
Ça vaut aussi pour tous les Spider-Man après les 2 premiers originaux. :- Pleeeaaase, quoi. :-
Mêmes remarques que pour Terminator et Jurasssic World : incohérences à gogo (l'apogée étant de flinguer des gus en combinaison antiradiation, sur un terrain radioactif, tout en étant en simple T-shirt puis d'entrer et de respirer tranquillou dans un bâtiment qui était dangereusement radioactif deux minutes plus tôt…). Bref, c'est juste du divertissement, il faut juste admirer les explosions. On est au-dessus du niveau de World War Z, c'est déjà ça. :-
J'ai à peu près le même avis sur Olympus has fallen : des méchants étrangers, un seul patriote américain pour sauver le président US, des tirs et des explosions. Du cinéma d'action à consommer et à oublier, quoi. Il y a quand même un petit quelque chose qui le sépare de Die Hard 5 que je n'arrive pas à identifier… Peut-être l'effet nouveauté ou l'effet "service de protection du président US"… C'est probablement cela qui fait que j'avais bien aimé ce film, plus qu'un Die Hard 5 ou un Terminator 5. On notera que ce film et sa suite, London has fallen, sont de parfaits représentants de la culture américaine : "c'est nous les plus forts, personne peut nous battre, nous sommes les seuls survivants".
Plus de Jason Statham. :( Mais la recette demeure : des règles violées, des bastons et de la conduite. Niveau cascades : moi aussi je fais sauter en finesse et en une seule tentative les capuchons des bornes à incendie avec le coffre de ma voiture mais bien sûr… :)))) Niveau scénario : j'adore (ou pas) les coïncidences joyeuses qui permettent à un plan totalement WTF et bancal de se dérouler sans accroc (oui, y'a une référence mais c'pas la question). Niveau incohérences : je n'ai rien compris à la scène de vidage du compte bancaire, c'est techniquement illogique (pourquoi faire ça sur le bateau ?). Je n'ai pas compris non plus comment/pourquoi autant de personnes mettent autant de temps à se prendre une balle dans une rixe entre voyous qui a lieu dans une toute petite salle sur un petit bateau en présence de tireurs fous…
Même si c'est répétitif vis-à-vis des précédents opus, ça se regarde plus agréablement que World War Z ou Die Hard 5, y'a pas photo. :)
Le film est loufoque dans son ensemble. Mention spéciale pour la scène de lecture partagée du contrat dans laquelle le mec confond rougissement et "reflet" d'un coucher de soleil. Pas mal pour un grand séducteur !
Globalement, je n'ai pas aimé l'angle sous lequel les relations humaines et le sexe sont déroulés :
J'ai aimé le concept du film : la matérialisation de nos sentiments. Mais le film est clairement ennuyeux au bout d'un moment (avec le gag récurrent de Tristesse, avec la chute dans l'oubli, etc.), il aurait gagné à être plus court. Je me demande toujours quelques petites choses : pourquoi avoir choisi un déménagement comme générateur de l'intrigue ? Pourquoi avoir modélisé uniquement 5 sentiments ? Pourquoi ces 5 là ?
Deux biographies-fictions. La première sur Alan Turing, principalement sa vie à Bletchley Park où il tentait, en compagnie d'autres personnes, de casser Énigma ainsi que quelques bouts de son adolescence. La deuxième sur le co-fondateur d'Apple, axé sur les dizaines de minutes qui ont précédé trois lancements produit majeurs (le Mac, le NeXt et le Lisa) où ses proches lui ont apparemment dit leurs 4 vérités.
Bien que ça soit basé sur des biographies, même autorisée par le concerné pour celle sur Jobs, ça reste de la fiction genre personne n'est capable de se souvenir de toutes les petites phrases prononcées par tout le monde des dizaines d'années dans le passé, surtout celles prononcées en toute intimité. Du coup, il faut prendre ça à la légère, comme une vue d'ensemble et ne pas mémoriser les détails.
En ces temps de dénigrement et de rejet de l'Autre et de soi-même, je trouve intéressant le "rappel" (désolé, je ne trouve pas mes mots) de l'homosexualité de Turing qui ne l'a pas empêchée de faire de grandes choses parce que justement, on ne peut pas opposer ces deux faits. De la même manière, je trouve intéressant de démystifier Steve Jobs : c'était un homme d'affaires, pas un technicien, il s'est vautré plusieurs fois avant de lancer des produits à succès et c'était un monstre sur le plan moral et humain.
Je dois reconnaître que j'ai bien aimé ces deux films. Je recommande de les visionner.
Une mission spatiale qui se passe mal, une Sandra Bullock qui tente de revenir sur Terre en enchaînant problème sur problème. C'est un peu idiot mais j'dois bien reconnaître que l'intrigue m'a tenu en haleine malgré les grosses ficelles… Ça ne laisse pas un souvenir impérissable mais ça se regarde, quoi. Je trouve que Sandra joue son personnage jusqu'au bout, comme au temps de Traque sur Internet ou Speed.
J'ai beaucoup aimé le début du film et la thématique globale : pousser la science toujours plus loin, comprendre le monde qui nous entoure, chercher des alternatives, etc. J'ai aussi beaucoup aimé la représentation des autres dimensions sous lesquelles on pourrait percevoir notre univers, notamment le temps. Ça ne vaut pas lourd scientifiquement parlant mais ça fait rêver et c'est ce que j'ai apprécié dans ce film.
Deux documentaires (pas des biopics / reconstitutions mais d'authentiques images). Le premier sur la rencontre entre Snowden et les journalistes pour balancer les pratiques immorales de la NSA. Le deuxième sur Aaron Swartz. Ces deux films portent clairement, et de première main, les projets de société défendus par ces deux hommes : contre la surveillance de masse pour le premier, pour la société du savoir pour tous et toutes pour le deuxième. Et ça, c'est cool.
Je sais que ces films sont à l'origine de militantisme actif chez plusieurs personnes de ma connaissance et je trouve ça merveilleux. Je recommande de les visionner.
Autant j'avais bien aimé les deux premiers volets, ils étaient plutôt conformes à l'esprit des livres (à l'idée que je m'en fais, en tout cas), autant je trouve que le 3e épisode est une adaptation ratée : les spots de propagande sont terriblement mal joués par Jennifer Lawrence et il manque la finesse politique / tactique qui est plus prononcée dans les livres, àmha. Bref, c'est un film "on regarde puis on oublie".
Pour le coup, je n'ai pas lu les livres. Je suis fan des deux premiers volets car on y trouve un certain nombre de marqueurs intéressants comme la division stupide de la société sur des prétendues qualités (pour mieux régner ?), gué-guerre pour gouverner de la part de toutes les factions, etc. Le 3e volet est un gros foutoir : on veut éblouir le spectateur avec de la technologie, petit clan pour diriger une ville, stéréotype du méchant de service qui ruine la complexité introduite par les deux précédents volets où il n'y a pas un seul méchant contre des gentils mais une diversité d'opinion, etc. Du tome 3, je retiens l'illustration qu'un conflit termine toujours par des peines capitales expiatoires, la classification sain-e / défaillant-e similaire à sorcier-e / moldu-e qui ne peut que conduire à des inégalités et à des conflits, ainsi que le fait que de vouloir un génome humain parfait a failli conduire l'humanité à sa perte.
Tout comme pour Hunger Games, j'pense sincèrement que ces films valent la peine d'être vus si l'on fait abstraction des naiseries.
J'ai un peu le même avis pour X-Men: Days of Future Past (et la saga entière d'une manière générale) : une fois que les sursauts causés par les incohérences et les impossibilités physiques sont passés, j'aime beaucoup le message véhiculé (tolérance entre personnes) car il ne l'est pas d'une manière bi-polaire (bien / mal) : tous les camps tentent de tirer la couverture à eux à plusieurs moments en faisant des trucs crades. Servir ou desservir les idéaux ?
Ça fait facilement plus de 5 ans qu'on m'avait conseillé de regarder ce film. J'ai une relation amour-haine avec ce film. D'un côté, j'aime l'idée d'une satire cinématographique pour montrer vers quelle forme de société, de constructions humaines on ne veut pas aller (pognon roi, retour à l'état de nature où le plus musclé l'emporte, désastres écologiques, absence d'avancées techniques, etc.). De l'autre côté, résumer le monde à "tout le monde est un abruti fini sauf moi", c'est réducteur et ça n'apporte rien. Du coup, l'éclairage apporté par ce film est intéressant mais il est incomplet. Ce film positionne aussi notre époque comme étant la plus trop mieux au niveau sciences / culture / intelligence, mais est-ce vraiment le cas ? Si ça se trouve, une construction sociale plus rudimentaire apporterait le bonheur à l'humanité mais un effet d'estrade empêche de se rendre compte de cela.
Je recommande le visionnage de ce film, pour le côté satirique. Ce shaarli est parrainé par Carl's Jr. ;)
Un excellent article, avec des photos, qui nous parle des câbles sous-marins qui transportent Internet (et toutes nos communications en général), des stations d'atterrissement de ces câbles, des datacenters où sont installés les ordinateurs des opérateurs réseau et des fournisseurs de services ainsi que des quelques réseaux de distribution qui amènent le Ternet dans le logement de tout un chacun. Bref, on aperçoit le côté très matériel d'Internet que l'on oublie souvent. Je recommande vivement la lecture de cet article.
Quelques ressources complémentaires :
[...]
But how does it work? Have you ever thought about how that cat picture actually gets from a server in Oregon to your PC in London? We’re not simply talking about the wonders of TCP/IP or pervasive Wi-Fi hotspots, though those are vitally important as well. No, we’re talking about the big infrastructure: the huge submarine cables, the vast landing sites and data centres with their massively redundant power systems, and the elephantine, labyrinthine last-mile networks that actually hook billions of us to the Internet.
[...]
The secret world of cable landing sites
[...] Providing an Internet service goes beyond the mere capabilities of a single ISP on this sceptred isle or, indeed, the capabilities of any single ISP anywhere in the world.
First we’re going to take a rare look at one of the most unusual and interesting strands of the Internet and how it arrives onshore in Britain. We’re not talking dark fibre between terrestrial data centres 50 miles apart, but the landing station where Tata’s Atlantic submarine cable terminates at a mysterious location on the west coast of England after its 6,500km journey from New Jersey in the USA.
Connecting to the US is critical for any serious international communications company, and Tata’s Global Network (TGN) is the only wholly owned fibre ring encircling the planet. It amounts to a 700,000km subsea and terrestrial network with more than 400 points of presence worldwide. [...] At any one time Tata’s Tier 1 network is handling 24 percent of the world’s Internet traffic, so the chance to get up close and personal with TGN-A (Atlantic), TGN-WER (Western Europe), and their cable consortium friends is not to be missed.
The site itself is a pretty much vanilla data centre from the outside, appearing grey and anonymous—they could be crating cabbages in there for all you’d know. Inside, it’s RFID cards to move around the building and fingerprint readers to access the data centre areas, but first a cuppa and a chat in the boardroom. This isn’t your typical data centre, and some aspects need explaining. In particular, submarine cable systems have extraordinary power requirements, all supported by extensive backup facilities.
[...] He brought with him some subsea cable samples to show how the design changes depending on the depth. The nearer to the surface you get, the more protection—armour—you need to withstand potential disturbances from shipping. Trenches are dug and cables buried in shallow waters coming up onto shore. At greater depths, though, areas such as the West European Basin, which is almost three miles from the surface, there’s no need for armour, as merchant shipping poses no threat at all to cables on the seabed. At these depths, cable diameter is just 17mm, akin to a marker pen encased by a thick polyethylene insulating sheath. A copper conductor surrounds multiple strands of steel wire that protect the optical fibres at the core, which are inside a steel tube less than 3mm in diameter and cushioned in thixotropic jelly. Armoured cables have the same arrangement internally but are clad with one or more layers of galvanised steel wire, which is wrapped around the entire cable.
Without the copper conductor, you wouldn’t have a subsea cable. Fibre-optic technology is fast and seemingly capable of unlimited bandwidth, but it can’t cover long distances without a little help. Repeaters—effectively signal amplifiers—are required to boost the light transmission over the length of the fibre optic cable. This is easily achieved on land with local power, but on the ocean bed the amplifiers receive a DC voltage from the cable’s copper conductor. And where does that power come from? The cable landing sites at either end of the cable.
Although the customers wouldn’t know it, TGN-A is actually two cables that take diverse paths to straddle the Atlantic. If one cable goes down, the other is there to ensure continuity. The alternative TGN-A lands at a different site some 70 miles (and three terrestrial amplifiers) away and receives its power from there, too. One of these transatlantic subsea cables has 148 amplifiers, while the other slightly longer route requires 149.
Oui, il y a des répéteurs tous les 80 kilomètres environ. Source : http://shaarli.guiguishow.info/?9kAT1g
[...]
“To power the cable from this end, we’ve a positive voltage and in New Jersey there’s a negative voltage on the cable. We try and maintain the current—the voltage is free to find the resistance of the cable. It’s about 9,000V, and we share the voltage between the two ends. It’s called a dual-end feed, so we’re on about 4,500V each end. In normal conditions we could power the cable from here to New Jersey without any support from the US.”
[...] Yet looking at the cable sample itself, with a mere eight strands of optical fibre inside, you can’t help but think that, for all the effort involved, there should be more. “The limitations are on the size of the amplifier. For eight fibre pairs you’d need twice the size of amplifier,” says John, and as the amplifier scales up, so does the need for power.
At the landing site, the eight fibres that make up TGN-A exist as four pairs, each pair comprising a distinct send and receive fibre. The individual fibre strands are coloured, such that if it’s broken, and a repair needs to be done at sea, the technicians know how to splice it back together again. Similarly, those on land can identify what goes where when plugging into the Submarine Line Terminal Equipment
[...] “Once the cable has been found and returned to the cable-repair ship, a new piece of undamaged cable is attached. The ROV [remotely operated vehicle] then returns to the seabed, finds the other end of the cable and makes the second join. It then uses a high-pressure water jet to bury the cable up to 1.5 metres under the seabed,” he says.
“Repairs normally take around 10 days from the moment the cable repair ship is launched, with four to five days spent at the location of the break. Fortunately, such incidents are rare: Virgin Media has only had to deal with two in the past seven years.”
[...]
“Forward error correction is used to understand the signal that’s being sent, and modulation techniques have changed as the amount of traffic going down the signal has increased," says Osborne. [...]
DWDM (Dense Wavelength Division Multiplexing) technology is used to combine the various data channels, and by transmitting these signals at different wavelengths—different coloured light within a specific spectrum—down the fibre optic cable, it effectively creates multiple virtual-fibre channels. In doing so the carrying capacity of the fibre is dramatically increased.
One of the main issues affecting this application of photonics communications is the optical dispersion of the fibre. It’s something designers factor in to the cable construction, with some sections of fibre having positive dispersion qualities and others negative. And if you need to do a repair, you’ll have to be sure you have the correct dispersion cable type on board. [...]
Vache. :O
To the left of both boxes are power cables inside metal pipes.
:O
[...]
The yellow fibre trunking snakes overhead to the racks that will perform various tasks, including demultiplexing the incoming signals to separate out different frequency bands. [...] “It depends what the client wants,” adds Osborne. “If they want a single 100G circuit that’s coming out of one of those boxes it can be handed over directly to the customer. If the customer wants a lower speed, then yes, it will have to be handed over to further equipment to split it up into lower speeds. There are clients who will buy a 100G direct link but not that many. A lower-tier ISP, for example, wanting to buy transmission capability from us, will opt for a 10G circuit. “The bulk of the transport on the cable is either used for our own Internet or is being sold as transport circuits to other Internet wholesale operators—the likes of BT, Verizon, and other international operators who don’t have their own subsea cables buy transport from us.”
Tall distribution frames support a patchwork of optical cables that divvy up 10G connectivity for clients. If you fancy a capacity upgrade then it’s pretty much as simple as ordering the cards and stuffing them into the shelves—the term used to describe the arrangements in the large equipment chassis. John points out a customer’s existing 560Gbps system (based on 40G technology), which recently received an additional 1.6Tbps upgrade. The extra capacity was achieved by using two 800Gbps racks, both functioning on 100G technology for a total bandwidth of more than 2.1Tbps. As he talks about the task, one gets the impression that the lengthiest part of the process is waiting for the new cards to show up.
All of Tata’s network infrastructure onsite is duplicated, so there are two of rooms SLT1 and SLT2. One Atlantic system internally referred to as S1 is on the left of SLT1, and the Western Europe Portugal cable referred to as C1 is on the right. And on the other side of the building there’s SLT2, with the Atlantic S2 system together with C2 connecting to Spain.
In a separate area nearby is the terrestrial room, which, among other tasks, handles traffic connections to Tata’s data centre in London. One of the transatlantic fibre pairs doesn’t actually drop at the landing site at all. It’s an “express pair” that continues straight to Tata's London premises from New Jersey to minimise latency. Talking of which, John looked up the latency of the two Atlantic cables; the shorter journey clocks up a round trip delay (RTD) of 66.5ms, while the longer route takes 66.9ms. So your data is travelling at around 437,295,816 mph. Fast enough for you?
On this topic he describes the main issues: “Each time we convert from optical to electrical and then back to optical, this adds latency. With higher-quality optics and more powerful amplifiers, the need to regenerate the signal is minimised these days. Other factors involve the limitations on how much power can be sent down the subsea cables. Across the Atlantic, the signal remains optical over the complete path.”
[...]
To one side is a bench of test equipment and, as seeing is believing, one of the technicians plumbs a fibre-optic cable into an EXFO FTB-500. This is equipped with an FTB-5240S spectrum analyser module. The EXFO device itself runs on Windows XP Pro Embedded and features a touchscreen interface. After a fashion it boots up to reveal the installed modules. Select one and, from the list on the main menu, you choose a diagnostic routine to perform.
Hahaha, winwin XP. :')
[...]
Never far from the heavy lifting in data communications, a Juniper MX960 universal edge router acts as the IP backbone here. In fact, there are two onsite confirms John: “We have the transatlantic stuff coming in and then we can drop STM-1 [Synchronous Transport Module, level 1], GigE, or 10GigE clients—so this will do some sort of multiplexing and drop the IP network to various customers.”
The equipment used on the terrestrial DWDM platforms takes up far less space than the subsea cable system. Apparently, the ADVA FSP 3000 equipment is pretty much exactly the same thing as the Ciena 6500 kit, but because it’s terrestrial the quality of the electronics doesn’t have to be as robust In effect, the shelves of ADVA gear used are simply cheaper versions, as the distances involved are much shorter. With the subsea cable systems, the longer you go, the more noise is introduced, and so there’s a greater dependence on the Ciena photonics systems deployed at the landing site to compensate for that noise.
One of the racks houses three separate DWDM systems. Two of them connect to London on separate cables (each via three amplifiers), and the other goes to a data centre in Buckinghamshire.
[...]
You can’t visit a landing site or a data centre without noticing the need for power, not only for the racks but for the chillers: the cooling systems that ensure that servers and switches don’t overheat. And as the submarine cable landing site has unusual power requirements for its undersea repeaters, it has rather unusual backup systems, too.
Enter one of the two battery rooms and instead of racks of Yuasa UPS support batteries—with a form factor not too far removed from what you’ll find in your car—the sight is more like a medical experiment. Huge lead-acid batteries in transparent tanks, looking like alien brains in jars, line the room. Maintenance-free with a life of 50 years, this array of 2V batteries amounts to 1600Ah, delivering a guaranteed four hours of autonomy.
Battery chargers, which are basically the rectifiers, supply the float voltage so the batteries are maintained. They also supply the DC voltage to the building for the racks.
Inside the room are two PFEs (Power Feed Equipment) all housed together within sizeable blue cabinets. One is powering the Atlantic S1 cable and the other is for Portugal C1. A digital display gives a reading of 4,100V at around 600mA for the Atlantic PFE and another shows just over 1,500V at around 650mA for the C1 PFE.
John describes the configuration: “The PFE has two separate converters. Each converter has three power stages. Each one can supply 3,000V DC. So this one cabinet can actually supply the whole cable, so we have an n+1 redundancy, because there’re two onsite. However, it’s more like n+3, because if both convertors failed in New Jersey and a convertor here failed also, we could still feed the cable.”
:O
Revealing some rather convoluted switching arrangements, John explains the control system: “This is basically how we turn it on and off. If there is a cable fault, we have to work with the ship managing the repair. There are a whole load of procedures we have to go through to ensure it’s safe before the ship’s crew can work on it. Obviously, voltage that high is lethal, so we have to send power safety messages. We’ll send a notification that the cable is grounded and they’ll respond. It’s all interlocked so you can make sure it’s safe.”
The site also has two 2MVA (megavolt-ampere) diesel generators. Of course, as everything’s duplicated, the second one is a backup. There are three huge chillers, too, but apparently they only need one. Once a month the generator backup is tested off load, and twice a year the whole building is run on load. As the site also doubles up as a data centre, it’s a requirement for SLAs and ISO accreditation.
In a normal month, the electricity bill for the site comfortably reaches five figures.
Pas mal. :D
At the Buckinghamshire data centre there are similar redundancy requirements, albeit on a different scale, with two giant collocation and managed hosting halls (S110 and S120), each occupying 10,000 square feet. Dark fibre connects S110 to London, while S120 connects to the west coast landing site. [...]
[...]
So we’ve got 400 locations with multiple devices which connect into one big network, which is one autonomous system. It provides IP, Internet, and point-to-point services to our customers. Because it has a mesh topology [400 interconnected devices]—any one connection will take a different route to the MPLS cloud. We also provide network services—on-net and off-net services. Service providers like Virgin Media and NetApp terminate their services into the building.”
In the spacious Data Hall 110, Tata’s managed hosting and cloud services are on one side, with collocation customers on the other. Data Hall 120 is much the same. Some clients keep their racks in cages and restrict access to just their own personnel. By being here, they get space, power, and environment. All the racks have two supplies from A UPS and B UPS, by default. They each come via a different grid, taking alternative routes through the building.
“So our fibre, which comes from the SLTE [ NDLR : la station d'atterisage / « landing site » du câble sous-marin ;) ] and London, terminates in here,” says Paul. Pointing out a rack of Ciena 6500 kit, he adds, “You might have seen equipment like this at the landing site. This is what takes the main dark fibre coming into the building and then it distributes it to the DWDM equipment. The dark fibre signals are divided into the different spectrums, and then it goes to the ADVA from where it’s distributed to the actual customers. We don’t allow customers to directly connect into our network, so all the network devices are terminated here. And from here we extend our connectivity to our customers.”
A typical day for Paul and his remote-hands colleagues is more about the rack-and-stack process of bringing new customers on board and remote-hands tasks such as swapping out hard drives and SSDs. It doesn’t involve particularly in-depth troubleshooting. For instance, if a customer loses connectivity to any of their devices, his team is there for support and will check that the physical layer is functioning in terms of connectivity, and, if required, will change network adapters and suchlike to make sure a device or platform is reachable.
He has noticed a few changes in recent years, though. Rack-and-stack servers that were 1U or 2U in size are being replaced by 8U or 9U chassis that can support a variety of different cards including blade servers. Consequently, the task of installing individual network servers is becoming a much less common request. In the last four or five years, there have been other changes, too.
“At Tata, a lot of what it provides is HP and Dell—products we’re currently using for managed hosting and cloud setups. Earlier it used to be Sun as well but now we see very little of Sun. For storage and backup, we used to use NetApp as a standard product but now I see that EMC is also being used, and lately we’ve seen a lot of Hitachi storage. Also, a lot of customers are going for a dedicated storage backup solution rather than managed or shared storage.”
[...]
The NOC's NOC
The layout in the NOC (network operations centre) area of the site is much the same as you’d find in any office, although the big TV screen and camera linking the UK office to the NOC staff in Chennai in India is a bit of surprise. It’s a network test of sorts, though: if that screen goes down, they both know there’s a problem. Here, it’s effectively level one support. The network is being monitored in New York, and the managed hosting is monitored in Chennai. So if anything serious does happen, these remote locations would know about it first.
Haha la supervision de la connectivité avec un écran. :D
George describes the setup: “Being an operations centre we have people calling in regarding problems. We support the top 50 customers—all top financial clients—and it’s a really high priority every time they have a problem. The network that we have is a shared infrastructure, so if there’s a major problem then a lot of customers may be impacted. We need to be able to update them in a timely fashion, if there’s an ongoing problem. We have commitment to some customers to update every hour, and for some it’s 30 minutes. In the critical incident scenario, we constantly update them during the lifetime of the incident. This support is 24/7.”
Being an international cable system, the more typical problems are the same for communications providers everywhere: namely damage to terrestrial cables, most commonly at construction sites in less well-regulated territories. That and, of course, wayward anchors on the seabed. And then there are the DDoS (distributed denial-of-service) attacks, where systems are targeted and all available bandwidth is swamped by traffic. The team is, of course, well equipped to manage such threats.
“The tools are set up in a way to monitor the usual traffic patterns of what is expected during that period during a day. It can examine 4pm last Thursday and then the same time today. If the monitoring detects anything unusual, it can proactively deal with an intrusion and reroute the traffic via a different firewall, which can filter out any intrusion. That’s proactive DDoS mitigation. The other is reactive, where the customer can tell us: 'OK I have a threat on this day. I want you to be on doubt.’ Even then, we can proactively do some filtering. There’s also legitimate activity that we will receive notification of, for example Glastonbury [ NDLR : un festival musical international réputé], so when the tickets go on sale, that high level of activity isn’t blocked.”
Latency commitments have to be monitored proactively, too, for customers like Citrix, whose portfolio of virtualisation services and cloud applications will be sensitive to excessive networking delays. Another client that appreciates the need for speed is Formula One. Tata Communications handles the event networking infrastructure for all the teams and the various broadcasters.
“We are responsible for the whole F1 ecosystem, including the race engineers who are on site and are also part of the team. We build a POP [point of presence] on every race site—installing it, extending all the cables and provisioning all the customers. We install different Wi-Fi Internet breakouts for the paddocks and everywhere else. The engineer on site does all the jobs, and he can show all the connectivity is working for the race day. We monitor it from here using PRTG software so we can check the status of the KPIs [key performance indicators]. We support it from here, 24/7.” Such an active client, which has regular fixtures throughout the year, means that the facilities management team must negotiate dates to test the backup systems. If it’s an F1 race week, then from Tuesday to the following Monday, these guys have to keep their hands in their pockets and not start testing circuits at the data centre. Even during the tour, when Paul pointed out the F1 equipment rack, he played safe and chose not to open up the cabinet to allow a closer look.
Vache :O
Oh, and if you’re curious about the backup facilities here, there are 360 batteries per UPS and there are eight UPSes. That’s more than 2,800 batteries, and as they’re all 32kg each, this amounts to around 96 tonnes in the building. The batteries have a 10-year lifespan, and they’re individually monitored for temperature, humidity, resistance, and current around the clock. At full load they’ll keep the data centre ticking over for around eight minutes, allowing plenty of time for the generators to kick in. On the day, the load was such that the batteries could keep everything running for a couple of hours.
There are six generators—three per data centre hall. Each generator is rated to take the full load of the data centre, which is 1.6MVA. They produce 1,280kW each. The total coming into the site is 6MVA, which is probably enough power to run half the town. There is also a seventh generator that handles landlord services. The site stores about 8,000 litres of fuel, enough to last well over 24 hours at full load. At full fuel burn, 220 litres of diesel an hour is consumed, which, if it were a car travelling at 60mph, would notch up a meagre 1.24mpg—figures that make a Humvee seem like a Prius.
[...]
The last mile [ NDLR : entre les datacenters (dans lesquels sont installés les machines des FAI et des fournisseurs de services) et chaque habitation ]
Inside Openreach's [ NDLR : filiale de l'opérateur historique monopolistique UK, BT. Cette filiale détient le réseau physique. ] new VDSL2 cabinets is a DSLAM (digital subscriber line access module, in BT parlance). In the case of older ADSL and ADSL2, DSLAM kit tends to be found farther away at the exchange, but its use in the street is to amplify the fibre-optic cable signal connected to the exchange to enable a broadband speed increase to the end user. Using tie pair cables, the mains-powered DSLAM cabinet is linked to the existing street cabinet, and this combination is described as a primary cross-connection point (PCP). The copper cabling to the end user’s premises remains unchanged, while VDSL2 is used to deliver the broadband connectivity to the premises from the conventional street cabinet.
[...]
It’s a far cry from Virgin Media’s HFC network, which currently has homes connected at 200Mbps and businesses at 300Mbps. Virgin Media uses fibre-optic cables to deliver its services to streetside cabinets, which distribute broadband and TV over a single copper coaxial cable (a twisted pair is still used for voice).
It's also worth mentioning that DOCSIS 3.0 is the leading last-mile network tech over in the US, with about 55 million out of 90 million fixed-line broadband connections using coaxial cable. ADSL is in second place with about 20 million and then FTTP with about 10 million. Hard numbers for VDSL2 deployment in the US are hard to come by, but it appears to be used sporadically in some urban areas.
Ok, FTTP, c'est le terme pour englober toutes les technos fibres qui arrivent en fibre jusqu'à l'abonné (FTTH, FTTB, etc.). Ok, donc Virgin déploie du FTTC (comme le FTTLA mais l'armoire de rue est plus proche des abonné-e-s. :- Je pense que l'équivalent français est de la fibre jusqu'aux sous-répartiteurs) et Openreach fait du VDSL2, de la montée en débit sur suivre, en somme.
There's still plenty of headroom with DOCSIS 3 that will allow cable ISPs to offer downstream connection speeds of 400, 500, or 600Mbps as needed—and then after that there'll be DOCSIS 3.1 waiting in the wings. [...] The DOCSIS 3.1 spec suggests more than 10Gbps is possible downstream and eventually 1Gbps upstream. These capacities are made possible by the use of quadrature amplitude modulation techniques—the same as used on short-distance submarine cables.
[...]
[...) we’d be remiss if we completely ignored the other side of the last-mile (or last-100m) equation: mobile devices and wireless connectivity.
Case in point: the recent emergence of almost blanket Wi-Fi hotspot coverage in urban areas. First it was a few plucky cafes and pubs, and then BT turned its customers’ routers into open Wi-Fi hotspots with its "BT with Fon" service. Now we’re moving into major infrastructure plays, such as Wi-Fi across the London Underground and Virgin’s curious “smart pavement” in Chesham, Buckinghamshire. For this project, Virgin Media basically put a bunch of Wi-Fi access points beneath manhole covers made of specially made radio-transparent resin. Virgin maintains a large network of ducts and cabinets across the UK that are connected to the Internet—so why not add a few Wi-Fi access points to share that connectivity with the public?
[...]
“The biggest issue tends to be challenging conventional thinking. For example, traditional wireless projects involve mounting a radio as high as permission allows and radiating with as much power as regulations permit. What we tried to do was put a radio under the ground and work within the allowed power levels of traditional in home Wi-Fi," he says.
[...]
[...] future of wired Internet
The next thing on the horizon for Openreach’s POTS network is G.fast, which is best described as an FTTdp (fibre to distribution point) configuration. Again, this is a fibre-to-copper arrangement, but the DSLAM will be placed even closer to the premises, up telegraph poles and under pavements, with a conventional copper twisted pair for the last few tens of metres.
The idea is to get the fibre as close to the customer as possible, while at the same time minimising the length of copper, theoretically enabling connection speeds of anywhere from 500Mbps to 800Mbps. G.fast operates over a much broader frequency spectrum than VDSL2, so longer cable lengths have more impact on its efficiency. However, there has been some doubt whether BT Openreach will be optimising speeds in this way as, for reasons of cost, it could well retreat to the green cabinet to deliver these services and take a hit on speed, which would slide down to 300Mbps.
[...]
The last few years have also been exciting for smaller, independent players such as Hyperoptic and Gigaclear, which are rolling out their own fibre infrastructure. Their footprints are still hyper-focused on a few thousand inner-city apartment blocks (Hyperoptic) and rural villages (Gigaclear), but increased competition and investment in infrastructure is never a bad thing.
Ce moment où la Suisse suit la France dans sa folie et ses conneries…
Les Suisses ont massivement répondu "oui" dimanche par référendum à une loi autorisant les services secrets à surveiller les communications téléphoniques et les activités sur internet pour notamment déjouer les nouvelles menaces terroristes. Selon les résultats définitifs, deux tiers (65,5%) des électeurs ont accepté cette nouvelle loi sur le renseignement, [...]
En revanche, ils sont 59,4% à avoir dit "non" à une hausse des retraites dont le gouvernement avait souligné la charge financière très élevée qu'elle représentait. Ils ont aussi rejeté à 63,6% une initiative populaire défendue par les Verts qui demandaient une réduction de la consommation des ressources naturelles. [...]
Oui, la solidarité et la planète, on s'en fout, après tout, il faut empêcher les terroristes…
[...]
La Suisse n'est "pas une cible, mais elle peut être une base arrière ou logistique ou financière pour ces terroristes", a fait valoir sur le plateau de la télévision suisse publique RTS le vice-président du Parti démocrate-chrétien (PDC), Yannick Buttet.
Ha, y'a même pas de terroristes ? « base arrière financière ». Genre les Suisses vont renoncer à l'argent sale. Hahahahaha, trolololololo.
[...]
Au cours de la campagne, les opposants à la loi avaient aussi rappelé le "scandale des fiches" qui avait défrayé la chronique en 1989 lorsque les Suisses avaient appris avec stupeur que 900.000 d'entre eux étaient fichés par la police en fonction de leurs opinions politiques, syndicales et autres.
Oui bah regarde les français-e-s ont bien oublié les écoutes de l'Élysée (première partie des années 80) et même l'affaire des fadettes (2011) donc bon…
[...]
Les autorités suisses sont toutefois aussi parvenues à convaincre les électeurs que seuls une dizaine de cas par an seraient concernés par la nouvelle loi "au vu de la situation actuelle en matière de menace".
Trolololololololololololo. L'état d'urgence français devait aussi être ciblé… Et finalement perquisitions à gogo, assignation à résidence à gogo, interdictions de rassemblement, tout ça pour toutes autres choses que du terrorisme.
Elles ont aussi souligné que les mesures devraient à chaque fois donner lieu à un feu vert du Tribunal administratif fédéral et du ministre suisse de la Défense.
Oui, oui, le bon vieux juge administratif. :)))) On se souvient bien de son incapacité à défendre les libertés durant l'état d'urgence.
Les services secrets suisses pourront désormais, si la gravité d'une menace concrète le justifie, surveiller de façon préventive les envois postaux et les communications téléphoniques de particuliers ainsi que leurs activités sur internet, s'infiltrer dans des réseaux informatiques et procéder à des fouilles de locaux, de véhicules ou de bagages notamment. Ils pourront aussi intercepter toutes les communications internationales qui transitent par la Suisse via le réseau câblé et perturber l'accès aux informations sur les réseaux informatiques à condition que ces systèmes soient utilisés dans des attaques visant des infrastructures sensibles.
Autre source : http://www.24heures.ch/front/storybundle/Des-services-mieux-armes-et-mieux-surveilles/story/30464691
Avec la nouvelle loi sur le renseignement, les agents du SRC pourront surveiller des communications (courrier, téléphone, courriel), observer des faits dans des lieux privés, si nécessaire en installant des micros ou de caméras, ou perquisitionner secrètement des systèmes informatiques et y installer des «chevaux de Troie».
[...]
Les recherches seront soumises à une autorisation limitée dans le temps. Elles nécessiteront l'aval du Tribunal administratif fédéral (TAF), puis du chef du Département fédéral de la défense, qui devra consulter ses collègues de justice et police (DFJP) et des affaires étrangères (DFAE). Les cas d'importance particulière pourront être présentés au Conseil fédéral.
S'il y a urgence, le SRC pourra demander le feu vert a posteriori. A la fin de toute opération, la personne surveillée devra en être informée, sauf si des intérêts publics prépondérants s'y opposent ou si la protection de tiers est compromise.
[...]
Le développement de l'arsenal du SRC s'accompagne d'un nouveau dispositif de surveillance. Une autorité indépendante sera créée. Le chef de ce nouvel organe sera nommé par le Conseil fédéral. A plus long terme, le Service de renseignement pourrait même être surveillé par une instance extérieure à l'administration. D'autres organes seront à pied d'oeuvre: Délégation des commissions de gestion du Parlement, Délégation des finances, Département de la défense et Conseil fédéral. Une instance autonome s'ajoutera pour examiner l'exploration radio et d'Internet.
Autre source : http://www.24heures.ch/suisse/peuple-dirait-oui-loi-renseignement/story/15089504
La palme du soutien à la nouvelle loi vient de Vaud, où plusieurs personnalités de gauche se sont mobilisées en faveur du texte. Le «oui» a atteint 74,2%. Suivent Nidwald avec 70.1% et Zoug avec 69,2%.
Bâle-Ville, qui a connu une affaire de fichage il y a quelques années, est en revanche le canton le plus réfractaire à renforcer les moyens donnés au SRC. Il n'a donné son aval qu'à 55%. Schaffhouse a accepté la loi par 60,5% et Appenzell Rhodes-Extérieures par 61,3%.
En 2015, plusieurs personnes ont fait du lobbying ( :D ) pour que je migre mon blog, un WordPress, vers un générateur de sites web statiques. Je m'étais mis ça de côté dans ma TODO. Je viens de prendre le temps de m'intéresser à la question.
mysql_real_escape_string(), utilisée par mon antispam, n'est plus disponible. Voir http://shaarli.guiguishow.info/?1_-YHwLa seule contrainte que je me suis fixée est la suivante : toutes les URL existantes doivent fonctionner après la migration. Toutes. Simplement parce que les URL cools / sympas ne changent jamais. Pérennité de l'information et du moyen d'y accéder, tout ça.
Évidemment, je souhaiterai aussi que les liens de mes tables des matières, qui pointent sur les sous-titres de mes billets, continuent aussi à fonctionner. Si ce n'est pas le cas, c'est ennuyeux mais ce n'est pas dramatique : l'utilisateur-rice atterrira quand même sur la bonne page web, juste il-elle ne sera pas propulsé-e au bon endroit dans le contenu de la page, c'est moins grave.
Cette question est importante. Si je décide que je ne veux plus publier sur mon blog, alors c'est simple : je dégaine wget ou httrack et je crée une copie statique de mon blog et c'est cette copie que je publie. Pas besoin d'un nouveau moteur de blog, même statique. Si je veux pouvoir ajouter des articles sur mon blog, alors oui, une migration vers un autre outil semble plus appropriée.
Je souhaite publier occasionnellement des articles sur mon blog. Le format shaarli + markdown n'est pas forcément le plus adapté. L'audience n'est pas non plus la même.
Des générateurs de sites statiques, il en existe plusieurs centaines.
Mes critères de choix (liste ordonnée) : logiciel libre, pas écrit dans un langage de kikoo / inadapté (JavaScript / Node.js, Java, Go, Erlang, C/C++, Haskell, etc.), importation possible depuis WordPress, une bonne documentation et une communauté d'utilisateur-rice-s.
Avec ces critères, les logiciels suivants émergent du lot : Jekyll (Ruby), Octopress (basé sur Jekyll) et Pelican (Python). Je note aussi Lektor qui propose une interface d'admin en Node.js pour créer / modifier / supprimer les pages. Je connaissais aussi ikiwiki, codé en Perl, plus adapté pour les wikis, comme son nom l'indique.
J'ai choisi Pelican. Parce que je sais coder en Python et que je connais (un peu) Jinja2 (moteur de template) depuis que j'utilise ansible. Au cas où j'aurais besoin de mettre les mains dans le cambouis. Et un peu aussi parce que 2 des 3 lobbyistes qui m'ont invité à migrer mon blog utilisent Pelican (oui, effet de prescription, oui, je suis un mouton).
Avant de migrer, j'ai voulu me faire une liste de tout ce qui pourrait foirer. J'imagine que ça pourra servir à d'autres donc voici une petite liste non-exhaustive des problèmes potentiels que j'ai identifiés (liste ordonnée, du moins relou / problématique au plus problématique) :
Ma plus grande crainte était d'avoir des URL différentes. Mais en fait, non. Genre, pour avoir le même format « /année/mois/jour/titre/ » que mon WordPress, ça se dit comme cela dans pelicanconf.py ( voir http://docs.getpelican.com/en/3.6.3/settings.html ) :
ARTICLE_URL = '{date:%Y}/{date:%m}/{date:%d}/{slug}/'
ARTICLE_SAVE_AS = '{date:%Y}/{date:%m}/{date:%d}/{slug}/index.html'
Même chose pour les pages, les archives, les catégories, etc.
L'import depuis WordPress ne sera pas parfait, il suffit de lire des témoignages pour le vérifier : http://jonathan.michalon.eu/passage-a-pelican.html ou http://blog.jasonantman.com/2014/02/converting-wordpress-posts-to-pelican-markdown/ . J'ai testé et j'ai constaté les problèmes suivants :
<div class="wp_syntax"><pre lang="langage">mon merveilleux code ici</pre></div> ») directement dans le billet puis je désactive l'extension. Forcément, ça ne marche plus suite à l'importation : le code est isolé dans le markdown. Il faut jouer avec des regex (et des regex capturantes) pour corriger tout ça et positionner les délimiteurs attendus ( voir http://docs.getpelican.com/en/3.6.3/content.html#syntax-highlighting ). Bref, y'a de quoi bien se prendre la tête. :S
Vu tous ces points, on se rend compte que la migration depuis WordPress va nécessiter beaucoup de travail, notamment l'import depuis WP, la personnalisation du thème et l'installation d'un moteur de recherche. Une mise à jour de WordPress me prend 5 minutes montre en main (+ 5 minutes supplémentaires le temps de basher WordPress sur IRC :P ). Une faille de sécurité WordPress est tombée en moyenne tous les 2 mois sur la dernière année. Il me faut donc 5 minutes tous les 2 mois soit 30 minutes par an. La question devient donc : combien de mises à jour de WordPress faudrait-il avant que le passage à Pelican soit rentabilisé ? On sent bien qu'on est sur plusieurs années d'équivalence.
apt-get installl python-ps4 python-lxml pandoc pelicanpelican-quickstart puis cd dans le dossier de votre nouveau blog puis pelican-import --wpfile ../export.xml -m markdown -o content [--dir-page --dir-cat] . Attention : si votre blog contient de bon gros pavés, il faudra pas mal de RAM pour effectuer la conversion. Genre 512M de RAM ne suffisent pas pour convertir mon blog, pandoc se fait tuer par l'OOM-killer de Linux.make html pour générer localement votre blog. make serve pour lancer un serveur web minimaliste local et accéder à votre blog via localhost:8000 . Il est tout à fait possible de make html pendant qu'un make serve est en cours de fonctionnement.
En résumé, j'ai creusé (un peu) le monde des générateurs de sites web statiques et j'ai approfondi Pelican. Mais, je ne migrerai pas mon blog existant car cela représente trop de travail pour assurer la qualité de l'import.
Ça fait plusieurs années que j'avais envie de tester YaCy. C'est désormais chose faite. \o/
YaCy est un moteur de recherche pour le web (attention, y'a d'autres types de moteurs de recherche genre indexation de fichiers). Pas un proxy devant Google comme l'était StartPage (devenu depuis un métamoteur de recherche, apparemment) ou le défunt Scroogle. Pas un métamoteur qui agrège les résultats d'autres moteurs existants comme Seeks ou Searx. YaCy fait tout lui-même : parcourir (crawler) le web, indexer les contenus, chercher dans l'index.
Mieux que ça, YaCy fonctionne en pair à pair : chaque ordinateur sur lequel il est installé rejoint un même réseau et contribue à stocker une partie de l'index commun voire il parcourt le web pour le remplir. Le seul bout de point central que j'ai identifié à première vue, c'est que le code du soft contient l'adresse de quelques serveurs qui seront contactés au démarrage de l'instance YaCy pour récupérer rapidement une liste (incomplète, imparfaite, etc.) de nœuds YaCy. Car l'initialisation avec seulement la DHT, ça prend du temps. Un peu comme les trackers BitTorrent qui existent par commodité. Ils ne sont ni indispensables ni immuables.
Du coup, on retrouve les caractéristiques désirables habituelles : logiciel libre, sous le contrôle de l'utilisateur, P2P, pas censurable, etc.
Notons que la participation au réseau P2P est facultative : YaCy peut servir à indexer, en privé, un intranet. YaCy peut servir à proposer un moteur de recherche sur votre site web personnel en lieu et place d'un "applet" qui lance un « site:monsite.exemple mot-clé_saisi » sur Google.
Comme la plupart des applis en Java (on retrouve ça avec Kafka, Storm ou Zookeeper, par exemple), la verbosité est mal configurée par défaut, ce qui fait que YaCy consigne absolument tout dans ses logs : quel pair lui dit bonjour, envoi/réception de fragments de DHT, etc. Bref, ça bourrine bien le support de stockage. Et il n'y a aucune option dans l'interface web pour changer ce comportement. Ma méthode :
sudo sed -i 's/INFO/WARNING/' /var/lib/yacy/LOG/yacy.logging
sudo systemctl restart yacy
Quelques comportements difffèrent de ceux de Google :
En résumé : je suis plutôt impressionné par la masse de taff abattue, par le fonctionnement P2P mais la pertinence des résultats rend un usage au quotidien vraiment difficile à envisager. Le problème, ce n'est pas de crawler toujours plus de contenus puisque même avec du bon contenu indexé, les résultats ne sont pas pertinents. Le problème c'est l'algo de construction et d'enrichissement de l'index et de tri des résultats. N'est pas Google qui veut. :(
Héhé :)
Jeter un disque défaillant ? Nan jeter toute la machine. Nan, jeter toute la baie. Nan, remplacer toute la salle. Nan, tout le datacenter.
Pale Moon est un navigateur web open source dérivé de Mozilla Firefox. Il dérivait à l'origine de celui-ci en proposant des optimisations de compilation pour améliorer les performances, mais s'en détache depuis progressivement en réintroduisant des fonctions retirées par Mozilla comme la barre d'état et en refusant d'adopter des changements introduits en vue de la nouvelle interface dite Australis ou les DRM HTML5, au point de pouvoir être qualifié de fork.
Suite à mon avis sur IceCat, Dudorino ( http://dukeart.netlib.re/shaarli/ ) m'a signalé l'existence de Pale Moon.
C'est vrai qu'il correspond plus à ce que je recherche : les fonctionnalités craignos (social API, visionneuse PDF, webRTC, etc.) ne sont pas dans le code. Voir https://www.palemoon.org/technical.shtml . Pour l'instant, le site web du projet n'évoque pas EME ou la publicité à l'ouverture d'un onglet, seules des entrevues du dev' principal en parlent.
Après, forker le moteur de rendu (Gecko), je ne suis pas convaincu. Genre implémenter toutes les nouveautés permanentes du monde web, ça prend du temps.
Toutes les extensions existantes sont compatibles.
Vu les releases notes, il y a visiblement un suivi de la sécurité. Ce n'est pas packagé dans Debian mais il y'a un dépôt Debian.
Y'a une petite 60aine de contributeur-rice-s dont 6 vraiment actifs/actives ( voir https://github.com/MoonchildProductions/Pale-Moon/graphs/contributors ).
D'après https://www.palemoon.org/redist.shtml , y'a quelques esbroufes autour de la licence de redistribution des binaires (pas d'usage commercial, usages restreints, attention à la marque, pas d'altération, pas de bundle, etc.).
Rumor: "Pale Moon has redirected search engine revenue to its developer"
TRUE
Developing Pale Moon is a full-time job (and then some). It is not a hobby; it is a profession. The browser is free for anyone to download and use, and keeping development up, keeping myself supplied with food, paying rent, etc., and paying for the more than a few servers to provide all additional services needed for its presence on the internet (like the website server, release download mirrors, blocklist server, Pale Moon Sync, the forum, automatic update server, ftp, mail server, CDN) all costs money. This money has to come from somewhere besides donations, because donations simply do not cut it. There has to be enough on the other side of the equal sign. What did you expect; that I would continue to fund the Mozilla Corporation from an independent browser by keeping the search parameters to their Mozilla ones?
In addition, every single other alternative browser out there does this to pay for itself, as well.
Suite à mon essai de GNU IceCat, j'ai encore découvert des paramètres pas cool dans Firefox.
Enable the blocklist. Retrieve the list from the server specified in extensions.blocklist.url at the interval specified in extensions.blocklist.interval. If blocklisted extensions or plugins are already installed, disable them, and prevent blocklisted extensions from being installed in the future.
( http://kb.mozillazine.org/Extensions.blocklist.enabled )
Enable spellchecker for multi-line controls and single-line controls. (Default in Camino)
( http://kb.mozillazine.org/Layout.spellcheckDefault )
GMP is a special purpose extension point for authorised 3rd party codecs and EME (Encrypted Media Extensions) CDMs (Content Decryption Modules).
( https://wiki.mozilla.org/GeckoMediaPlugins )
On peut aussi empêcher la mise à jour automatique des moteurs de recherche mais je ne l'ai pas fait :
J'ai mis à jour mon shaarli sur ma configuration Firefox.
rms en a parlé lors de sa conférence à laquelle j'ai assisté, y'a plus d'un an (voir http://shaarli.guiguishow.info/?GX6MZw ). J'avais trouvé ça OMG-WTF-MDR-useless. J'avais noté de tester. Je viens de tester.
IceCat, c'est la version GNU de Firefox. Objectifs ? Virer la marque déposée et les comportements que la Free Software Foundation refuse comme le fait d'avoir un dépôt d'extensions qui contient des extensions privatrices (c'est aussi un point de désaccord majeur avec Debian et la distribution non-free dans les dépôts officiels) ou le fait que Firefox va toquer chez Mozilla régulièrement (recherche de mise à jour, rapports, etc.).
Note: avant d'être renommé IceCat, il se nommait IceWeasel. Mais Debian avait pris le nom le premier. Il faut donc bien faire la différence entre IceCat (GNU IceWeasel) et Debian IceWeasel, on ne parle pas de la même chose. :P
Bon déjà, on notera qu'IceCat n'est pas packagé dans Debian donc niveau suivi de la sécurité, on se place là : faut le faire manuellement donc oubli & compagnie. Gênant pour un des softs les plus exposés aux menaces extérieures. D'autant plus qu'actuellement, la version d'IceCat distribuée par le projet GNU n'est pas la dernière ESR de Firefox (38.X versus 45.X) et qu'elle est abandonnée. :(
Ensuite, on regarde le code source pour voir comment IceCat est construit à partir des sources de Firefox : http://git.savannah.gnu.org/cgit/gnuzilla.git/tree/ . Et on constate qu'on ajoute des favoris (vers la FSF) et des moteurs de recherche dans la barre de recherche, on change l'apparence (nom, logo, icônes, etc.), on prend quelques patchs chez Ubuntu et pis bah, c'est à peu près tout. Ça signifie que les fonctionnalités dont ne veut pas la FSF (Firefox Hello, EME, etc.) seront désactivées depuis about:config mais qu'elles seront toujours présentes dans le code.
Du coup, à quoi bon avoir une version non mise à jour de Firefox ? Autant prendre n'importe quel Firefox et changer nous-mêmes les valeurs dans about:config. Voir http://shaarli.guiguishow.info/?9-JFuQ pour une liste de paramètres à changer.
D'ailleurs, à ce propos, la majorité des paramètres est bien positionnée genre désactiver le safebrowsing (qui va toquer chez Google pour vérifier que chaque site visité n'est pas malveillant), désactiver le pré-chargement des contenus pointés par une page, désactiver Hello, etc.), mais, d'autres paramètres ne sont clairement pas OK : géoloc' activée, OCSP activé (il convient de conserver uniquement l'OCSP stapling qui, lui, ne balance pas votre IP et l'adresse du site web https que vous visitez à l'Autorité de Certification du site web en question), EME activé. :O WTF ?! Quel est l'intérêt d'IceCat dans ces conditions ?!
LibreJS est une extension ( https://addons.mozilla.org/fr/firefox/addon/librejs/ ) présente par défaut dans IceCat qui bloque les scripts JavaScript qui ne sont pas triviaux (AJAX, appel à des scripts externes, complexité, etc. Liste des critères : https://www.gnu.org/software/librejs/manual/html_node/JavaScript-Detection.html#JavaScript-Detection ) et qui ne sont pas sous licence libre (pour le déterminer, l'extension cherche la présence d'une licence en début de fichier ou de tag).
En cas de JS non libre, l'extension affiche un onglet vertical à droite pour envoyer un rapport au site web. Inutile de dire qu'il apparaît sur 99,9 % des sites web. Son intelligence pour trouver un moyen de contact (email, twitter, etc.) est… extrêmement limitée donc échoue à chaque fois d'où un onglet bien inutile. :D
À l'usage, LibreJS est juste inutilisable : la lenteur de chargement des pages web est exécrable : on est au-delà des 5 secondes par page. Même sur le site web de la FSF. C'est normal puisque l'extension pré-scanne tooooute la page web, en mode bloquant, avant que le navigateur effectue le moindre rendu.
Au-delà de ça, ce n'est pas utilisable : le nombre de scripts bloqués est bien trop élevé. Impossible de consulter mon compte en banque. Impossible de naviguer sur le site oueb de mon libraire (je ne parle pas d'Amazon, hein), les cartes de météofrance ne s'affichent plus, Twitter devient inutilisable, etc.
SpyBlock est un fork d'Adblock Plus sans l'option pour la publicité acceptable et qui est censé bloquer toutes les requêtes tierces quand on utilise la navigation privée.
Sur ce point, je trouve que le projet GNU va trop loin :
IceCat n'empêche pas d'installer n'importe quelle extension Firefox, peu importe sa licence.
En revanche, dans le panneau de gestion des extensions, la recherche est supprimée. Elle est remplacée par la liste des extensions FSF-compliant. Cette liste est extrêmement incomplète : plein d'extensions avec une licence reconnue comme étant libre par la FSF ne sont pas présentes genre Pure URL ou Decentraleyes.
Là où je trouve ça totalement génial, c'est que le recensement de la FSF contient Adblock Plus ! Le truc qui autorise la publicité acceptable. Le truc qui modifie les sites web pour injecter la pub qu'il veut ! Voir http://shaarli.guiguishow.info/?bRMBww . Pour un projet qui se veut éthique (« GNUzilla is the GNU version of the Mozilla suite, and GNU IceCat is the GNU version of the Firefox browser. Its main advantage is an ethical one: it is entirely free software. »), je trouve ça croustillant. Hé oui, l'éthique ne se résume pas uniquement à la licence du code.
IceCat prévoit quelques contre-mesures contre le pistage :
Bref, rien de spécifique à IceCat.
J'ai aussi lu des choses fausses sur le web :
En résumé : je vais rester sous Firefox. :D
Il est déjà assez pénible de voir le terme systématiquement renvoyé à la cybercriminalité pour ne pas devoir, en prime, faire la chasse aux fantasmes agités à tout propos.
«Fausse alerte terroriste à Paris : un hacker de 16 ans interpellé», «Une Tesla piratée à distance par des hackers chinois», «Internet en Corée du Nord : des hackers dressent l’inventaire». On n’en a choisi que trois, mais des titres d’articles du même tonneau, ces derniers jours, il y en a eu des dizaines sur le Web. [...]
Or, de quoi parle-t-on ici ? Dans le premier cas, d’un irresponsable canular téléphonique qui, pour spectaculaires qu’aient été ses résultats, ne nécessite pas de compétences poussées – que l’adolescent arrêté se présente comme un hacker ne fait pas du délit dont il est accusé une prouesse technique. Dans le second cas, d’une faille découverte par les chercheurs d’un laboratoire chinois en cybersécurité. Enfin, dans le troisième, d’un changement de configuration (possiblement par erreur) sur le serveur de noms de domaine de la Corée du Nord, changement qui a rendu accessible la liste de ces derniers et a été repéré, notamment, par un chercheur en sécurité informatique. Avec pour résultat d’offrir un accès inédit à la partie du Web la plus fermée au monde (et manifestement pas la plus florissante).
On pourrait rappeler que pour les communautés hackers elles-mêmes, le terme renvoie d’abord à une façon d’appréhender la technologie : la comprendre, la bidouiller, la détourner, résumait Wikipédia il y a quelques années. Que le hacking – une culture, des pratiques – ne saurait donc se réduire au piratage informatique, même si ce dernier en est la dimension la plus médiatisée. [...] On pourrait même convoquer le Comité invisible qui, dans A nos amis, écrit : «Là où l’ingénieur vient capturer tout ce qui fonctionne pour que tout fonctionne mieux, pour le mettre au service du système, le hacker se demande "comment ça marche ?" pour en trouver les failles, mais aussi pour inventer d’autres usages, pour expérimenter.»
A défaut de réussir à appréhender dans sa complexité le terme «hacker», du moins devrait-il être possible de ne pas le mettre à toutes les sauces. Il est certes plus vendeur de titrer sur le piratage d'une Tesla par de mystérieux «hackers chinois», avec toute l'imagerie que l'expression peut véhiculer, plutôt que sur la découverte d'une faille par des chercheurs en cybersécurité. [...]
Via https://twitter.com/bearstech/status/778876525554860032 via https://twitter.com/bluetouff
À peine la dernière modif' du paquet télécom terminée (c'était celle sur, entre autres, neutralité du réseau, roaming, tout ça), la Commission européenne a déposé, sur le bureau du Parlement européen, un projet de directive européenne afin de créer un Code des télécoms, unique et européen. Ça semble bien dit comme ça genre toute la doc' au même endroit, sauf qu'évidemment, la Commission en profite pour en réécrire une majorité.
Pour mesurer à quel point ça craint, il suffit de lire le communiqué de presse ( http://europa.eu/rapid/press-release_IP-16-3008_fr.htm ) :
Pour le reste, je reprends ce qu'à écrit Benjamin Bayart :
Ce sera probablement débattu devant le Parlement Européen pendant 12 à 24 mois. Avec amendements, rapports, modifications, tractations, etc. Des quelques premiers éléments qu'on a, le texte est mauvais. Il vise à créer un seul grand marché des télécoms en Europe, avec une concurrence libre et non faussée entre 3 ou 4 opérateurs à échelle du continent, de ce qu'on en comprend pour le moment. »
So much dreams, isn't? :'(
L'ARCEP a soumis à consultation publique l'analyse qu'elle fait du marché [ NDLR : des accès à Internet ] fixe. [...] Cette analyse du marché fixe est importante, car elle permet au régulateur des télécoms de constater les manquements du marché, les orientations à suivre et les décisions à acter.
Dans les grandes lignes, la Fédération a évoqué les sujets suivants :
- Montrer les biais de l'analyse faite par l'ARCEP : considérer le marché comme unique remède à tous les maux, ignorer les petits opérateurs en général, et tout modèle autre qu'industriel en particulier, centrer son analyse sur les opérateurs et pas sur l'utilisateur final ;
- Souligner le manque de concurrence sur la boucle locale fibre : l'abonné moyen a, au mieux, le choix entre deux opérateurs, quand tout va bien, aucune possibilité de nouvel entrant de petite taille : exclusions des opérateurs locaux, des associatifs ;
- Souligner que la boucle locale dite "mutualisée" est en fait un monopole local, sur une zone géographique, par une joint-venture de gros opérateurs qui s'entendent ; Proposer une obligation, pour ce monopole, de fournir une offre activée pour remédier l'absence de concurrence, permettre l'existence des petits opérateurs, et ouvrir le marché des entreprises vers la fibre optique ;
- Exposer les possibilités, en matière de déploiement de boucle locale, qu'offre le modèle mis en œuvre par la Fédération FDN sur la boucle locale radio et la boucle locale fibre.
Nous espérons que ce travail sera pris en compte par le régulateur afin de ne plus retarder l'ouverture du marché de la fibre optique en France.
J'avais déjà évoqué cette consultation et donné mon avis dans un autre shaarli : http://shaarli.guiguishow.info/?9VVNag . Je ne reviens donc pas sur la terminologie.
Ci-dessous, le contenu de la réponse de la FFDN avec plus de détails que le TL;DR ci-dessus.
À chaque mise à jour du paquet clamav, j'ai le droit à un mail de cron lors de l'éxecution nocturne de logrotate :
/etc/cron.daily/logrotate:
error: clamav-freshclam:1 duplicate log entry for /var/log/clamav/freshclam.log
/etc/logrotate.d/clamav-daemon et /etc/logrotate.d/clamav-freshclam englobent tous les deux le fichier /var/log/clamav/freshclam.log . clamav et freshclam nécessitent tous les deux une action différente en post-rotate.
Ça n'a pas été patché depuis des années…
Le plus simple est de faire porter /etc/logrotate.d/clamav-daemon sur le seul fichier /var/log/clamav/clamav.log au lieu de /var/log/clamav/*.log :
sudo dpkg-divert --add --no-rename --divert /etc/logrotate.d/clamav-daemon.dpkg-dist /etc/logrotate.d/clamav-daemon
sudo sed -i 's,\*,clamav,' /etc/logrotate.d/clamav-daemon
Oui, ça fout le zouk si clamav utilise un fichier de log supplémentaire ou un nouveau fichier de log. Mais ça n'a pas été le cas depuis des années donc bon…
De très bons rappels sur le chiffrement de Vernam suivis de mises en garde sur un projet de crypto-bullshit post-Snowden de plus… À lire, au moins les rappels sur Vernam.
Le chiffrement de Vernam (ou masque jetable, ou OTP (One Time Pad)) est un système de chiffrement inventé en 1917 par Gilbert Vernam. Il a pour particularité d’être prouvé mathématiquement comme incassable, c’est-à-dire qu’il n’existe et n’existera jamais de méthode plus efficace que la force brute pour tenter de déchiffrer un message codé sans connaître la clef de chiffrement.
[...]
Ce système est effectivement incassable puisque toute clef K déchiffrera quelque chose. Mieux, il est toujours possible de trouver une clef K′ tel que le déchiffré de C donnera n’importe quel texte donné. Vous aurez donc beau tester les 2X clefs possibles, vous n’obtiendrez rien d’autre que l’ensemble des 2X messages possibles, certains n’ayant littéralement aucun sens, d’autres formant des textes parfaitement sensés et un seul étant le message réel.
Ce protocole incassable n’est réellement incassable qu’à 3 conditions.
- La clef doit être au moins aussi longue que le message à chiffrer. En effet, la cryptographie a horreur des répétitions, et utiliser la même clef pour chiffrer plusieurs bouts du message conduit aux mêmes attaques que pour le chiffrement ECB.
- La clef doit être vraiment aléatoire. Pas question d’utiliser un générateur pseudo aléatoire, puisqu’un attaquant s’attaquera alors à bruteforcer ce CSPRNG pour trouver la clef en moins de 2X essais.
- La clef ne doit jamais être réutilisée. Sinon on tombe à nouveau dans les problèmes de réutilisation de clef.
La clef doit être générée par un processus réellement aléatoire. Cela nécessite du matériel dédié, utilisant des processus physiques aléatoires pour générer de la donnée, par exemple la désintégration atomique, le bruit thermique ou des phénomènes quantiques.
Ce matériel doit être sous votre entier contrôle, il est inenvisageable que quelqu’un d’autre ait accès à ce matériel et aucun intermédiaire ne saurait être suffisamment de confiance pour vous fournir de telles données.[...] Dans le cas contraire, il serait en effet très facile pour un attaquant de compromettre cette machine par un procédé quelconque ou de soudoyer un intermédiaire pour vous délivrer du faux aléatoire. Un tel déploiement de matériel et de sécurité donne à un tel système un coût très largement prohibitif, surtout comparé à la sécurité supplémentaire réellement apportée par rapport à des systèmes à coût négligeable comme AES (ou CHACHA20 si vous avez peur de la NSA).
Le problème du chiffre de Vernam est que tous les correspondants doivent posséder une copie de la clef et surtout que cette clef ne peut pas être transmise sur un canal non fiable.
Si on suppose un canal informatique fiable, alors Vernam est sans intérêt puisqu’on aurait tout intérêt à utiliser ce canal pour échanger directement les données plutôt que la clef. Une rencontre physique juste avant l’établissement d’un canal protégé par Vernam est aussi un non-sens, puisqu’on aurait alors mieux fait de s’y échanger les données au passage… Il n’y a donc pas d’autre moyen d’échange de la clef qu’une rencontre physique très antérieure à la communication chiffrée.
Le coût en devient tout aussi prohibitif et dans tous les cas peu utilisable en pratique par le commun des mortels.
Comme pour la génération, l’absence de tiers de confiance (rencontre physique des correspondants) est plus abordable mais généralement difficile à organiser, l’utilisation de moyen informatique étant souvent là pour compenser de l’éloignement physique (communication trans-nationale) ou de l’impossibilité de déplacement (correspondant en situation délicate dans son pays).On voit aussi que Vernam nécessite autant de partages de clef que de tuples de correspondants et que la clef d’un correspondant A ne peut pas être utilisée pour échanger avec B.
Chaque envoi de message nécessite l’utilisation d’une nouvelle clef, sous peine de compromettre la sécurité du système. Étant donné la difficulté de génération et de transmission de la clef, le chiffre de Vernam réclame donc la mise-en-œuvre d’une sorte de dictionnaire de clefs. On va générer une très grosse quantité de données aléatoires (par exemple un fichier de 2Go), qu’on va transmettre en une seule fois lors d’une rencontre physique.
Lors de l’envoi d’un message, on va alors piocher dans ce paquet de données pour générer notre clef, chiffrer notre message puis détruire les données de la clef (évite la réutilisation et une compromission ultérieure). Une manière de procéder est par exemple de lire le fichier de données séquentiellement et de le remplir de 0 au fur et à mesure de l’utilisation. Se posent du coup deux problèmes.
D’abord, comment garantir que le(s) récepteur(s) auront bien encore toutes les données nécessaires à la génération de la clef. Le support des données aléatoires (disque dur, clef USB, feuille de papier…) peut en effet s’être dégradé avec le temps (on parle ici de plusieurs années de rétention potentielle), avec des secteurs endommagés, des trous, des bits inversés à cause du rayonnement cosmique (non, ce n’est pas une blague, une barrette de RAM de 4Go connaît un bit-flip tous les 5j à cause de ça)…
Plus grave, une situation de compétition existe sur la consommation des données. Par exemple, si plus ou moins au même moment A envoie un message à B et consomme sa plage [X, X+M] alors que B envoie à A en consommant sa plage [X, X+N], quand A et B vont recevoir leur message, leur plage [X, X+min(M,N)] va déjà être consommée et aucun des deux n’aura accès à la clef permettant le déchiffrement ! (–edit– Un anonyme m’a fait remarquer dans les commentaires qu’en plus d’empécher le déchiffrement par les personnes légitimes, on a en fait chiffré deux messages avec un même bout de clef, et donc un attaquant potentiel peut lui calculer la somme des deux messages chiffrés pour obtenir les textes en clair…)
On peut régler partiellement ces problèmes. On peut par exemple demander à avoir une clef différente pour chaque émetteur. Dans l’exemple précédent, si A utilise un cahier pour chiffrer avec B et un autre pour déchiffrer B, alors chaque va consommer sa propre première page pour le chiffrement, laissant intacte celle de déchiffrement. [...] On peut aussi imaginer ne détruire la clef qu’à l’émission et indiquer dans le message le numéro de page à utiliser pour le déchiffrement, mais alors on affaiblit la sécurité (disparition de la confidentialité persistante : si un cahier tombe, tous les messages précédemment émis sont compromis).
Blind Eagle
Blind Eagle vient de lancer un Kickstarter, et rejoint donc le cimetière des projets charlatans vous promettant le retour de l’être aimé votre vie privée. Ce projet se présente comme une solution totalement sûre puisque basée sur le chiffrement de Vernam qui est lui totalement sûr (en théorie seulement, comme montré précédemment).
Déjà pour rappel, un projet qui se présente comme un 100% sûr, absolument indécryptable (sic), infaillible, vous pouvez être sûr que c’est juste du 100% absolument bullshit. Voir à ce sujet une très bonne FAQ (malheureusement en anglais) sur comment détecter un projet bullshito-crypto.
Le projet annonce générer les clefs avec du matériel quantique (100% sécurité, audité, approuvé, certifié, fiable, whatever, sinon ce n’est pas drôle…). La qualité de l’aléatoire obtenu ne pourra de toute façon pas être contrôlée par l’utilisateur, puisque un tel système se doit d’être en écriture seule, en tout cas pour la partie de stockage des clefs (leur
Même s’ils utilisent réellement un générateur quantique, le stockage des clefs et leur transmission va être un véritable challenge pour ne pas affaiblir la sécurité de Vernam. Ils annoncent une livraison en main propre sous emballage scellé, mais je les imagine mal assurer une livraison par leur soins et donc plutôt recourir à un transporteur tiers, réduisant à néant la sécurité du système.
L’emballage scellé n’apporte rien en termes de sécurité puisqu’un scellé n’a de sens que s’il est identifiable par le récepteur (par exemple dans le cas de la cérémonie DNSSec, on s’assure que les scellés sont les mêmes que ceux de la dernière cérémonie). Une interception du paquet et un remplacement du scellé par un autre ne sera pas détectable.Dans tous les cas, Blind Eagle pourra conserver une copie des clefs générées, réduisant à nouveau la confiance en ce système à quelque chose proche de la constante de Planck. Pire, Blind Eagle ne se cache pas de les conserver pour faire fonctionner leur système en mode « solo » (voir juste après).
[...]
Un des modes de fonctionnement (« solo ») de Blind Eagle permet de s’affranchir (ie. de casser tout le système de Vernam…) de l’échange de clef en introduisant un point de centralisation. Vernam impose en effet que l’émetteur et le destinataire procèdent à un échange de clef avant la communication, ce qui est difficile à réaliser en pratique. Blind Eagle va alors plutôt faire du chiffrement entre vous et eux, puis entre eux et votre destinataire. Oh wait ! Ça ne serait pas exactement la notion de man-in-the-middle en cryptographie ?
[...] On me signale en plus qu’ils ont l’ambition d’avoir plusieurs centres de données, donc votre clef privée va au pire se retrouver un petit peu partout sur la surface du globe, au mieux être centralisée à un seul endroit avec tout plein de machines y ayant accès… [...]
Comme d’habitude en cryptographie, la sécurité n’est réellement possible qu’avec du logiciel libre, avec le code-source accessible et analysable par la communauté.
Or ici, rien n’est publié, alors que ça devrait être l’action n°1 à réaliser, avant même toute communication officielle et mise à disposition du public, afin que la communauté crypto puisse faire les remarques nécessaires et évaluer réellement la sécurité de la solution proposée.
[...]
Mais où est donc votre cryptologue ? Un « expert » (même si je déteste ce mot) en sécurité ? Un papier de recherche appuyant votre méthodologie ou vos assertions sur votre système 100% fiable ?
Non, rien de tout ça. Juste une équipe de personnes qui n’ont a priori pas touché à la sécurité au mieux depuis leur sortie d’école pour les techniques, au pire jamais de leur vie pour les autres.
Au contraire, quand certaines personnes proches du domaine de la sécurité (Geoffroy Couprie par exemple, qui leur a gentiment proposé un audit, ou moi-même) leur ont posé des questions ou soulevé des problèmes, le projet a très vite fait n’importe quoi, allant jusqu’à publier des correspondances privées, ou même à supprimer leur tweets. Pour un projet prônant la confiance, la transparence et le respect de la vie privée, on repassera.
[...]
Ne dites donc plus jamais à vos utilisateurs que vous implémentez un Vernam ou que votre technologie est prouvée comme étant théoriquement sûre, ce n’est pas vrai et donc au mieux un mensonge, au pire une pratique commerciale déloyale. GPG, TLS, HTTPS ou OTR seront en tous points plus sécurisés que votre solution, même dans leur version la plus faible, jusqu’à preuve mathématique du contraire que vous devrez apporter.
[...]
Au commencement était ECB.
Ce mode souffre du coup d’un énorme problème. Si plusieurs blocs contiennent les mêmes données, alors les blocs de sortie contiendront aussi les mêmes données ! Vous ne devez aussi jamais réutiliser la même clef pour chiffrer 2 messages différents. [...] Vous obtenez donc les données en clair XORées entre elles. Avec un peu d’analyse, on peut retrouver A et B.
Dans les commentaires :
Oui effectivement, j’aurais du préciser que l’ECB ou CBC présenté utilisait comme chiffrement de bloc un XOR, alors qu’en réalité, tu y mets ce que tu veux (AES et companie). Le XOR a l’avantage de bien exposer les problèmes d’ECB.
Reprenons :
Puis CBC apparu
On voit que le soucis de ECB vient du fait qu’on réutilise la même clef pour tous les blocs, ce qui fait qu’à entrée (et donc clef) identique, la sortie sera identique. Vu qu’on ne maîtrise pas les données d’entrée, on ne peut jouer que sur la clef de chiffrement. Il faut trouver un moyen de la faire varier pour chaque bloc, pour qu’enfin à données identiques, on obtienne bien une sortie différente. La solution retenue est simplement d’utiliser la sortie du bloc précédent, de la mixer avec la clef et d’utiliser le résultat comme nouvelle clef de bloc [...] Les petits malins en mathématiques vont s’apercevoir d’un problème pour i=0. En effet, on n’a pas encore de bloc précédent pour mixer avec la clef… Du coup, on va résoudre cette étape avec une donnée aléatoire, appeler vecteur d’initialisation (IV)
Bien que cela soit beaucoup moins critique que pour ECB, il ne faut à nouveau jamais réutiliser la même clef ou le même IV pour chiffrer 2 données. Un attaquant possédant 2 textes chiffrés par la même clef ou IV peut à nouveau en déduire des choses sur les données d’entrées.
Il reste aussi un autre problème à résoudre. Les données chiffrées restent malléables par un attaquant potentiel, le fonctionnement des chiffrements ne pouvant en effet pas détecter une modification et toute entrée chiffrée conduit obligatoirement à une donnée en clair valide. [...] Sans rien connaître du texte en clair, l’attaquant est capable de le modifier sans que cette modification ne soit décelable.
AEAD à la rescousse
Afin d’authentifier plus fortement les données chiffrées, les cryptologues ont conçu un dernier mode de chiffrement : AEAD (Authenticated Encryption with Associated Data). Dans le cadre du chiffrement, le mode AEAD le plus connu est sans conteste GCM (Galois/Counter Mode).
Je vous passe les détails techniques qui sont autrement plus complexes que les modes précédents, mais en l’utilisant, toute modification du contenu chiffré sera détecté, comblant cette lacune de CBC.
[...]
Implémentation concrète
Implémenter du chiffrement correct n’est pas si simple. La difficulté vient du fait qu’on ne doit jamais réutiliser la même clef de chiffrement ni le même IV. La clef de chiffrement ne doit en plus jamais être communiquée au public (alors que l’IV peut l’être). Et en pratique, on souhaite pouvoir déchiffrer les données en s’échangeant uniquement un mot de passe.
On peut régler tous les problèmes à partir d’une dérivation de clef PBKDF2. Partant du mot de passe, d’un sel généré aléatoirement et d’un nombre d’itérations, on peut calculer 2X bits aléatoire en calculant random = PBKDF2(password, salt, iterations, 2X) (en pratique, X = 128 ou 256). Ces 2X bits sont ensuite découpés en X bits de clef de chiffrement et X bits d’IV key, iv = random[0..X], random[X..2X]. Cette procédure garantie au passage que la clef et l’IV ne seront jamais réutilisés puisque à mots de passe identique, le sel sera différent donc la clef et l’IV aussi. On peut ensuite chiffrer proprement avec AES-X-GCM
Très intéressant feedback sur les SSII : actualisé, sans aigreur, avec des arguments fondés qui vont au-delà de la simple technique. J'en recommande la lecture.
Ce texte a plutôt pour vocation à éclairer les futurs candidats sur les conditions qu’on peut rencontrer dans une SSII. Comme beaucoup maintenant, je considère qu’une SSII est un bon tremplin pour un jeune diplômé, mais qu’il faut aussi savoir tourner la page quand on sent que ça peut déraper.
La diversité des domaines permet de monter en compétence rapidement et de toucher à plein de sujets et de technos différentes, chose qu’il est beaucoup plus difficile de réaliser sur un poste fixe dans une société standard où votre poste n’évoluera que très peu. Mais les conditions de travail n’y sont pas toujours très roses, et il faut en avoir conscience, surtout si comme moi on a des difficultés à ne pas pouvoir faire son travail correctement (au sens de l’état de l’art).
[...]
2012 . L’année charnière. La crise est passée par là (même si elle a à mon avis bon dos), les relations clients deviennent plus difficiles. Les budgets ne sont plus là, les délais non plus. Les projets continuent à rentrer mais la concurrence entre SSII fait que les prix sont tirés vers le bas, chacun voulant rentrer des projets et les volent aux autres en massacrant les prix. Les clients n’ont plus les yeux en face des trous et en tout cas des moyens totalement décalés par rapport à leurs besoins.
Les clients ont commencé à inventer de nouveaux modes de gestion de projet, avec des notions de « POC (preuve de concept) » (comprendre du code kleenex que si ça marche on garde, si ça ne marche pas on jette, et que dans les 2 cas, on cherche à ne pas payer le fournisseur quand même), de « challenge » (comprendre qu’on sait que c’est infaisable ce qu’on demande mais que tu pourrais quand même faire un effort quoi).
Les méthodes agiles ont aussi eu le malheur de devenir le buzz-word du moment, et du coup sont apparues dans les plaquettes et propositions commerciales. Sauf qu’elles sont devenues la justification pour faire n’importe quoi, comme ne plus du tout faire de spécification, supprimer les tests unitaires ou la revue de code, ou encore livrer n’importe quoi très vite.
Les développeurs se retrouvent du coup avec des projets sous-vendus (50 à 100 jours max) et une qualité technique massacrée. L’intégration continue a disparu des écrans radars, tout comme la revue de code. Les équipes ne sont plus formées, le niveau technique global chute drastiquement, les « têtes » qui tenaient les projets à bouts de bras partent. Les chefs de projet senior sont remplacés par des juniors qui n’ont de chef ni la formation ni la volonté ni le charisme nécessaire pour tenir tête aux commerciaux et à la direction. Il n’y a même plus vraiment d’équipe projet, ou alors se résumant à un développeur débutant encadré par un développeur à peine plus senior propulsé chef de projet, tout étant dorénavant géré par les commerciaux en pratique.
2015 . Le coup de grâce. Les buzz-words sont de retour. « Big-data », « cloud », « IoT », « cyber-sécurité ». Plus aucun appel d’offre ne sort sans en contenir plusieurs sinon tous. On fait n’importe quoi, et cette fois non seulement d’un point de vue commercial et technique, mais aussi, et c’est encore plus grave, d’un point de vue éthique. Les projets qui dépassent les 10 jours-hommes se comptent sur les doigts d’une main et ceux avec plus de 2 personnes affectées dessus aussi.
[...]
Vous l’aurez compris, je ne me sens dorénavant plus à ma place. Je n’ai plus le temps ni les ressources pour faire correctement ce que j’estime être mon travail.
Techniquement, je n’ai plus le temps de faire de revue de code, de former les nouveaux arrivants ou de mettre en place les outils pour faire du code de qualité, parce que les commerciaux gardent la main sur l’ensemble des manettes et ont transformé les ingénieurs en techniciens voire en ouvriers. Pas étonnant que les Chinois ou les Indiens grignotent de plus en plus le marché, ils coûtent 10× moins chers pour une médiocrité équivalente.
Éthiquement, les projets réalisés sont de plus en plus en contradiction avec mes idéaux, avec des objets connectés où la sécurité est bien le dernier des soucis et où la vie privée n’existe plus, même en option. Parce que le discours commercial ambiant est en contradiction totale avec les nécessités techniques, surtout dans une ère post-Snowden.
Humainement parlant, les délais sont intenables, le stress élevé, la pression aussi. Les moyens ne sont plus suffisants pour travailler, j’en arrive même à devoir héberger des projets sur mes propres machines parce que ceux qui devaient faire cette partie ne veulent/peuvent/savent pas le faire, faute de moyens et de temps. Parce que la rentabilité ne peut être maintenue qu’en sur-exploitant le personnel.
J’ai déjà plusieurs fois alerté ma hiérarchie sur les problèmes rencontrés, ça a conduit au mieux à tenter de me retourner les neurones à coups de justification bullshitto-marketo-commercialo-financier, en général à aucune action sérieuse qui suit et au pire à des prises de bec de plus en plus violente.
[...]
Le travail en SSII est aussi un coup de roulette russe permanent, une épée de Damoclès. Si vous avez la chance de réussir à rester plus ou moins sédentaire au sein du bureau d’études pour réaliser les projets forfaitisés, vous pouvez contrôler a minima l’impact de votre vie professionnelle sur votre vie personnelle.
Mais si vous avez le malheur d’être envoyé en mission, parfois à l’autre bout de l’Île-de-France, vous pouvez être baladé tous les X temps (X variant de 3 mois à 10 ans) d’un client à l’autre, d’un lieu à l’autre, dans des conditions qui en plus sont théoriquement illégales au vu du Code du Travail (délit de marchandage et prêt de main d’œuvre illicite).
Si vous êtes parmi les chanceux du premier groupe, vous n’avez en plus pas intérêt à devenir le petit caillou dans la chaussure du service, sinon le second groupe vous tend rapidement les bras. Comme on dit, en SSII, le licenciement n’existe pas, on appelle ça « partir en mission »… :)
Dans mon cas, mon dernier départ en mission a aussi été synonyme du sacrifice de ma vie associative et collaborative. Il est en effet bien difficile de trouver du temps libre et de la motivation pour travailler sur des projets personnels quand vous faites 8h-20h « effectif » tous les jours, dont 3h de transport dans les bouchons (non comptés dans les temps de travail, merci la SYNTEC !). C’est à mon avis ce sacrifice qui a accéléré ma décision de partir.
Le dernier Cash Investigation sur la santé et l’agroalimentaire a confirmé la recette qui a fait le succès de l’émission : un angle polémique contre une industrie qui pèse 170 milliards de chiffre d’affaires en France, avec un montage qui ne peut que mettre en difficulté les dirigeants et/ou communicants interrogés par Elise Lucet. Quand on sait que les français ont de moins en moins confiance dans les grands groupes, cette recette ne peut que prendre … et force d’ailleurs les entreprises mises en cause à jouer le jeu de l’émission, voir à ouvrir leurs portes, comme l’a fait Fleury Michon – pour le coup très peu mise en cause, une façon d’inciter à la transparence ?
[...]
[...] Ici néanmoins, si certains tweets / articles ont critiqué l’émission, on constate globalement que les différentes communautés, au-delà du soutien à l’émission et à sa présentatrice, correspondent à différents protagonistes du reportage. Il y a ceux qui en ont tiré parti, et ceux qui ont dû composer avec des réactions hostiles [...]
Pour une fois, le sujet qui fait le plus réagir les twittos correspondait à la dernière partie de l’émission, à savoir les stratégies de lobbying autour de l’étiquetage alimentaire. [...]
Si cette initiative a connu un succès mitigé (214 mentions du hashtag #askania contre 757 pour #ania), elle a atteint son premier objectif : détourner l’attention des twittos des entreprises mises en cause, pour s’attaquer au lobby en tant que tel. L’Ania a ainsi reçu 1300 mentions de plus que la société Herta France. Hors aucun risque de voir la marque Ania en faisant ses courses ! [...]
Soyons réalistes : le fonctionnement de l’émission fait que les industriels et politiques publics mis en cause n’ont d’autre option que d’avouer et assumer les éléments pour lesquels ils sont mis en cause. Thierry Mariani, dans la même émission où Rachida Dati avait été épinglée, avait pour sa part assumé et même revendiqué ses liens avec l’Azerbaïdjan, tout comme la sénatrice Nathalie Goulet. Résultat des courses ? Très peu de commentaires négatifs. De la même façon, le représentant européen du lobby des pesticides n’avait pas nié leur dangerosité pour la santé, et avait adroitement renvoyé la balle aux politiques pour l’évolution de la réglementation.
Car après tout, dans la limite bien évidemment du respect de la loi et des mesures de précautions liées à l’activité de chaque entreprise, ce n’est pas au lobbyiste de rendre des comptes, mais bien aux élus : c’est pour cela que ce sont eux qui se font en général le plus étriller. [...]
MON CONSEIL POUR LES GENS QUI SOUHAITENT SORTIR DU LOT : Prendre l'A20 direction Toulouse
:DDDD
(Lot = département).
La meilleure façon de protéger les données contre la surveillance, c'est de ne pas avoir de données. Ce principe de base de la protection de la vie privée est souvent oublié. C'est pourtant un des deux piliers de la confidentialité, avec la protection technique des données. Le DNS a pendant longtemps transmis trop de données, et ce RFC décrit une technique qui va limiter les fuites, la QNAME minimisation, ou « réduction de la question posée ». [...]
Si vous regardez les vidéos sur le fonctionnement du DNS (comme celle-ci) ou lisez les textes expliquant « le DNS pour les nuls », vous y trouverez souvent une fausse explication de la résolution DNS, où les serveurs faisant autorité ne reçoivent que la question strictement nécessaire. Ainsi, dans la vidéo citée ci-dessus, le serveur de la racine reçoit une question où ne figure que le TLD. Mais la réalité du DNS, aujourd'hui, est tout autre : les serveurs faisant autorité reçoivent la totalité de question originale. Ainsi, si vous visitez www.alcooliques-anonymes.fr, la racine voit que vous vous intéressez à l'alcoolisme, alors que ce n'était nullement nécessaire pour son travail (puisqu'elle ne connait que les TLD). Si votre logiciel BitTorrent demande _bittorrent-tracker._tcp.domain.example, les serveurs faisant autorité pour .example sauront que vous faites du BitTorrent, alors qu'ils ne connaissaient que les domaines situés immédiatement sous .example. [...]
Dans le dernier cas, pour que la résolution se passe bien, il aurait suffit de demander à la racine « quels sont les serveurs de noms de .example » et à ces serveurs « quels sont les serveurs de noms de domain.example ». C'est le principe de base de la QNAME minimisation.
Bien sûr, on pourrait chiffrer le trafic DNS (et le groupe de travail DPRIVE de l'IETF travaille précisément sur ce sujet). Mais cela ne protège que contre un tiers écoutant le réseau : les serveurs faisant autorité verraient quand même les données et pourraient en faire ce qu'ils veulent. [...] Lorsqu'on parle de vie privée, pas mal d'informaticiens réagissent en criant « cryptographie ! » alors que celle-ci ne protège pas contre tout et notamment pas contre le serveur à qui on parle.
Et pourquoi est-ce que les résolveurs DNS envoyaient la question complète (full QNAME où QNAME veut dire Query NAME) ? Uniquement parce que la protection de la vie privée n'était pas tellement prise en compte à l'époque ? Pas uniquement : il y avait quelques raisons techniques spécifiques à l'époque (le RFC les détaille mais, surtout, il ne faut pas oublier que toutes les décisions concernant le DNS n'ont pas forcément été mûrement réfléchies).
Pour les personnes curieuses comme moi, cette raison est :
Sending the full QNAME to the authoritative name server is a tradition, not a protocol requirement. In a conversation with the author in January 2015, Paul Mockapetris explained that this tradition comes from a desire to optimise the number of requests, when the same name server is authoritative for many zones in a given name (something that was more common in the old days, where the same name servers served .com and the root) or when the same name server is both recursive and authoritative (something that is strongly discouraged now). Whatever the merits of this choice at this time, the DNS is quite different now.
On retrouve toujours ce principe d'optimisation dans la gestion des glue record par Verisign, voir http://www.guiguishow.info/2013/09/11/dns-glue-records-netcomorg-et-error-2003/ .
Revenons au billet de blog :
La section 2 décrit la QNAME minimisation. Elle est mise en œuvre dans le résolveur DNS (aucun changement n'est fait dans le serveur faisant autorité, la QNAME minimisation ne change pas le protocole DNS). [...]
Les experts en DNS ont noté un problème : il n'y a pas forcément un jeu de serveurs faisant autorité pour chaque composant. Si je prends www.st-cyr.terre.defense.gouv.fr, il n'y a par exemple aujourd'hui pas de serveurs de noms pour gouv.fr, ce sont ceux de .fr. En termes techniques, il n'y a pas de limite de zone (zone cut, cf. RFC 2181, section 6) à chaque composant. Dans le cas de ce dernier nom, il y a une limite de zone entre la racine et .fr, une autre entre fr et defense.gouv.fr mais pas entre .fr et gouv.fr. Un résolveur qui veut faire de la QNAME minimisation doit donc tenir compte des limites de zone. S'il valide avec DNSSEC, pas de problème, il les connait déjà, car leur connaissance est nécessaire au bon fonctionnement de DNSSEC. Sinon, il doit les trouver tout seul, par exemple avec l'algorithme de l'annexe A.
La QNAME minimisation ne change pas le protocole DNS. Elle ne pose donc pas de problème avec les vieux serveurs. En théorie car, en pratique, il existe pas mal de serveurs incorrects qui ne suivent pas les règles et poseront quelques problèmes (section 3 du RFC, voir aussi un intéressant exposé et un « storify » d'une discussion.) Le problème n'est en général pas dû aux serveurs en logiciel libre sérieux qui forment l'essentiel de l'infrastructure du DNS (BIND, NSD, Knot...) mais plutôt aux appliances boguées que certains s'obstinent à placer devant des serveurs qui marcheraient parfaitement autrement. C'est par exemple le cas de certains répartiteurs de charge qui répondent aux requêtes pour certains QTYPE mais qui échouent lorsque le QTYPE vaut NS (répondant, par exemple REFUSED). Pire, certains ne répondent pas du tout, comme ceux de www.ratp.fr. Il s'agit bien d'une bogue, et qui cause plein de problèmes, pas seulement à la QNAME minimisation.
Un autre problème est celui des serveurs bogués (comme djbns) qui ne réagissent pas correctement aux ENT. Qu'est-ce qu'un ENT ? Un Empty Non-Terminal (terme décrit dans le RFC 7719, section 6) est un domaine qui n'a pas d'enregistrements DNS mais qui a des sous-domaines qui en ont. gouv.fr, cité plus haut, est un ENT mais ceux-ci sont particulièrement fréquents sous ip6.arpa. Normalement, la bonne réponse à un ENT est le code NOERROR, sans enregistrements (ce qu'on appelle parfois NODATA, bien que ce dernier ne soit pas un code de retour explicite dans le DNS). Mais certains serveurs boguées répondent à la place NXDOMAIN, code qui indique normalement que le domaine n'existe pas (ce qui est faux). [...] Le résolveur qui se fierait à ce NXDOMAIN croirait alors que sa recherche est terminée et que le nom demandé n'existe pas. C'est pour cela que les mises en œuvre existantes de la QNAME minimisation ont des comportements spécifiques pour les réponses NXDOMAIN, pour contourner cette bogue. [...] Pour se protéger contre les serveurs bogués dont je parlais plus haut (ceux qui répondent NXDOMAIN en cas d'ENT), Knot réessaie avec le QNAME complet lorsqu'il reçoit un NXDOMAIN (les deux dernières lignes). Mauvais pour la vie privée mais sans doute nécessaire aujourd'hui. [...]
Sauf erreur de ma part, le code de retour à utiliser pour un ENT est aussi peu normalisé que l'est l'envoi du QNAME complet par le récursif-cache…
Et les performances ? Elles seront parfois meilleures et parfois pires, avec la QNAME minimisation. Meilleures car le résolveur enverra moins de requêtes aux serveurs faisant autorité. Aujourd'hui, si un résolveur reçoit trois requêtes successives, pour A.example, B.example et C.example, les trois requêtes seront envoyées aux serveurs racine, et donneront toutes les trois un NXDOMAIN (puisque .example n'est pas délégué). Avec la QNAME minimisation, seule la première requête déclenchera une demande à la racine, pour le nom example. Cela suffira au résolveur.
Par contre, les performances peuvent se dégrader dans certains cas. Si un nom comporte beaucoup de composants (c'est fréquent dans ip6.arpa), la recherche initiale des limites de zone nécessitera bien plus de paquets. Ceci dit, cela ne durera que le temps de remplir le cache, tout ira plus vite après, une fois que le résolveur connaitra les limites de zone.
À noter que Verisign a un brevet dont ils prétendent qu'il couvre la QNAME minimisation. Ils promettent une licence (attention, le diable est dans les détails) gratuite et non-discriminatoire. Ces brevets ont bien perturbé la réflexion du groupe de travail. Personnellement, je pense que ce brevet n'a pas de sens : l'idée de QNAME minimisation est évidente et avait déjà été discuté plusieurs fois, mais sans laisser de trace écrite précise, ce qui permet à Verisign de prétendre qu'il n'y a pas de prior art. Ce n'est sans doute pas un hasard si les deux premières mises en œuvre de la QNAME minimisation ont été faites en Europe, où il n'y a (normalement) pas de brevet logiciel. [...]
LOL… … … C'est tellement désolant.
La QNAME minimisation est mise en œuvre dans Unbound et dans le résolveur Knot [...]
Pas encore dans BIND mais qui ose encore utiliser BIND en tant que récursif-cache ?!
Unbound a la QNAME minimisation depuis la version 1.5.7 (sortie en décembre 2015, cf. l'historique de ce travail). Ce n'est pas activé par défaut, il faut mettre dans la configuration :
server:
qname-minimisation: yesPour vérifier si votre résolveur met bien en œuvre la QNAME minimisation, vous pouvez tester avec le domaine qnamemintest.internet.nl. Ici, le résolveur est un Unbound récent :
% dig +nodnssec +short TXT qnamemintest.internet.nl
Bon, on n'a pas encore la bonne version de Unbound dans Debian stable (à la prochaine stable, stretch). En attendant, on peut tester en utilisant les backports. Évidemment, ce n'est pas pour mettre en production vu que l'équipe de la sécurité de Debian ne s'occupe pas des backports. Ça fait depuis début 2016 que j'avais envie de tester, c'est désormais chose faite. C'est plutôt amusant parce que, comme le fait remarquer Stéphane, le comportement d'un récursif utilisant la qname minimisation est celui qui est décrit, à tort, dans bon nombre de ressources documentaires pour débutant-e-s (genre Wikipedia fr :- ).
Ça date, je n'ai pas tout lu, je garde juste une information que je trouve méga intéressante :
Nous gardons en mémoire les anciennes erreurs tant du législateur national que du régulateur. Par exemple sur la redevance due par les opérateurs. Les textes européens indiquent bien, depuis le début de l’ouverture du marché des télécoms, que les États membres peuvent demander une redevance aux opérateurs pour financer l’autorité de régulation, et que cette redevance devait être équitable. Le législateur français avait traduit ça en « 20 k€ pour tout le monde, 80 k€ pour l’opérateur historique ». Tous les micro-opérateurs qui existaient avant l’ART, dont FDN, ont donc eu ce réflexe de survie : ne pas se déclarer, pour ne pas mourir. Et l’ART de poursuivre les opérateurs qui tombaient dans son radar, comme ce fut le cas de NetPratique par exemple.
Pour moi, cela montre qu'il ne suffit pas de faire, de "make", de monter une initiative et de la faire vivre. Il faut aussi exister au niveau politique et agir auprès des autorités qui régissent le secteur dans lequel l'initiative évolue. Sans ça, l'initiative se fera bouffer, se fera marcher dessus sans complaisance. En rapport avec http://shaarli.guiguishow.info/?xo1oaQ .