5504 links
  • GuiGui's Show

  • Home
  • Login
  • RSS Feed
  • Tag cloud
  • Picture wall
  • Daily
Links per page: 20 50 100
◄Older
page 32 / 99
Newer►
1965 results tagged nomarkdown x
  • Pure CSS browser detection - Le Hollandais Volant

    « Et même sans JS, il reste possible de le détecter en CSS : certains éléments (-moz-, -webkit-…) par exemple, ne sont exécutés que par certains navigateurs. Il suffit qu’on mette une URL dans la valeur de cet élément CSS — URL différente pour chaque navigateur — et le serveur peut savoir quel URL navigateur est utilisé.

    Selon l’évolution des spéc CSS, il est même possible de trouver une fourchette de la version utilisée. »

    Pour le PoC, c'est par ici : http://lehollandaisvolant.net/tout/examples/CSS-detection/
    Mon Aug 10 10:52:28 2015 - permalink -
    - http://lehollandaisvolant.net/?mode=links&id=20150809152306
    nomarkdown
  • xkcd: I in Team

    :)
    Mon Aug 10 10:27:26 2015 - permalink -
    - https://xkcd.com/1562/
    nomarkdown
  • Bidirectional Forwarding Detection - Wikipedia, the free encyclopedia

    Intéressant : un protocole qui floode (10 ms entre chaque "keepalive" par défaut avec BIRD) un ou plusieurs liens pour détecter rapidement une panne sur le lien (au sens logique, pas physique, multihop tout ça) entre deux routeurs, beaucoup plus rapidement que les procotocoles de routage : OSPF = environ 40 secondes ; BGP = 180 secondes ; BFD = < 1 seconde.

    On utilise BFD en le raccrochant à un protocole de routage (BGP, OSPF,...). L'idée est de converger plus rapidement en cas de panne. Pourquoi ne pas réduire agresivement les timers des protocoles de routage au lieu d'utiliser un nouveau protocole ?
       * Car tous les protocoles de routage ne peuvent pas avoir des timers aussi agresifs que ce que permet BFD. Exemple : l'hold timer minimal en BGP est de 20 secondes ;

       * Séparation protocole de routage du protocole de vérification de la connectivité. Pas les mêmes objectifs, pas le même protocole, chacun son taff (ne faire qu'une chose mais le faire bien, tout ça, tout ça). Généricité. Le prochain protocole de routage n'aura pas à réimplémenter la détection d'erreur sur la connexion ;

       * BFD fonctionne partout où y'a de l'IP, même sur des protocoles qui n'ont pas la notion de détection de fail de la connectivité (Ethernet, MPLS, circuits virtuels,...) ;

       * Protocole léger, avec un état minimaliste et une charge utile légère contrairement aux protocoles de routage. La réduction des timers OSPF/BGP/autre nécessite de mettre en branle tout l'algo (sauf le recalcule des routes) comme maintenir les états... « The detection of network failures consumes most of the convergence time budget in typical designs » Russ White and Mosaddaq Turabi (both CCIE, CCDE and CCAr).

    Pas de découverte automatique des voisins (OSPFv3 does), il faut config chaque routeur a la main.

    Plusieurs modes sont disponibles :
       * asynchrone (chaque pair envoie un message BFD Control à intervalle régulier, le lien est déclaré mort au bout d'un délai sans avoir rien reçu (500 ms sous BIRD par défaut)) ;

       * On demand (on établit la session puis on envoie seulement quand on veut s'assurer que le pair est en vie) ;

       * En complément de ces deux modes (ce n'est pas un mode supplémentaire !), on a le mode echo qui permet de vérifier que le routeur d'en face est apte à faire du transfert de paquets (ça détecte des cas de pannes en plus, quoi) en vérifiant sa capacité à nous retourner le paquet qu'on lui envoie.

    Pour le protocole et les ports : UDP/3784 (BFD control) et UDP/3785 (BFD echo) dans le mode connexion directe, UDP/4784 (BFD control) et UDP/4785 (BFD echo) pour le mode multihop.


    BIRD dispose d'une implémentation partielle de ce protocole (http://bird.network.cz/?get_doc&f=bird-6.html#ss6.1)

    Côté configuration :
    protocol bfd bfd_test {
          neighbor 198.18.0.2 local 198.18.0.1;
    }

    Côté CLI :
    bfd_test BFD      master   up     16:04:28    
     Preference:     0
     Input filter:   ACCEPT
     Output filter:  REJECT
     Routes:         0 imported, 0 exported, 0 preferred
     Route change stats:     received   rejected   filtered    ignored   accepted
       Import updates:              0          0          0          0          0
       Import withdraws:            0          0        ---          0          0
       Export updates:              0          0          0        ---          0
       Export withdraws:            0        ---        ---        ---          0

    => Oui, la CLI est vraiment pauvre en détail... Notamment, elle indique toujours « up » même quand ce n'est pas le cas... Mais ça va mieux avec la bonne commande :
    sh bfd sessions
    bfd_test:
    IP address                Interface  State      Since       Interval  Timeout
    169.16.0.2                gre        Down       18:11:17      1.000    0.000

    Coté réseau (tshark) :
    BFD Control message
       001. .... = Protocol Version: 1
       ...0 0000 = Diagnostic Code: No Diagnostic (0x00)
       11.. .... = Session State: Up (0x03)
       Message Flags: 0x00
           0... .. = Poll: Not set
           .0.. .. = Final: Not set
           ..0. .. = Control Plane Independent: Not set
           ...0 .. = Authentication Present: Not set
           .... 0. = Demand: Not set
           .... .0 = Multipoint: Not set
       Detect Time Multiplier: 5 (= 500 ms Detection time)
       Message Length: 24 bytes
       My Discriminator: 0x1305f4bb
       Your Discriminator: 0x063847cd
       Desired Min TX Interval:  100 ms (100000 us)
       Required Min RX Interval:   10 ms (10000 us)
       Required Min Echo Interval:    0 ms (0 us)


    J'ai dit plus haut que BFD s'utilise en lien avec un protocole de routage. Faisons ça :
    protocol bfd bfd_test {
          # options spécifiques
    }

    protocol bgp bgp_test {
          # config BGP classique
          bfd yes;
    }


    Quand le lien tombe, de manière quasi instantanée (< 1 seconde), on lit :
    bgp_test BGP      master   start  16:11:21    Idle          Error: BFD session down


    La remontée BGP est beaucoup plus longue, même si BFD revient très vite (en quelques secondes), puisqu'il faut attendre l'expiration de l'error_wait (240 secondes par défaut) sur les deux routeurs.

    S'il s'agit d'un lien iBGP direct, ne pas oublier la directive de configuration « direct » de BIRD pour le lui indiquer sinon il enverra des paquets BFD Control multihop (et ça marche hein mais c'pas propre).
    Fri Aug 7 17:36:29 2015 - permalink -
    - https://en.wikipedia.org/wiki/Bidirectional_Forwarding_Detection
    nomarkdown
  • INFO OBS. Pourquoi les écoutes de la DGSE sont illégales depuis sept ans - L'Obs

    « Au quartier général de la DGSE, boulevard Mortier à Paris, la décision du Conseil constitutionnel a eu, jeudi, l’effet d’une bombe. En déclarant "contraire à la Constitution" l’article de la loi sur le renseignement pudiquement appelé "mesures de surveillance internationale", les Sages ont tout simplement rendu illégales la quasi totalité des écoutes réalisées par le service secret français depuis 2008.

    [...]

    Comme l’Obs le révélait dans son édition du 2 juillet, Nicolas Sarkozy a, en janvier 2008, autorisé la DGSE à lancer un vaste plan d’espionnage des communications transitant par les câbles sous-marins (alors que jusque-là le service n’écoutait que les satellites). Pour ce faire, le service français d’espionnage a investi des centaines de millions d’euros dans la construction de stations clandestines d’interception à Marseille, Penmarch ou Saint-Valery-en-Caux, dans l’achat de plusieurs supercalculateurs Cray installés dans les sous-sols du boulevard Mortier et dans l’embauche de centaines d’ingénieurs. Le tout avec l’aide d’Orange, l’opérateur des câbles, et d’Alcatel-Lucent. Comme nous le révélions également, François Hollande a poursuivi cet effort en donnant son feu vert à un nouveau plan de "branchement" de câbles.

    [...]

    En gros, selon une loi votée dix-sept ans auparavant, en 1991, la DGSE devait demander l’aval d’une commission indépendante, la CNCIS, pour chaque écoute opérée sur un câble. Mais, à l’époque, le législateur n’avait en tête que les bons vieux téléphones fixes. Entre-temps, on a déposé au fond des mers des centaines de câbles en fibres optiques par lesquels transitent des millions de communications, d’emails, de SMS… Un flux gigantesque que la DGSE n’entendait pas espionner au compte-gouttes.

    [...]

    Pour satisfaire l’appétit du service secret, l’équipe Sarkozy a décidé de contourner la loi de 1991, sans le dire. Comment ? En adoptant un décret secret. Et en avril 2008, François Fillon signe en catimini un texte dont nous avons révélé l’existence et les grandes lignes dans le même numéro du 2 juillet. La disposition principale de ce décret "secret défense" stipule que, pour le câble, la CNCIS ne sera pas consultée écoute par écoute, mais seulement pays par pays. D’après nos informations, elle a, ces dernières années, donné son feu pour une quarantaine de pays, y compris les Etats-Unis.

    Or, par leur décision de jeudi, les Sages déclarent qu’un tel décret secret est anticonstitutionnel. Si bien que jusqu’à l’adoption d’un nouveau texte de loi qui agréera au Conseil, c’est la loi précédente, celle de 1991, qui s’applique. Autrement dit, depuis jeudi, la DGSE n’a pas le droit d’intercepter massivement les communications qui transitent par les câbles (c'est-à-dire plus de 90% d’entre elles) ; elle doit demander à Matignon et la CNCIS (rebaptisée CNCTR) l’autorisation pour chaque écoute réalisée sur un câble qui arrive en France. Le fait-elle ? Impossible de le savoir.

    [...]

    Ironie de l’histoire : c’est justement pour éviter un tel scénario-catastrophe que la DGSE a poussé le gouvernement Valls à légiférer sur les écoutes internationales et profiter de l’effet 11 janvier pour "légaliser" ses branchements de câbles. Le 24 mars, le patron du service, Bernard Bajolet, expliquait aux députés pourquoi, selon lui, il était urgent d’adopter une telle loi. Il faut, avait-il dit candidement, "combler le fossé qui s’est progressivement élargi entre les dispositions légales et l’évolution des techniques". Il ajoutait :
    Nous sentions la nécessité de consolider le cadre [juridique], surtout depuis l’affaire Snowden."

    Autrement dit, il redoutait publiquement qu’un lanceur d’alerte révèle à quel point les fondements juridiques des écoutes pratiquées par la DGSE étaient contestables. Ce que les Sages viennent de faire !

    Que va-il se passer dans les mois qui viennent ? Il y a fort à parier que, dans le cadre de la lutte antiterroriste, l’Elysée et Matignon vont tout faire pour que la DGSE continue à "écouter" les câbles sous-marins. »

    Via https://www.laquadrature.net/fr/nouvelobs-pourquoi-les-ecoutes-de-la-dgse-sont-illegales-depuis-sept-ans
    Fri Aug 7 13:16:56 2015 - permalink -
    - http://tempsreel.nouvelobs.com/societe/20150726.OBS3205/info-obs-pourquoi-les-ecoutes-de-la-dgse-sont-illegales-depuis-sept-ans.html
    nomarkdown
  • Loi Renseignement : inquiets, des avocats internationaux interpellent Manuel Valls - Next INpact

    « Dans sa décision du 23 juillet 2015, le Conseil constitutionnel a censuré l’une des dispositions phares de la loi sur le renseignement. C’est celle qui concerne les mesures de surveillance internationale, c’est-à-dire les communications émises ou reçues depuis l’étranger.

    Pour mémoire, à cette échelle et contrairement aux mesures franco-françaises, les services auraient pu collecter des données sans avis préalable de l’organe de contrôle, la Commission nationale de contrôle des techniques de renseignement (CNCTR). Le Conseil constitutionnel a cependant censuré cette disposition, reprochant au législateur de ne pas avoir prévu « les conditions d'exploitation, de conservation et de destruction des renseignements collectés », ni défini la mise en œuvre du contrôle a posteriori de la CNCTR.

    [...]

    Sa missive prend appui sur un récent article du Nouvel Obs intitulé « pourquoi les écoutes de la DGSE sont illégales depuis sept ans ». Selon nos confrères, la censure du Conseil constitutionnel contamine un décret signé en avril 2008. Secret, ce texte n'a pas été publié au Journal officiel. « Par leur décision de jeudi, les Sages déclarent qu’un tel décret secret est anticonstitutionnel, affirme rapidement l’Obs. Si bien que jusqu’à l’adoption d’un nouveau texte de loi qui agréera au Conseil, c’est la loi précédente, celle de 1991, qui s’applique. Autrement dit, depuis jeudi, la DGSE n’a pas le droit d’intercepter massivement les communications qui transitent par les câbles (c'est-à-dire plus de 90 % d’entre elles) ; elle doit demander à Matignon et la CNCIS (rebaptisée CNCTR) l’autorisation pour chaque écoute réalisée sur un câble qui arrive en France. »

    [...]

    L’inquiétude née de cette loi est d’autant plus vive que la censure ouvre un important flou sur ce que peut ou ne peut désormais faire la Direction générale de la sécurité extérieure (DGSE). La loi sur le renseignement prévoit en effet toujours toute une série d’autres articles donnant pleine compétence aux services d’agir à l’échelle mondiale.

    Par exemple, le nouvel article L 821-1 du Code de la sécurité intérieure dit que seule « la mise en œuvre sur le territoire national des techniques de recueil de renseignements (…) est soumise à autorisation préalable du Premier ministre, délivrée après avis de la Commission nationale de contrôle des techniques de renseignement ». La loi n'encadre donc plus rien au delà du territoire national. De même, l’article L 811-2 du même code prévient que les services spécialisés de renseignement « ont pour missions, en France et à l'étranger, la recherche, la collecte, l'exploitation et la mise à disposition du gouvernement des renseignements relatifs aux enjeux géopolitiques et stratégiques ainsi qu'aux menaces et aux risques susceptibles d'affecter la vie de la Nation ». Pire, l’article 18 de la loi dépénalise à l’international les actes de piratage informatique dont seraient coupables ces mêmes services, signe d'un joli feu vert... »
    Fri Aug 7 13:11:42 2015 - permalink -
    - http://www.nextinpact.com/news/96106-loi-renseignement-inquiets-avocats-internationaux-interpellent-manuel-valls.htm
    nomarkdown
  • Le mouvement OpenPower fête ses 2 ans… en toute discrétion

    « L’objectif du mouvement OpenPower est simple : dupliquer le succès des compatibles PC, centrés sur des puces x86, dans le monde des serveurs, mais en se basant cette fois-ci sur des puces Power. IBM croit au succès de cette approche. À un point tel que la société a purement et simplement abandonné le marché des serveurs x86 pour se concentrer uniquement sur ses offres Power.

    [...]

    Reste que ses partenaires se montrent pour leur part plus frileux, les produits alternatifs à ceux de Big Blue tardant à arriver sur le marché. Et pourtant, le mouvement OpenPower adopte une approche très intéressante. Les serveurs s’axent autour de Linux, avec un BIOS Open Source et un design ‘clonable’, de la carte mère en allant jusqu’au processeur. Nous sommes ici en plein dans la mouvance Open Hardware.

    [...]

    À ce jour, 147 sociétés sont membres de la Fondation OpenPower, indique Brad McCredie. Plus de 1600 applications Linux fonctionnent sur cette plate-forme.

    [...]

    Du côté du hardware, les clones des puces d’IBM restent encore à l’état de projet. C’est donc du côté des serveurs qu’il faut aller chercher les premiers produits. Un seul acteur travaille activement – quoique lentement – à la mise au point de telles offres : Tyan. »
    Fri Aug 7 10:50:32 2015 - permalink -
    - http://www.silicon.fr/mouvement-openpower-fete-deux-ans-toute-discretion-123544.html
    nomarkdown
  • Affaire n° 2015-478 QPC [ recours de FDN/FFDN/LQDN contre le décret d'application de l'article 20 de la LPM]

    L'audience publique devant le Conseil constitutionnel concernant le recours de FDN/FFDN/LQDN. C'est intéressant à regarder pour comprendre le déroulement de telles auditions mais ça s'arrête là : chaque partie ne fait que reprendre les arguments développés au cours de la procédure. Rien de neuf à attendre, donc.

    Quelques points intéressants :
        * Le représentant du gouvernement dit « aucune disposition ne permet à ces personnes [NDLR : les opérateurs] d'enregistrer le contenu des communications ». Or, le CPCE interdit expressément de taper dans le contenu. "Légère" nuance que le gouvernement méconnaît. :/

        * La différence faite entre hébergeurs/FSI et opérateurs tient si l'on suit les textes français mais pas les textes européens : les hébergeurs/FSI y sont assimilés aux opérateurs.

        * Les infos de contexte (date/heure, fréquence, durée,...) des communications avec mon avocat ne sont pas dignes d'être protégées alors qu'elles le sont AFK ! Les écoutes de Sarko et de son avocat qui avaient tant émues sont loin derrière, il faut croire. :(


    Les deux points évoqués par P. Spinosi sont bien les deux seuls qui ont été portés au Conseil par les assos requérantes, voir : http://www.nextinpact.com/news/95335-qpc-sur-donnees-connexion-interview-benjamin-bayart.htm et http://blog.fdn.fr/?post/2015/04/15/Depot-d-une-QPC-sur-l-article-20-de-la-LPM.

    Pour les gens qui pensent que c'est faible comme argumentaire :
         * Concernant l'argument « les termes sont mal définis » : un exemple tout bête, le « informations et documents » est crucial puisqu'il définit ce que les autorités peuvent réclamer. Si c'est trop vaste, les opérateurs sont livrés à une interprétation maximaliste future donc malsaine. Si c'est bien défini, ils savent ce qu'on doit collecter mais oui, ils seront tenus de le faire. Toute la loi renseignement est bâtie sur ça. Faut comprendre que là, on est dans une démarche de limitation de la casse, pas du débat de fond sur la construction de la société à l'heure du numérique : il est trop tard pour ça.

        * Pour l'argument concernant l'accès administratif portant sur des professions qui ont besoin du secret (journaliste, avocat) et pas le citoyen lambda :  C'est un début de remise en cause de l'accès administratif aux données de connexion et des acteurs qui peuvent y recourir. Je trouve ça dommage aussi mais arrivé à ce stade (décret d'application), ça veut dire qu'on a échoué au Parlement et donc on joue avec ce qu'on peut. Traduction : je pense qu'il était trop tard pour jouer sur le principe de "c'pas cool de recueillir tout sur tout le monde". ÉDIT DU 23/11/2015 : De plus, il s'agit de décisions de la CEDH. FIN DE L'ÉDIT.


    Pour les personnes qui pensent que les réquérantes ne vont pas assez loin dans le dézingage de la conservation des / de l'accès aux données de connexion :

    FFDN/LQDN/FDN attaquent la rétention des données de connexion dans une autre procédure en cours. En effet, la data retention a été rendue caduque en UE par un arrêt de la CJUE d'avril 2014 (Digital Rights Ireland) qui casse la directive 200624CE en argumentant que conserver systématiquement toutes les données sur tout le monde pendant X années, ce n'est pas proportionné. Durant de conservation doivent être courtes. Les transpositions directes de cette directive tombent automatiquement. C'est déjà le cas dans plusieurs États de l'EU. Sauf que la LCEN est antérieure et intouchable (2 mois pour contester des décrets d'application). Elle est conforme au droit européen sus-cité mais n'est pas une transposition donc la procédure est plus longue.

    Un décret de 2011 (<http://www.legifrance.gouv.fr/affichTexte.do;jsessionid=?cidTexte=JORFTEXT000023646013&dateTexte=&oldAction=rechJO&categorieLien=id>;) est la dernière réécriture en droit français de ce qu'est la rétention des données de connexion et l'accès administratif à ces données. C'est donc avec lui qu'il faut jouer.

    Étape 1 : l'administration est tenue d'abroger les décrets illégaux (c'est un bout de jurisprudence). Il suffit donc de lui demander par courrier LRAR tout ça.

    Étape 2 : en cas de refus (absence de réponse = refus), c'est une décision de l'administration attaquable devant le Conseil d'État qui pourra décider que le rejet du gouvernement est infondé puisqu'en désaccord avec l'arrêt de la CJUE et vlam la rétention des données de connexion. Au moins le temps que législateur et exécutif patchent ça (avec quelque chose de conforme à la décision de la CJEU, of course).

    Pour résumer : l'attaque sur le décret d'application de l'article 20 de la LPM c'est pour refermer des portes sur l'interprétation de tournures floues. L'attaque en lien avec l'arrêt de la CJUE, c'est pour faire un nettoyage en profondeur de la rétention des données de connexion.


    Pour une version plus pédagogique de tout ça, voir la conf' « French Data Network et autres c/ Gouvernement » à Pas Sage en Seine 2015.
    Thu Aug 6 20:13:47 2015 - permalink -
    - http://www.conseil-constitutionnel.fr/conseil-constitutionnel/francais/videos/2015/juillet/affaire-n-2015-478-qpc.144124.html
    nomarkdown
  • Publication du guide « Comprendre et anticiper les attaques DDoS » | Agence nationale de la sécurité des systèmes d'information

    Ce guide est excellent en ce qui concerne les définitions (ce qu'est un DDoS, les motivations, les sources/outils,...), j'en recommande la lecture. En revanche, ce guide est beaucoup plus léger sur la prévention et à la réponse aux incidents, beaucoup trop théorique et superficielle. j'veux dire qu'on est loin de l'excellent guide sur la sécurité de BGP.

    « Une attaque par déni de service vise à rendre indisponible un ou plusieurs services. Un déni de service peut consister à exploiter, par exemple, une vulnérabilité logicielle ou matérielle. L’interruption de service peut également s’effectuer en empêchant l’accès à ce service, par exemple en saturant la bande passante du réseau : on parle alorsd’attaques volumétriques. Par ailleurs, une attaque peut solliciter, jusqu’à épuisement, une ou plusieurs ressources d’un service. Il peut s’agir, par exemple, de l’ouverture d’un grand nombre de nouvelles sessions TCP dans un intervalle de temps très court, ou encore d’un nombre trop important de traitements concurrents effectués par une base de données.

    [...]

    Toute entité dont l’activité dépend d’une infrastructure réseau connectée à Internet peut être la cible d’une attaque DDoS. Les motivations et objectifs des attaquants sont divers, allant des revendications idéologiques à la vengeance, en passant par les extorsions de fonds. Par ailleurs, certaines attaques semblent être menées afin de détourner l’attention, et de couvrir d’autres actions illégales, comme des transactions bancaires frauduleuses [1] [2].

    [...]

    Ainsi, en 2014, des opérateurs français ont constaté des attaques dont le volume était de l’ordre de la centaine de gigabits par seconde, et le débit, en nombre de paquets par seconde, de l’ordre de la dizaine de millions.

    [...]

    Au cours des années précédentes, les opérateurs français ont constaté que la plupart des attaques durent moins d’une demi-heure. Cependant, les attaques menées dans le but d’extorquer des fonds à une société durent souvent plusieurs jours.

    [...]

    De nombreux outils accessibles en ligne permettent d’exploiter des botnets [8] [9]. Au cours des dernières années, des services de DDoS en ligne, couramment appelés booter ou stresser, ont fait leur apparition [10]. Ces services proposent des tarifs autorisant leur usage par des particuliers, et permettent à un utilisateur de lancer des attaques contre la cible de son choix. Par ailleurs, certains booter proposent de tester le service gratuitement pendant quelques minutes.

    [...]

    Comment se protéger contre les DDoS ?

    Les pare-feux et les répartiteurs de charge peuvent contribuer à absorber certaines attaques DDoS, mais ils ne constituent pas une protection suffisante contre ce type d’attaque d’une manière générale. Par ailleurs, les limites de ces équipements sont parfois exploitées pour rendre des services indisponibles. Cependant, il est parfois possible de modifier la configuration de ces équipements afin d’améliorer leur résistance face à ce dernier type d’attaque (par exemple, en augmentant la taille des tables d’état).

    [...]

    Certains équipements dédiés [ NDLR : des appliances clés en main ] offrent différentes contre-mesures spécifiques aux attaques DDoS. Leur mise en œuvre nécessite une prise en main préalable, et un paramétrage adapté au trafic de l’entité.

    [...]

    Les hébergeurs offrent parfois une protection contre les attaques DDoS. Les différentes options proposées peuvent constituer une solution pour les structures faisant appel à une société externe pour l’hébergement de leurs serveurs.

    [...]

    L’intervention de l’opérateur de transit est parfois nécessaire, en particulier lorsque le lien réseau mis à disposition du client est saturé. Les opérateurs permettent souvent d’effectuer du blackholing de trafic basé sur la destination. Il convient de noter que cette mesure, parfois nécessaire, rend le déni de service effectif. L’opérateur peut également offrir un service de filtrage de trafic. Dans le cas où ce service est opéré par le client, ce dernier doit s’assurer de maîtriser la configuration des différentes contre-mesures offertes par la plate-forme.

    [...]

    Les CDN permettent la répartition de ressources sur un grand nombre de ser-veurs, ce qui peut contribuer à améliorer la résistance aux attaques DDoS.

    [...]

    Il est nécessaire de prendre des précautions avant la mise en œuvre d’une protection contre les attaques DDoS basée sur la résolution de nom. Cette méthode a une limite importante : le trafic à destination de l’entité ainsi protégée ne transite pas forcément par le fournisseur de la protection. [...] En effet, pour rediriger le trafic vers le service de protection, cette méthode repose uniquement sur le mécanisme de résolution de nom fourni par le DNS. Si un attaquant connait l’adresse IP originelle (par exemple, 203.0.113.2 sur la figure 2.1), il peut accéder directement au serveur sans passer par le CDN.

    [...]

    Le déroutement de trafic [NDLR : via annonces BGP par le prestataire de protection + tunnel GRE ou interconnexion directe avec lui ] permet de faire transiter l’intégralité du trafic vers le fournisseur du service de protection. Cette solution offre un bien meilleur niveau de protection qu’une solution basée sur la résolution de nom. En revanche, la souscription à ce type de service est généralement plus onéreuse.

    [...]

    Il est impératif de disposer de contacts appropriés en interne, chez les opérateurs de transit, ainsi qu’auprès des fournisseurs d’un service de protection pour réagir efficacement en cas d’attaque.

    [...]

    En dehors des solutions de protection spécifiques, des bonnes pratiques peuvent contribuer à améliorer la résistance à une attaque par déni de service. Parmi celles-ci, on peut notamment citer :
        • la segmentation du réseau de l’entité de manière à faciliter le filtrage en cas d’attaque, et l’isolement éventuel de certains sous-réseaux ou de certains serveurs ;

        • la mise en œuvre d’un filtrage à la bordure du réseau de l’entité afin de n’autoriser que les flux nécessaires au fonctionnement de cette dernière. Ces pratiques contribuent également à limiter le risque de participation involontaire à une attaque en déni de service (voir chapitre 4). Par ailleurs, la mise en place d’un réseau d’administration dédié est nécessaire. En effet, une attaque peut affecter significativement l’infrastructure réseau d’une entité, et ainsi entraîner des difficultés d’accès aux équipements. Au minimum, le trafic d’administration doit être marqué comme prioritaire au moyen de la mise en place d’un marquage QoS (Quality of Service).

    [...]

    Une entité peut être touchée indirectement par une attaque DDoS : une attaque contre une société peut affecter d’autres entités partageant la même infrastructure réseau, ou bénéficiant d’un service fourni par la cible de l’attaque.Un exemple est celui de la société nord-américaine Neustar, qui a connu une attaque DDoS entre fin avril et début mai 2014 [29]. Cet incident a entraîné des perturbations du service DNS fourni à ses clients [30].

    [...]

    Il est important de ne pas oublier des services qui sont parfois considérés comme étant en marge du système d’information, à l’instar de la téléphonie. À titre d’exemple, une société nord-américaine fournissant un service de téléphonie sur IP a été victime d’une série d’attaques DDoS pendant plusieurs mois entre fin 2012 et début 2013 [31]. Ces attaques ont entraîné des interruptions du service, affectant des clients de la société.  

    [...]

    Comment réagir face à un DDoS ?

    Il est nécessaire de disposer de moyens de supervision et d’alerte afin de dé-tecter un incident.

    [...]

    Avant de mettre en œuvre une contre-mesure, il est important d’identifier :
        • l’élément défaillant. S’agit-il d’une saturation des liens réseau, d’une surcharge au niveau d’un serveur ou plus précisément, d’une application ? L’attaque cible-t-elle un seul hôte, ou un bloc entier du réseau de l’entité ?      

        • le ou les protocoles utilisés. Dans le cas où le protocole de transport est UDP, il convient de prendre en compte le fait que ce protocole ne permet pas d’identifier les sources d’une attaque (possibilité d’usurpation de l’adresse IP source) ;

        • les sources de l’attaque : s’agit-il de paquets provenant d’un réseau interne à l’entité, ou de l’extérieur ? L’attaque est-elle générée par un nombre restreint de sources ? Le trafic lié à l’attaque transite-t-il par un seul opérateur ?

        • un ou plusieurs discriminants permettant de distinguer le trafic légitime du trafic généré par l’attaque (par exemple, des motifs récurrents dans le contenu des paquets, des valeurs remarquables dans les en-têtes HTTP).

    [...]

    En outre, un certain nombre de dispositions peuvent être prises au niveau de l’entité ciblée. Parmi celles-ci, on peut notamment citer :
        • le blocage des adresses IP sources identifiées comme étant à l’origine de l’attaque ;

        • le blocage du type de trafic impliqué dans l’attaque, et non nécessaire au bon fonctionnement de l’entité (filtrage sur le port destination, par exemple) ;

        • la limitation du nombre de connexions concurrentes par adresse IP source au niveau d’un pare-feu ;

        • la réduction des délais de garde des connexions TCP (par exemple sur des serveurs web ou SMTP) ;

        • le blocage du trafic à destination des cibles, en fonction de l’impact de l’attaque sur le reste de l’infrastructure réseau.

    [...]

    Déclaration d'incident

    Les opérateurs de communications électroniques, en application du Code des Postes et des Communications Électroniques (CPCE, article D98-5) [36], ont l’obligation de déclarer les incidents qui ont un impact « significatif » sur la disponibilité des services auprès du Centre Opérationnel de Gestion Interministériel de Crise (COGIC) du ministère de l’Intérieur. Par ailleurs, dans le cas d’un incident significatif dû à une attaque informatique, à l’instar d’une attaque DDoS, les opérateurs doivent effectuer une déclaration auprès de l’ANSSI. Aujourd’hui, un incident est considéré comme significatif s’il affecte au minimum 100 000 abonnés. Il convient de noter que ce seuil est susceptible d’évoluer dans le futur.

    [...]

    Comment éviter de participer à un DDoS ?

    [...]

    Réduction de la surface dʼattaque

    [...]

    Désactivation des services inutiles

    [...]

    Durcissement des systèmes dʼexploitation

    [...]

    Durcissement des configurations des services

    [...]

    Un attaquant peut exploiter une inclusion dynamique de fichiers (Remote File Inclusion ou RFI) dans le code d’une application pour déposer des scripts qui lui permettront ensuite d’exécuter des commandes (par exemple, un shell PHP). Les RFI sont parfois utilisés pour créer des botnets. En 2012, une campagne d’attaques par déni de service contre des institutions financières nord-américaines a été menée à partir d’applications compromises via ce type de vulnérabilité

    [...]

    Filtrage du trafic
    L’accès aux services d’une entité doit être restreint afin de n’autoriser que les réseaux internes à celle-ci. Par ailleurs, la mise en place de règles de ratelimiting peut réduire une éventuelle participation à une attaque par déni de service. Enfin, le trafic sortant de l’entité doit être filtré afin de bloquer l’envoi de trafic pour lequel les adresses IP sources sont usurpées. »
    Thu Aug 6 16:46:47 2015 - permalink -
    - http://www.ssi.gouv.fr/actualite/publication-du-guide-comprendre-et-anticiper-les-attaques-ddos/
    nomarkdown
  • FADET et données de connexion : le Conseil constitutionnel dit stop à l'open bar - Next INpact

    « Au détour du projet de loi Macron, une disposition gouvernementale armait l’Autorité de la concurrence du pouvoir de réclamer la communication des données conservées et traitées par les opérateurs et hébergeurs, histoire de flairer des fraudes économiques.

    Quelles données ? Il y a non seulement les FADET (et avec elles, les références du contrat, l’adresse de l’abonné, les coordonnées bancaires...) mais aussi les données de connexion, soit le contentant des contenus échangés (depuis quel lieu tel abonné s'est connecté au réseau, à quelles dates, à quelles heures, sous quel identifiant - numéro téléphone ou adresse(s) IP, référence du terminal...).

    Ce droit de communication n’est pas un ilot isolé. L’article L 34-1 du Code des postes et des communications électroniques qui pose le fragile principe de l’effacement immédiat des données de connexion reconnait plusieurs exceptions qui, toutes, le rabotent : le pénal, la loi Hadopi et l’ANSSI peuvent réclamer communication des données qui doivent donc être conservées. Avec le temps, le droit de communication a surtout été reconnu à d’autres administrations avec un encadrement trop souvent réduit pour ses détracteurs. Et la loi Macron ne dérogeait pas à la règle.

    Seulement, depuis quelques mois, le contexte a changé. Le 8 avril 2014, la Cour de justice de l’Union européenne tirait déjà la sonnette d’alarme. En invalidant la directive sur la conservation des données de connexion, elle exige désormais un bon nombre de garanties. Pourquoi ? Tout simplement parce que « ces données, prises dans leur ensemble, sont susceptibles de permettre de tirer des conclusions très précises concernant la vie privée des personnes (…) telles que les habitudes de la vie quotidienne, les lieux de séjour permanents ou temporaires, les déplacements journaliers ou autres, les activités exercées, les relations sociales de ces personnes et les milieux sociaux fréquentés par celles-ci ».

    En somme, le nuage de métadonnées laissé dans le sillage d’une personne permet de reconstituer très facilement toute sa vie sexuelle, privée, sociale, économique, etc. Il n’est donc pas très prudent que la rétention des données soit la norme et que le droit de communication sur ce gisement soit ouvert comme une porte d’église.

    [...]

    C’est donc dans ce contexte que l’extension du droit de communication à l’Autorité de la concurrence a été décriée dans la saisine constitutionnelle des députés. Reprenant leurs arguments en séance, les parlementaires estimaient qu’il y avait là une atteinte disproportionnée au respect de la vie privée garantie par l'article 2 de la Déclaration des droits de l'Homme de 1789 : « Le pouvoir des agents de l'Autorité de la concurrence apparait comme exorbitant puisque d'une part, ils pourront se faire communiquer des fadettes au cours d'une simple enquête, et non pas en cas d'infraction particulièrement grave, et d'autre part, ils n'encourent aucune sanction particulière en cas de divulgation de ces informations ».

    Ils condamnaient aussi l'absence d’ « intervention du juge pour autoriser la saisie des relevés téléphoniques détaillés », une pratique parfois utilisée pour connaître les sources d’un journaliste.

    Dans ses observations, le gouvernement a religieusement rétorqué que « ces dispositions visent à harmoniser les dispositions relatives au droit de communication des autorités administratives indépendantes et des administrations chargées de la répression des infractions économiques ». Il ajoute que ce droit « ne confère pas à des agents un pouvoir d'exécution forcée pour obtenir la remise de ces données » et qu’ « en l'absence d'autorisation préalable de l'autorité judiciaire, l'administration ne pourra obtenir que les documents qui lui ont été volontairement communiqués ». Selon lui, en somme, cette extension devait être jugée conforme.

    Mais le Conseil constitutionnel n’a pas avalé l'innocente analyse gouvernementale. Son analyse dénote avec ce qui a pu lui être reproché dans sa décision sur la loi Renseignement où il a jugé que les garanties relatives à un autre droit, le droit d'accès des services spécialisés, étaient suffisantes.

    [...]

    Cette censure est aussi un coup de semonce qui devrait inciter le gouvernement à revoir rapidement l’encadrement du droit de communication dévolu à plusieurs administrations pour s’assurer de leur pleine conformité à cette décision. Il le contraindra aussi à s'interroger à l'avenir sur ce moyen confortable, voire sur l’obligation de conservation des données de connexion, à l’aune de l’arrêt Digital Rights. Et s'il traine des pieds, un prochain recours initié par la Quadrature du Net, FDN et FFDN devrait l'aider à réagir. »
    Thu Aug 6 13:07:12 2015 - permalink -
    - http://www.nextinpact.com/news/96094-fadet-et-donnees-connexion-conseil-constitutionnel-dit-stop-a-open-bar.htm
    nomarkdown
  • Running snoopy on NetBSD - Emile "iMil" Heitor 's home

    « Snoopy is a pretty cool piece of software that can log every exec(3) call to syslog. When it comes to security, that feature can be really handy. Yesterday (Dec. 5), I commited security/snoopy to pkgsrc. The package comes with GNU/Linux related scripts in order to modify /etc/ld.so.preload so libsnoopy is loaded before libc and achieve its role.

    [...]

    nce done, /var/log/authlog will be filled with lines like:

    Dec  6 09:36:46 coruscant snoopy[19394]: [uid:1000 sid:4525 tty:(none) cwd:/home/imil filename:/sbin/sysctl]: sysctl vm.loadavg
    Dec  6 09:36:46 coruscant snoopy[29510]: [uid:1000 sid:4525 tty:(none) cwd:/home/imil filename:/usr/bin/cut]: cut -f2-4 -d »

    OYEAH \o/ Snoopy est dans les packages Debian et juste fonctionne. Il faut ouvrir un nouveau terminal pour que le chargement de la lib soit effectif.
    Thu Aug 6 12:17:50 2015 - permalink -
    - http://imil.net/wp/2014/12/06/running-snoopy-on-netbsd/
    nomarkdown
  • Install NetBSD (or any PV-capable system) on IBM's SoftLayer - Emile "iMil" Heitor 's home

    « At ${DAYWORK}, I happen to use IBM’s cloud: SoftLayer. It has all the features you’d expect from such a platform, and can instantiate pretty much any major GNU/Linux distribution you’d think of; but here’s the thing, we also use NetBSD for some infrastructure services, and as you’d guess, there’s no NetBSD support at all on SoftLayer.

    I had to reverse some bits of their provisioning system to understand how to achieve NetBSD installation, but most of all, automatic provisioning.

    [...]

    First thing was to discover what hypervisor and which mode is used, PV? PV-HVM?
    HVM?

    I must say their support was not really helpful, but hopefully a simple dmesg gave pretty much all the informations:

    [    0.000000]  Xen: 0000000000000000 - 00000000000a0000 (usable)
    [    0.000000]  Xen: 00000000000a0000 - 0000000000100000 (reserved)
    [    0.000000]  Xen: 0000000000100000 - 0000000040000000 (usable)

    Ok, Xen it is…

    [    0.000000] Booting paravirtualized kernel on Xen

    Oh well, PV then. Quite amusing since the support told me they used HVM pretty much everywhere.

    [...]

    Now to the fun part. While it is possible to install NetBSD “by hand” with the previous procedure, I really wanted to have that system provisioned automatically, just like the Linux systems are.

    Watching all the names used during the provisioning process, I deduced there was some kind of scripting phase once the virtual machine has been instantiated, so
    I followed the white rabbit. First, following jawa‘s idea (friend and colleague of mine), I installed snoopy to a newly created virtual machine, then created an image template from it, and instantiated it: and bingo, /var/log/auth.log showed there was a /root/install.sh that was called right after boot up. So I wrote a basic
    init-script in order to dump /root content before it is removed by the provisioning system, re-imaged the VM, re-instantiated it, and from then, I had my eyes on their provisioning scripts. Nothing fancy, some tune2fs stuff, networking setup, and all the variables I needed to prepare NetBSD :) »

    Joli. :)
    Thu Aug 6 12:05:23 2015 - permalink -
    - http://imil.net/wp/2014/11/03/install-netbsd-or-any-pv-capable-system-on-ibms-softlayer/
    nomarkdown
  • Affaire Netzpolitik : le procureur général allemand mis à la retraite d’office

    « Le blog Netzpolitik, engagé dans la défense des libertés numériques, fait l’objet d’une enquête préliminaire après avoir publié en début d’année des documents présentés comme les projets de l’Office de protection de la Constitution (renseignement intérieur) pour surveiller Internet. Jeudi, le blog a révélé que M. Range avait lancé une enquête préliminaire pour « trahison » contre deux de ses journalistes, du jamais-vu depuis le début des années 60.

    Ces révélations ont provoqué une vague de protestations en Allemagne, de la part des médias et de responsables politiques accusant la justice de volonté de censure. Le site a également reçu le soutien d’organisations de défense des libertés individuelles dans plusieurs pays. Vendredi, les poursuites pour « trahison » avaient finalement été suspendues, dans l’attente d’un examen plus complet des documents publiés pour déterminer s’ils relevaient bien du secret d’Etat.

    Coup de théâtre, ce mardi matin : dans une déclaration extrêmement inhabituelle, par communiqué et devant les caméras, le procureur général Harald Range a accusé le ministre de la justice, Heiko Maas, d’« attaque intolérable contre l’indépendance de la justice ».

    Dans sa contre-attaque, le procureur Range explique qu’un expert indépendant a jugé que les documents mis en ligne par le blog relevaient bien du secret d’Etat, comme l’affirmait le patron du renseignement intérieur, Hans-Georg Maassen, qui a porté plainte contre X.

    [...]

    Plus largement, il explique que « la liberté de la presse et d’expression est un bien de valeur. Mais cette liberté, y compris sur Internet, n’est pas illimitée. Elle n’exonère pas les journalistes du devoir de respecter la loi ». « Il est de la responsabilité de la justice de faire respecter la loi, écrit-il encore. Je ne peux accomplir cette tâche que libéré des influences politiques. »

    [...]

    Mardi soir, M. Range a été mis d’office à la retraite anticipée par le ministère de la justice, au motif que « la confiance [envers M. Range] a désormais disparu ». »

    Mais, comme le note Ars Technica (http://arstechnica.com/tech-policy/2015/08/germanys-top-prosecutor-fired-over-netzpolitik-treason-probe/) : « Moreover, as the Netzpolitik.org journalists point out, Range may have gone, but the investigation into their publication has been suspended, not dropped. The treason affair is by no means over. » ;)

    ÉDIT DU 10/08/2015 À 17H10 : Fin de l'histoire : http://www.lemonde.fr/pixels/article/2015/08/10/la-justice-allemande-renonce-a-poursuivre-deux-journalistes-pour-trahison_4719275_4408996.html ? FIN DE L'ÉDIT.
    Thu Aug 6 11:49:25 2015 - permalink -
    - http://www.lemonde.fr/pixels/article/2015/08/04/affaire-netzpolitik-le-procureur-general-allemand-mis-a-la-retraite-d-office_4711707_4408996.html
    nomarkdown
  • Warrant required for mobile phone location tracking, US appeals court rules | Ars Technica

    « A federal appeals court ruled Wednesday that a probable-cause warrant under the Fourth Amendment is required for the police to obtain a suspect's cell-site data.

    The decision by the Fourth US Circuit Court of Appeals gives the Supreme Court, which has never ruled on the issue, ammunition to resolve a modern-day privacy controversy affecting the tens of millions of American mobile phone users. Until Wednesday, all the federal appellate courts that have decided the issue have ruled for the government's proposition that cell-site records are not constitutionally protected.

    But the Richmond, Virginia-based appeals court didn't buy the government's assertion that cell-site records are business records investigators may obtain from the telcos by asserting that there are reasonable grounds to believe the data is relevant to an investigation. The government's argument is known in legal jargon as the third-party doctrine.

    [...]

    Wednesday's decision comes a week after the American Civil Liberties Union asked the Supreme Court to resolve the issue of whether warrants were required for the cell-site data. That case concerned a Florida man sentenced to life for a string of robberies in a case built with two months' worth of cell-site data. »
    Thu Aug 6 11:28:54 2015 - permalink -
    - http://arstechnica.com/tech-policy/2015/08/warrant-required-for-mobile-phone-location-tracking-us-appeals-court-rules/
    nomarkdown
  • BIRD/Quagga : différences et cas d'usage particuliers

    Quagga et BIRD sont tous deux d'excellentes suites de logiciels de routage (création automatique des tables de routage, utilisées pour transférer les paquets IP).

    Les deux sont très bons pour faire des tests et des maquettes mais en production (route server, routeur d'un FAI associatif ou autre petite structure,...), certaines contraintes apparaissent. Actuellement, ma préférence va à BIRD (pour les raisons que je vais exposer ci-dessous) mais sur un même réseau, même associatif, on peut vouloir de la diversité du code pour éviter les embrouilles (exemple : attribut 99 - https://labs.ripe.net/Members/erik/ripe-ncc-and-duke-university-bgp-experiment/). Mais la diversité a un coût en maintenance : il faut maintenir deux fichiers de conf', dans deux syntaxes différentes et trouver les équivalences entre les syntaxes.


    Bien que j'ai utilisé BIRD et Quagga dans différents contextes (RPKI+ROA (http://www.guiguishow.info/2013/09/18/securiser-le-routage-sur-internet/), OSPF (http://www.guiguishow.info/2013/07/27/routeurs-logiciels-et-ospf/), route reflector BGP (http://www.guiguishow.info/2013/09/15/mettre-en-place-un-route-reflector-bgp-avec-quagga-pour-samuser/)), je parlerai uniquement de BGP dans la suite de ce shaarli.


    Différences entre BIRD et Quagga :
        * Protocoles de routage supportés. BIRD : BGP, OSPF, BFD, RIP, static, RA. Quagga : BGP, OSPF, ISIS, RIP, static et, en dehors du package : OLSR et LDP.

        * De par sa popularité, c'est souvent dans Quagga que sont développés des fonctionnalités/protocoles (exemples : Babel fût un temps ; RPKI-RTR ; Graceful Router Updates for Link-State Protocols,...)

        * La modularité en démons (zebra, ospfd, bgpd,...) de Quagga semble mieux comprise que la modularité en protocoles de BIRD (kernel, ospf, bgp,...) alors qu'il s'agit de la même chose. Notons que l'un comme l'autre peut être compilé avec le support d'un nombre restreint de protocoles de routage (pour les adeptes du code minimal sur un router ;) ).

        * BIRD est à la fois plus brut de fonderie (la syntaxe de la configuration, les filtres, bref tout ressemble à un langage de programmation avec sa syntaxe propre) mais est aussi plus simple, plus concis et plus compréhensible que l'enchaînement des commandes IOS que l'on retrouve dans Quagga. Ça se vérifie particulièrement pour l'usage de sessions BGP over IPv6. BIRD : fichier de configuration séparé, CLI séparée,... Quagga : il faut penser à virer le support IPv4 over IPv6 (no neighbor 2001:db8::1 activate) pour ne pas avoir de préfixes IPv4 qui circulent sur la session IPv6 puis à activer la capability Multiprotocol Extensions pour IPv6 (address-family ipv6 + neighbor 2001:db8::1 activate) puis bien positionner les filtres et compagnie dans le bloc de la capability. En ce sens, Quagga est plus brut de fonderie, respecte l'aspect extensions de BGP et le format des paquets alors que BIRD offre une abstraction : je veux faire de l'échange de préfixes IPv6 sur une session BGP over IPv6, point, active les extensions kiVontBien tout seul.

        * BIRD supporte les tables de routage multiples (une par instance du protocole « kernel », directive « kernel table <table_ID> »). Quagga ne supporte pas les tables de routage multiples, seulement le changement de la table utilisée (directive « table » dans Zebra).

        * BIRD permet de spécifier l'adresse source à indiquer lors de l'export des routes vers le kernel. Cela permet de faire en sorte que le routeur lui-même (ça ne concerne pas les paquets qui transit par le routeur mais dont le routeur n'est pas l'émetteur) utilise cette adresse IP lorsqu'il sortira un paquet vers une destination donnée en utilisant la route injectée par BIRD. Très pratique pour que les messages ICMP soient émis avec une IP précise bien identifiée/identifiable. Cela permet donc de jouer sur l'algorithme de sélection de l'adresse source à utiliser. Puisque certains prestataires (transitaires IP) bloquent le trafic sur les IPs d'interconnexion, cette directive permet de spécifier une IP de votre propre allocation et permet donc au routeur d'émettre avec cette IP plutôt qu'avec l'IP d'interconnexion. Il s'agit de la directive « krt_prefsrc = <IP_à_utiliser> » à spécifier dans un export filter dans le protocole « kernel » sous BIRD. Sous Quagga, l'équivalent est d'utiliser, dans Zebra, la directive « ip protocol bgp route-map <nom_routemap> » ainsi qu'une route-map avec la directive « set src <IP_à_utiliser> ». Cette directive n'est pas disponible en IPv6 sous Quagga... Voir ci-desous pour un contournement.


    Quelques petits trucs à connaître :
        * Lors de l'établissement d'une session iBGP directe (sans routeur intermédiaire), il faut ajouter la directive ... « direct » dans la configuration du protocole bgp de BIRD. Dans le cas contraire, BIRD s'attend à devoir utiliser une route existante pour transférer les paquets au next-hop indiqué dans les annonces BGP et, n'en trouvant pas, indique que toutes les routes échangées sont « unreachable ». Ce point ne concerne pas Quagga ;

        * Si la session BGP over IPv6 est montée sur un adressage link-local (fe80::/10), il faut spécifier l'interface : « neighbor fe80::1%eth0 as 65000 » pour BIRD, «
    neighbor fe80::1%eth0 interface eth0 » pour Quagga. Les adresses link-local IPv4 (169.254.0.0/16) ne sont pas concernées car pas considérées comme de véritables link-local (regardez un output de ip a s, le scope sera bien global ;) ) ;

        * Pour reproduire le comportement de krt_prefsrc en IPv6 avec Quagga, il faut ruser : il faut utiliser une interface dummy avec l'IP globale à utiliser en « scope global » et indiquer un scope link pour toutes les autres interfaces réseau, même celles adressées avec des IPs globales. Ainsi, pour sortir, le noyau sera forcément obligé d'utiliser la seule IP dont la portée est globale, c'est-à-dire celle de la dummy. « ip a a <IP>/<netmask scope link dev eth0 » ou « scope link » dans /etc/network/interfaces pour rendre ça persistant. :)

        * Il est d'usage de laisser les démons de routage créer une route de blackhole correspondante à l'allocation qui sera annoncée en BGP. Cela permet au routeur de se débarrasser au plus tôt d'un paquet pour lequel il ne connaît aucune route pour joindre la destination (cas d'une IP ou d'un sous réseau, que vous n'avez pas encore attribué). Cela permet également que ces paquets ne soient pas renvoyés sur l'interface de transit si vous n'avez pas filtré votre allocation en input de votre BGP. ;)

            Sur BIRD, en IPv4, comme en IPv6 : « route <allocation> unreachable; » dans un protocole static.

            Sous Quagga :
                En IPv4 : « ip route <allocation> <netmask> Null0 » dans Zebra.

                En IPv6, la cible blackhole (traduction de Null0 sous Linux) n'existe pas dans les vieux kernel (3.2). Or, Quagga souhaite rester compatible. Il faut donc ruser et utiliser la cible lo + reject : « ipv6 route <allocation> ::1 reject ».

            Pour info, dans Linux : reject = unreachable = on rejette le paquet en envoyant un message ICMP à la source présumée du paquet ; drop = blackhole = on supprime le paquet sans rien dire. Blackhole et unreachable sont plus récents.


        * Soit l'interface tap d'une machine virtuelle configuée avec « ip a a 198.18.0.1/24 dev tap1 » et « ip r a 192.0.2.0/24 via 198.18.0.2 dev tap1 ». On sait que, lors de la destruction d'une interface, Linux nettoie les routes associées à cette interface. Que se passe-t-il à l'arrêt de la VM (ou sa migration à chaud avec Ganeti) ? BIRD : BIRD prend en compte la disparition de l'interface (protocole device) et fait aussi le ménage dans ses routes importées. Quagga : Quagga détecte bien la disparition de l'interface, vire la route associée (198.18.0.0/24 dans notre exemple) mais garde l'autre route (ici : 192.0.2.0/24) ... avec une interface inconnue (exemple : « 192.0.2.0/24, via unknown ») et continue à l'annoncer en iBGP ou en OSPF...
    Thu Aug 6 02:06:34 2015 - permalink -
    - http://shaarli.guiguishow.info/?6P2feQ
    nomarkdown
  • Tutorial - Apache Storm

    Storm est un framework Java (comme tous les frameworks big data, n'en déplaise aux détracteurs de Java :D ) permettant de créer des clusters de traitement de messages.

    Ça se compose d'un Nimbus (ordonnanceur de tâches sur le cluster) et de supervisors (membres du cluster) qui lancent des workers, c'est à dire des unités de travail (un processus quoi :- ) qui eux-mêmes exécutent des tâches sur les messages reçus, à l'infini. La communication entre un Nimbus et les supervisors se fait à travers un Zookeeper.

    Au niveau logique, Storm fait du stream processing : on a un enchaînement d'unités de travail : des spouts et des bolts. Les spouts sont les points d'entrée, les sources d'informations, ceux qui lisent les messages à traiter depuis un Kafka, un fichier texte ou autre. Les spouts exécutent des tâches, de préférence simples. On enchaîne des spouts et des bolts pour séparer les différentes actions (lecture du message et parse, enrichissement, calcul statistique,...). C'est cet enchaînement qui forme une topologie Storm.  La communication entre ces composants (spouts, bolts) se fait sous forme de tuple. Il est possible de demander à Storm de réaliser des actions sur ces tuples comme des jointures, des agrégations, des filtres. Exemple : vous voulez que tous les messages ayant une même caractéristique (exemple : le champ "toto" = 42 ) soient traités par un même bolt : il suffit de réaliser une agrégation sur cette caractéristique.

    Une topologie Storm, en définitive, c'est un gros jar qui contient votre code et toutes les lib dont il a besoin. Ça se charge sur le cluster à partir du Nimbus qui s'occupe du reste.

    La beauté de Storm, c'est la montée en charge et le passage à l'échelle dans un framework qui mâche le travail du développeur.
    Wed Aug 5 23:22:18 2015 - permalink -
    - https://storm.apache.org/documentation/Tutorial.html
    nomarkdown
  • Kafka | Blog Xebia France

    Ce que je retiens de Kafka : mécanisme de transmission de messages / queue , réparti, conserve l'ordre des messages, l'unité pour le passage à l'échelle est la partition.

    Pour les cas d'utilisation possibles, voir : https://kafka.apache.org/documentation.html#uses. Je m'en sers pour injecter et conserver un flux Netflow (provenant d'un gros réseau), ce qui me permet d'alimenter un cluster Storm qui réalise un traitement sur ce Netflow (enrichissement + production de stats).

    Notons que Kafka utilise Zookeeper pour stocker les membres du cluster, les partitions ainsi que les derniers offsets consommés par les clients dans chaque topic. Notons qu'un producteur n'a pas besoin d'aller chercher des infos dans Zookeeper : il contacte simplement un broker qui, via le protocole Kafka, lui indiquera les topics, les partitions et les replicats. Un consommateur a forcément besoin de s'enregistrer auprès de Zookeeper (dernier offset consommé). Pour ceux que ça intéresse : Zookeeper repose en partie sur les algorithmes de Lamport. ;)

    Notons que si l'on a besoin d'avoir un cluster mi-privé (un cluster dans lesquels les membres doivent se parler via un réseau cloisonné adressé en RFC1918 mais où des clients externes doivent aussi joindre les Kafka, il y a une directive de configuration pour cela, « advertised.host.name » pour s'enregistrer différemment dans Zookeeper et fournir les bons noms dans les métas-données échangés avec un client. Sauf que ce n'est pas terriblement efficace et que je préfère traiter le problème via un mécanisme de nommage (DNS ou /etc/hosts) qui est fait pour ça. Voir : http://shaarli.guiguishow.info/?PazcBw

    Comme dans tous les systèmes répartis, quand ça marche, ça juste marche bien et ça dépote mais quand ça chie, le debug est vraiment galère : identifier la partition qui pose problème dans les logs puis savoir quel logiciel produit et consomme dans cette partition puis... D'autant plus que les messages d'erreur de Kafka sont loin d'être explicites. Exemples :
        * Dans les logs d'un producteur : « Could not create kafka client : kafka server: Replica infomation not available, one or more brokers are down. » -> la machine leader pour une partition doit être en rade. Il faut arrêter les consommateurs Kafka, reboot la machine kafka en rade et fsck les partitions utilisées par Kafka. Refaire partir kafka. Les producteur devraient remonter.

        * Dans les logs d'un broker (server.log.<date>), Kafka se plaint d'index invalides lors d'une reprise après incident. Il faut stopper le broker et supprimer les fichiers d'index invalides dans le dossier data de Kafka (mv /kafka/<ID_partition>/*/*.index ~/backup/)

        * Dans les logs d'un broker (server.log.<date>), Kafka se plaint que les index demandés sont trop vieux : vos consommateurs sont à la traîne. Soit il y a un problème de leur côté, soit il faut augmenter la durée de conservation des données dans Kafka.

        * Le message le plus incompréhensible est celui d'un Kafka qui refuse de démarrer, prétextant un fichier d'index invalide alors qu'il n'y a aucun fichier dans le dossier de données ! Il faut vérifier à ce qu'il n'y ait aucun fichier caché, en fait. Cela arrive quand vous montez des partitions fraîchement créées dans le dossier de données (cas d'usage : plusieurs partitions sur plusieurs SSD dans l'optique de répartir la charge).
    Wed Aug 5 23:04:30 2015 - permalink -
    - http://blog.xebia.fr/2011/12/02/kafka/
    nomarkdown
  • High Availability with PostgreSQL and Pacemaker

    Corosync et Pacemaker font partie de la pile logicielle Linux-HA et remplacent Heartbeat. Le premier permet la mise en cluster, la circulation des messages et la synchronisation entre les différentes machines du cluster. Le deuxième est un gestionnaire des ressources d'un cluster : il s'occupe des services qui tournent sur le cluster (start/stop/migrate). On peut bâtir des infras avec du failover vraiment automatisé (sauf en cas de split brain avec drbd, vous ne couperez pas à une intervention manuelle).

    Corosync peut fonctionner en multicast (défaut) ou en unicast (http://docs.openstack.org/high-availability-guide/content/_set_up_corosync_unicast.html).

    Ci-linké un exemple avec PostgreSQL. L'idée est d'obtenir une configuration dans laquelle aussitôt qu'une première machine tombe, hop, une seconde prend la relève pour que PostgreSQL continue à fonctionner.
    Wed Aug 5 22:03:03 2015 - permalink -
    - https://wiki.postgresql.org/images/0/07/Ha_postgres.pdf
    nomarkdown
  • Time series database - Wikipedia, the free encyclopedia [ traitement des séries de temps, OpenTSDB, CityzenData ]

    « A time series database (TSDB) is a software system that is optimized for handling time series data, arrays of numbers indexed by time. [...] A time series of stock prices might be called a price curve. A time series of energy consumption might be called a load profile. A log of temperature values over time might be called a temperature trace.Despite the disparate names, many of the same mathematical operations, queries, or database transactions are useful for analysing all of them. The implementation of a database that can correctly, reliably, and efficiently implement these operations must be specialized for time-series data. [...]

    A workable implementation of a time series database can be deployed in a conventional SQL-based relational database provided that the database software supports both binary large objects (BLOBs) and user-defined functions. SQL statements that operate on one or more time series quantities on the same row of a table or join can easily be written, as the user-defined time series functions operate comfortably inside of a SELECT statement. However, time series functionality such as a SUM function operating in the context of a GROUP BY clause cannot be easily achieved. »


    OpenTSDB est quand même limité :
        * Problème d'optimisation dans le stockage hbase utilisé derrière ;
        * Au-delà de fonctions de base (sum, union, moyenne,...), rien n'est proposé par OpenTSDB, ce qui est extrêmement limitant ;


    Pour les usages avancés, une société commerciale, Cityzen Data (http://www.cityzendata.com/), propose une infrastructure et un langage (Einstein) pour stocker et traiter les séries temporelles. Quelques points sur cette techno :
        * Ça marche et plutôt bien : je pousse environ 37000 métriques par minute, toutes les minutes de chaque jour et la plateforme les acquitte en 1-2 secondes (stockage sécurisé dans kafka et traitement au fil de l'eau) :D ;

        * La documentation (https://api0.cityzendata.net/doc/) est plutôt faible : un gros effort est fait mais il y a encore des fonctions non documentées. Exemples : FINDSTATS pour obtenir des informations sur vos séries (erreurs, nombre d'éléments stockés,...) ou '<votre_token>' AUTHENTICATE <nombre> LIMIT pour remonter (avec FETCH) plus de métriques que la limite pré-configurée,... De plus, la documentation existante n'est pas toujours complète... Comme la documentation officielle est encore la seule source d'information disponible, c'est parfois difficile de s'y retrouver ;

        * Système interopérable : les données se poussent sur la plateforme via une requête HTTP POST, elles se récupèrent au format JSON via une requête HTTP GET. Un mécanisme de push/pull via les websockets est aussi disponible. Les erreurs retournées sont claires et compréhensibles ;

        * Un langage de manipulation des séries est proposé : Einstein. Il est exécuté côté serveur donc on récupère uniquement les métriques qui nous intéressent, après traitement. C'est un langage à pile (exemple :  1 60 * 60 * 'noSecondesInOneHour' STORE) dont la gymnastique n'est pas celle naturelle à notre cerveau donc il faut de l'entraînement et de la persévérence ;

        * Peut être couplé avec Grafana (https://github.com/CityzenDataOSS/grafana-warp) pour produire facilement des visualisations graphiques ;

        * Limite : il manque encore des fonctions super utiles comme un TOP n sur les valeurs ou un SORT des séries sur leur valeur (pour les valeurs numériques, of course) :
            * Pour le SORT par valeur, on est obligé d'avoir recours à des macros et à une projection orthogonale (car les séries peuvent être triées sur leurs abscisses (timestamp en temps normal, sans projection) avec les fonctions SORT/RSORT) ;
            * Pour un TOP n, il faut se souvenir que la fonction SHRINK trie automatiquement la série (c'est dans la doc') par ordre croissant. Donc, si l'on veut récupérer les N plus grandes valeurs, il faut demander à SHRINK de prendre ces N valeurs à partir de la fin : « N -1 * SHRINK ». Petite subtilité : si N est pile le nombre d'éléments dans la GTS, SHRINK n'est pas exécutée et donc vos élements sont affichés sans être triés. Donc ceinture et bretelles : « (R)SORT N -1 * SHRINK ». :)


    Une autre source d'information sur CZD : Domotique : Valoriser et exploiter les données chez GuiguiAbloc - http://blog.guiguiabloc.fr/?p=1700
    Wed Aug 5 17:22:46 2015 - permalink -
    - https://en.wikipedia.org/wiki/Time_series_database
    nomarkdown
  • Retour sur la conférence donnée par Richard Stallman le 12 mai 2015 à Brest. - LinuxFr.org

    J'ai assisté à cette conférence de rms, la première AFK. Première rencontre avec rms, échange de clés OpenPGP et un Richard qui m'interpelle dans le couloir à propos de son projet d'une forge open-hardware morale.

    Quelques notes que j'ai prises durant la conférence (disponible en visionnage/téléchargement direct/torrent ici : http://media.leschatscosmiques.net/medias/conferences/) :
       * Rappel des 4 libertés (https://www.gnu.org/philosophy/free-sw.fr.html), je ne reviens pas dessus. Le partage est moral car il est communautaire, car il est humain. Le développeur d'un logiciel privateur sait très bien ce qu'il fait : l'existence de son logiciel est pire que son absence car c'est un appât, un piège. L'appel du pouvoir corrompt le développeur de logiciel privateur. C'est une volontée de soumission des utilisateurs de son programme donc c'est injuste donc ça ne devrait pas exiter. Les jeunes développeurs seront happés par le système, par leurs collègues car beaucoup de gens ne doivent pas la différence entre le bien et le mal immédiatement. « Ne rien faire de ta vie est mieux que développer du logiciel privateur » :D ;


       * Liberté attaquée de partout. C'est un renversement de la charge en 30 ans : il y a 30 ans, on devait servir l'utilisateur. Aujourd'hui, on doit le tromper. Pluie d'exemples : censure des applications sur le store Windows 8 mobile ; Google play et IOS ne sont pas mieux (jailbreak = s'échapper d'une prison !) ; Kindle d'Amazon impose de renoncer à la liberté d'acheter anonymement un bouquin, à la liberté de donner/prêter des livres après leur lecture, ouvre les portes à la censure (http://rue89.nouvelobs.com/2009/07/19/sur-le-kindle-amazon-detruit-des-livres-quil-a-vendus) ; Flash ; Windows est un malware : il s'agit d'une backdoor puisque Microsoft peut installer et modifier des logiciels à distance ! ; les firmwares/blobs privateurs dans Linux (si un périphérique exige un firmware privateur, ne l'utilise pas, c'est un petit sacrifice) ; les ordiphones sont de véritables espions qu'il faut refuser : « il est du devoir de chaque citoyen de mettre le doigt dans l'œil de Big Brother ;


       * Insiste trop (3 fois les mêmes phrases !) lourdement sur libre versus open source et GNU/Linux versus Linux. On ne peut pas vraiment le blâmer sur ça puisque, lors de la présentation des associations organisatrices, l'ex-président de la Maison du Libre a déclaré qu'ils faisaient dans l'open source et utilisaient Linux, tout ce qu'il faut pour énerver Richard ;


       * "Nouveaux" combats :
           * JavaScript : beaucoup de pages web contiennent du JS privateur. La FSF propose LibreJS, un module pour Firefox (Icecat) qui analyse la page et exécute le JS seulement s'il est libre. Pour plus d'informations, notamment sur la détection du code privateur : https://www.gnu.org/software/librejs/free-your-javascript.html ;

           * SaaS : « Tu confies ton activité informatique au serveur d'une autre personne. C'est lui qui contrôle ton activité. Cela revient au même que d'utiliser un programme privateur, les 2 chemins se rejoignent. ». Utiliser un traducteur en ligne (Google translate, par exemple) est intolérable car il y a des équivalents à installer en local. Utiliser un moteur de recherche (Google Search, par exemple) est tolérable car on n'a pas le choix (vu avec rms par mail : il ne connaît pas YaCi, ceci explique cela). Dans une communication, un serveur hors de contrôle (Google GMail, par exemple) est tolérable car pas le choix (oui, confirmé par mail, il "crache" sur les associations qui font du mail propre, sur les serveurs @home et les initiatives de décentralisation des usages du net lui passent bien au-dessus de la tête :( ) ;


       * Éducation :
           * L'école de la République doit enseigner uniquement du logiciel libre. Montrer/faire utiliser des logiciels privateurs va à l'encontre de la mission sociale de l'école qui est d'éduquer les citoyens conscients d'une société libre. Une autre raison plus profonde : l'école est là pour dire comment ça marche. Avec un logiciel privateur, le professeur est obligé de répondre « nul ne sait comment ça marche, c'est un secret ». Avec un logiciel libre, le professeur peut expliquer avec l'aide d'une copie du code source. Une seule exception : on peut montrer du code privateur dans le cadre d'un atelier de reverse-engineering ;

           * Les œuvres pédagogiques doivent être libres (licences CC, GFDL,...) ;

           * L'école ne doit pas filer les données personnelles concernant les étudiants à des entreprises comme Google/Microsoft (page Facebook pour la classe, Google Docs,...). C'est une infraction de le faire. Le flicage commence à l'école si elle ne respecte pas la vie privée ;


       * « La liberté d'information est essentielle pour garder les autres droits humains. Le flicage généralisé met en danger la démocratie. Comment exercer un contrôle citoyen si l'État agit dans le secret ? Il reste les lanceurs d'alertes. Le niveau de flicage actuel est incompatible avec la démocratie. La démocratie n'est que théorique. »


       * « Je ne peux pas tout faire tout seul, tu dois le faire ». Comment ? Faire des conférences, proposer des ateliers de reverse-engineering,... Ce n'est pas la taille de la contribution qui compte. ;)


       * Des ressources à étudier :
           * Ubuntu Spyware : https://www.gnu.org/philosophy/ubuntu-spyware.fr.html

           * Liste des systèmes GNU/Linux libre à recommander + la raison de la non-homologation des autres systèmes : https://www.gnu.org/distros/free-distros.html et https://www.gnu.org/distros/common-distros.html

           * Version de Firefox made in FSF pour éviter le problème de marque, pour éviter la promotion d'extensions privatrices, pour éviter l'inclusion des DRM,... : https://fr.wikipedia.org/wiki/GNU_IceCat


       * Pourquoi ce combat pour les libertés ? Il déteste l'injustice, c'est une réaction de colère. Comment fait-il pour tenir / se motiver depuis 32 ans ? Élu par les circonstances pour promouvoir le logiciel libre. « Que pouvais-je faire d'autre ?! »


    On a eu le droit au numéro de Saint IGNUcius et de la vente aux enchères d'une peluche à l'effigie d'un gnou au profit de la FSF.


    Mon avis sur rms et sa conférence :
       * rms est malentendant, je ne savais pas.

       * Il était attendu sur l'éducation (deuxième terme de son sujet + beaucoup d'enseignants avaient fait le déplacement et avaient rameuté leurs étudiants) et il n'en a dit que peu de mots en proportion de la durée de la conf'. Trop occupé à troller l'open source et Linux versus GNU/Linux. :(

       * La conférence est pas mal, on apprend ce qu'est le logiciel libre, que l'open source et Linux c'est mal mais après ? Quels prolongements ? L'auditoire rentre chez lui et il doit se débrouiller tout seul ? Ça ne marchera jamais, il sera perdu dans l'immensité du travail à accomplir. Il faut des points d'entrée. Les LUG devraient proposer des ateliers ciblés pour débutants à la suite de ce type de conférences. La Maison du Libre a raté le coche.

       * rms a tout compris au logiciel libre et à l'open hardware mais il est totalement out sur les sujets de neutralité des réseaux, de décentralisation des usages, de réappropriation de l'infrastructure du réseau, de protection de la vie privée. Voir les exemples dans mes notes ci-dessus. Je pense qu'il est trop intelligent pour ne pas avoir compris les problématiques et les enjeux et qu'il n'a tout simplement pas envie de militer pour ces sujets supplémentaires, une forme de "chacun son taff". Je peux l'entendre mais quand on a une influence certaine, il est inadmissible de dire, durant une conférence, qu'un serveur intermédiaire dans une communication comme GMail est tolérable ou que Google Search est tolérable car ça laisse entendre, dans les deux cas, qu'on ne peut rien faire de mieux, de plus morale, de plus respectueux des utilisateurs. Ce qui est faux.
    Wed Aug 5 16:57:02 2015 - permalink -
    - http://linuxfr.org/news/retour-sur-la-conference-donnee-par-richard-stallman-le-12-mai-2015-a-brest
    nomarkdown
  • John von Neumann | ARTE

    « Peu connu du grand public, le mathématicien hongrois John von Neumann (1903-1957) a pourtant élaboré des théories qui ont définitivement changé le cours de l'humanité. Installé aux États-Unis à partir de 1930, il a contribué aux découvertes les plus fondamentales (théorie des jeux, intelligence artificielle, physique statistique, entre autres) du siècle dernier et a initié la révolution informatique. [...] Pionnier de l'informatique, il conçoit Maniac, un calculateur utile aux tests de la bombe H et ancêtre des premiers ordinateurs. »

    ÈDIT DU 09/08/2015 À 18H : Vu.
        * 1903 - 1957. Haute bourgeoisie du début du 20e siècle par son père, banquier. Enfance à Budapest. Arrière-plan culturel juif ;

        * « Von Neumann » = titre de noblesse donné par l'empereur François-Joseph Ier d'Autriche à son père pour sa participation à l'effort de guerre ;

        * Théories : automates cellulaires, architecture des systèmes de traitement de l'information, similitudes entre cerveau humain et ordinateur, théorie du jeu, théorie de la destruction mutuelle assurée, fondement mathématique de la mécanique quantique, pseudo-hasard par utilisation de suites numériques,... ;

        * Intelligent et créatif (il trouvait des solutions originales selon ses comparses). Von Neumann ne découvre pas, il explique. Il n'approfondit pas, il laisse le soin à d'autres de développer ses idées ;

        * En 1919, révolution bolchevique -> esprit "mort aux banquiers" -> sa famille est menacée. Quelques mois après, c'est la montée d'un antisémitisme dans toute la société. Cela le marquera et sera déterminant dans beaucoup de choix (notamment le fait de conseiller une guerre préventive nucléaire contre l'URSS) ;

        * En 1930, l'Europe est instable, les USA prennent conscience de leur retard en mathématiques et vont chercher les meilleurs mathématiciens en EU. Sa nouvelle vie ? Consultant pour les armées britanniques et américaines : le calcul de trajectoire lui a plu dès son enfance. Il organisait chez lui de grandes réceptions où se retrouvait l'élite intellectuelle dans une ambiance conviviale, rappelant celles des cafés intellectuels de Berlin, par exemple ; Il aimait l'alcool fort et les blagues salaces ;

        * Pendant la seconde guerre mondiale, il participera à l'élaboration de la bombe atomique, au calcul de la hauteur optimale (car elle conditionne les dégâts) lors du largage sur Nagasaki, au choix des cibles (son choix ne sera pas retenu). Note : Hitler n'a pas compris la portée de l'arme nucléaire car il la considérait comme une « idée de savant juif » ;

        * Von Neumann était un grand pessimiste de la nature humaine : il pensait que la probabilité que l'humanité se détruise par un manque de contrôle des instruments qu'elle a créés était forte ;

        * 1945 : architecture Von Neumann des systèmes de traitement de l'information (une mémoire, un traitement central et une unité de traitement des données). Il écrit 3 pages de recommandations. Il veut améliorer l'ENIAC en ne faisait plus la différence entre le calcul (réalisé sur la machine) et la programmation (mains humaines, cartes perforées,...) -> MANIAC. Usage initial prévu : calculs pour la bombe H puis prévision à long terme du climat car il voyait sa maîtrise comme une arme encore plus forte que les armes nucléaires. Il établit que l'on peut fabriquer des ordinateurs fiables à partir de composants non fiables tant que le pourcentage de non fiable reste en dessous d'une limite ;

        * Il avait compris l'accélération constante du progrès technologique : la langue parlée a mis 100000 ans pour s'imposer, la langue écrite a mis 10000 ans, la presse a mis 400 ans, le téléphone 50 ans, le téléphone portable 7 ans, les réseaux sociaux et autres : 2 ans ;

        * Meurt d'un cancer qui a détruit ses facultés intellectuelles.
    FIN DE L'ÉDIT
    Wed Aug 5 13:03:14 2015 - permalink -
    - http://www.arte.tv/guide/fr/050347-000/john-von-neumann
    nomarkdown
Links per page: 20 50 100
◄Older
page 32 / 99
Newer►
Mentions légales identiques à celles de mon blog | CC BY-SA 3.0

Shaarli - The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community