Aller au contenu | Aller au menu | Aller à la recherche

Stratégie cyber technologique

Je me posais la question de décrire une stratégie technologique du cyber. Sachant que je n'y connais pas grand chose, voici comment j organiserai les recherches : mais là, jai vraiment besoin de votre aide pour préciser et développer.....

source (un article expliquant que la meilleure défense, c'est la cyberattaque)

Je commencerai par décrire les deux couches basses : la couche matérielle et la couche logicielle, et laisserai de côté la couche cognitive ou (sémantique).

Sur la couche matérielle : serveurs, câbles, liaisons radio, liaison satellites) et support (hangar, refroidissement, production d'énergie électrique, duplication/sauvegarde, ...

Sur la couche logicielle : couches logicielles, réseaux reliés ou isolés, défense périmétrique ou dans la profondeur, ....

J'évoquerai la question de la régulation technique : ICANN, DARPA, ...

Je parlerai des protocoles : IPv4, IPv6, MNP, ...

Je décrirai les bases industrielles et technologiques de cyberdéfense (les différents acteurs, grand pays par grand pays).

Et je poserai enfin la question des cyber-techno-stratégies

Et puis..

Ben là, vous me dites ce qui manque...

O. Kempf

Commentaires

1. Le dimanche 22 avril 2012, 22:21 par

Ouh la, il y a certainement beaucoup à dire. Sur le site de l'ENISA, il y a un rapport sur le cloud computing qui donne une bonne idée des enjeux économiques, technologiques, mais aussi, parfois en creux, des possibilités de contrôle des données...
Je proposerais de passer pas mal de temps sur le cloud.
Une partie sur le phénomène socio-idéologique de la piraterie pourrait être passionnant, surtout traité par Egea!

egea : pour le colloque sur la revolte, deux interventions sur wikileaks et anonymous... N'est pas la piraterie a proprement parler, mais la piraterie me semble plus appartenir a la criminalite....

2. Le dimanche 22 avril 2012, 22:21 par Dan Merry

Bonsoir,

Il faudra parler des data centres qui sont à notre époque ce que les centrales nucleaires ont été à une autre. Les enjeux sont émormes avec les tendances du cloud et big data.

egea : oui, les data centers seront decrits dans la couche physique.

3. Le dimanche 22 avril 2012, 22:21 par Pierre-Louis Lamballais

Pour présenter le problème, je commencerais pas expliquer que tout ceci va reposer sur l'informatique et que l'informatique possède la particularité d'être "un produit" que l'on génère avec lui même. Par exemple si je veux construire une voiture, il me faut une presse à emboutir. La presse, ce n'est pas la voiture. De plus, la presse coute beaucoup plus cher que la voiture. En revanche, pour produire un logiciel qui va tourner sur une machine, il me faut juste une machine équivalente. En clair, pour faire un logiciel comme Windows, il me faut juste un PC, pour faire MacOSX il me faut juste un Mac. La partie "matériel" n'est donc pas un frein. La partie "logiciel" non plus: les outils de développement sont gratuits et se trouvent facilement sur le Net.
Ce qui va faire la différence c'est le niveau de chaque personne mais aussi le niveau d'organisation. Or là, on touche un point sensible: pour faire un gros outil, il faut être nombreux et avoir une bonne organisation: faire tout, tout seul, ce n'est plus jouable. Donc on monte une équipe, mais chaque "bout" de code doit "coller" avec le bout de code du copain. C'est vers quoi ont été des langages tels que Modula 2 ou Obéron par exemple, qui ont cherché à améliorer ces "coutures.

C'est cette difficulté qui a donné des outils de "gestion de projet" ou des outils de contrôle de version. Voir par exemple l'excellent site du STSC (http://www.crosstalkonline.org/ ) dont soit dit en passant le dernier numéro est intitulé "Securing a mobile world".

Ou les choses se compliquent c'est que la masse de code d'un système est tellement grande que ce n'est plus "testable" car le nombre de possible est trop important. On opte donc pour des méthodes de qualité. Comme dans l'industrie: ma voiture n'a jamais fait de crash test sinon elle serait toute cassée. Donc comment peut-on me vendre une voiture en me disant qu'elle résiste au crash test? Simplement parce que la fabrication est "répétable". On arrive donc dans une logique de "faire bien sans tester", qui vient du "Clean room" de l'électronique. Je ne peux plus fabriquer de la m... et éliminer les mauvais composants après test. Je dois fabriquer en enceinte confinée pour avoir un produit "clean" dés le départ.

C'est la démarche de CMM (Capability Maturity Model) et CMMi qui traitent de qualité logiciel. Le système possède des niveaux (voir http://en.wikipedia.org/wiki/Capabi... avec la liste des niveaux). En France très peu d'entreprises on réussi à atteindre le niveau 3 (il y a Alitec à Laval par exemple). Où les choses rejoignent fortement la "stratégie" c'est lorsque l'on sait que le pays au monde où il y a le plus de Sté CMM-5 c'est... l'Inde. Car là bas, la "qualité logiciel" est un axe gouvernemental.
Pour le fun:
http://www.citehr.com/225772-cmm-5-...

Le "hic" principal c'est que pour avoir une telle qualité, l'investissement est énorme. Mais que le "petit trou" est décelable par n'importe qui. En fait, un simple adolescent un peu chanceux peut trouver par hasard le défaut de la cuirasse. Et en fin de compte, toutes les tentatives pour avoir une cuirasse sans défaut semble aussi illusoire que tous les efforts que les éditeurs de logiciel ont fait, pendant des années, pour empêcher le piratage et la copie des disquettes.
Car dans ce domaine, plus c'est difficile à "craquer" plus on va essayer...

Amitiés
Pierre-Louis

egea : tres interesant, merci du comment. Ce que je note au passage, c'est que l'individu ne peut par lui-meme construire qq chose de complexe. En revanche, un individu peut trouver le defaut de la cuirasse. Toutefois, ce trou sera rapidement repare. Par exemple, Stuxnet est visiblement trop complexe pour avoir ete concu par un seul acteur : il y avait une  equip[e, dirigee et qui d'ailleurs a probablement fait en sorte que Stuxnet fut visible. Bref, qui a voulu montrer un signature. Pour demontrer ses capacites.

4. Le dimanche 22 avril 2012, 22:21 par

Ouh la, voilà un vaste programme !

Une difficulté que l'on rencontre souvent, c'est quand même la vulgarisation et on tombe très vite dans la technique avec le risque de perte du sens.
En revanche, il y a un sujet que l'on peut ajouter: le cloud, qui présente de vrais enjeux de maîtrise de l'information avec des problématiques techniques, juridiques, mais aussi de protection des données sensibles qui valent la peine de s'y consacrer.
Je conseillerais de récupérer sur le site de l'ENISA un rapport qu'ils ont sorti sur le Cloud et qui résume bien tous les problèmes qui y sont liés.

5. Le dimanche 22 avril 2012, 22:21 par Patrice Defrance

Passer en IPv6, pourquoi ?

Question de la maturité de l’IPv6 ?
C’est un fait banalement historique, en raison du nombre d’adresse IPv4 notoirement insuffisant qui leur a été attribué à l’époque, les principaux pays émergents n’ont d’autre choix que l’IPv6 pour couvrir leur besoin. La forte demande est principalement le fait de l’Inde, de la Chine et du Brésil. Ces pays, ayant des pans entiers de leur industrie qui a déjà émergé, se manifestent, et poussent fortement à utiliser les services d’IPv6 sur Internet.
C’est au travers de l’Internet que la demande IPv6 est la plus visible. Les grands providers (fournisseurs d’accès) internationaux ne peuvent plus ignorer ce mouvement de fond et ont déjà basculés. Ils offrent maintenant des services IPv6, tout comme la plupart des grands fournisseurs de services Internet (exemple Google) qui suivent le courant porteur.
La demande vient principalement des pays émergeants, la maturité du protocole IPv6 est en cours (Observer les évolutions de l’adressage ipv 6 par plaques : http://v6asns.ripe.net/v/6). Pour les « vieux » pays occidentaux confortablement installés dans l’IPv4, le risque est de devenir suiveur et non pas plus être prescripteur.

Des défauts d’implémentation du protocole IPv6 dans les équipements de première génération ?
Les RFC ayant définit les protocoles de l’IPv6 sont complètes et disponibles depuis le milieu des années 1990. Au début des années 2000, les différents constructeurs de matériel de routage proposaient des équipements qui traitaient les protocoles IPv 6, mais après de nombreux tests, l’implémentation des protocoles s’avère bogué et inexploitables
Ces défauts d’implémentation des RFC IPv6 a « refroidi » pas mal d’utilisateurs, par effet redondant, ils entraînaient aussi une incompatibilité entre équipements de marques différentes. Les utilisateurs ont alors pris la sage décision de ne pas basculer sur IPv6. Faute de demande, les constructeurs arrêtèrent les développements. La situation restant figé cette fin de décennie 2000-2010.
Depuis le début des années 2010, les débuts de la réussite de l’IPv6 sur Internet impliquent que les constructeurs se calquent sur le mouvement. Les constructeurs se penchent à nouveau sur l’implémentation des RFC de l’IPv6 et relancent leur R&D. Dans leur roadmap 2012, la plupart des grands équipementiers mondiaux ont pour objectif IPv6 dans leur catalogue d’équipement.
Comme c’est devenu une habitude avec l’Internet (mondialisation oblige), c’est l’adoption par une communauté d’un standard ouvert qui permet l’adoption du standard par les industriels. Les potentielles parts de marché et volumes à produire suffisent généralement à convaincre les plus réticents…

Problématique du traitement des protocoles IPv6 en ASIC’s (application-specific integrated circuit - composant de surface spécifique avec logique câblée) ?
La logique logiciel a certes des avantages, mais dans un automate (un routeur est un automate), le logiciel est générateur de charge processeur et de consommation énergétique (donc de chaleur et de besoin en dissipation) dans la courbe normale d’utilisation de l’équipement. La logique cablée ASIC est la technologie actuelle des automates, même si à terme la technologie FPGA devrait normalement la détrôner, dès que les coûts de production à fréquence de travail atteindront celles des ASIC’s (pour les 1Gbt/s et 10Gbt/s).
A l’heure actuelle, les protocoles IPv6 de niveau simple (UNICAST) sont disponibles au format ASIC. Mais dès qu’il s’agit d’implémenter un protocole IPv6 un tant soit peu « compliqué » (ex : MULTICAST), les constructeurs ont eu tendances à préférer la solution logicielle (tournant sur les processeurs de l’équipement), ce qui limite la capacité de « monté en charge ».
Compte tenu de la demande en cours, les protocoles compliqués vont inexorablement être descendu sur des ASIC’s. La problématique de sécurité sera alors de contrôler les sources et l’origine de cette production de composants de surface, et de bien qualifier leur « contenu ». Paranoïa sécuritaire diront certain, ils devraient se rappeler le raid israélien en Syrie en 2007 ; selon l’explication la plus souvent avancée, les services de Tsahal auraient pris la mains sur une partie de la chaine radar syrienne, afin de rendre « invisible » leur raid aérien, grâce à leur maitrise des protocoles réseaux …

Passer un réseau local (LAN/MAN) sous IPv6 ?
Cela pose la problématique de la compatibilité des mondes IPv4 et IPv6, ainsi que celui du renouvellement des équipements en place. En effet, comment justifier les très hauts niveaux d’investissements nécessaires par le seul prétexte du changement de la norme. Cette nouvelle version des protocoles IP amène t’elle une valeur ajoutée suffisante pour nécessiter de tel investissement CAPEX ? Pour qu’elle rentabilité de services Métiers améliorés ou supplémentaires ?
Pour l’accès des utilisateurs on pourra garder les « anciens » commutateur (Swich) de niveau 2 (quand ils existent encore), ils sont autant compatibles avec IPv6 qu’ils l’étaient pour IPv4. C’est au niveau des équipements de routage de cœur ou les équipements de distribution d’accès de niveau 3 que se pose le souci actuel dans l’implémentation des couches et des protocoles IPv6. Car pour qualifier ces équipements, il faut tester l’implémentation IPv6 des actuels services mis en place pour le filtrage, le routage (statique ou dynamique) et la redondance (VRRP), cela complique sérieusement la donne en terme de levé de risque, sans parler de la compatibilité entre marques différentes…..
Dans le cadre de réseau étendus multi-protocole IP, il faudra attendre encore pour les notions de passerelles directe entre adresse IPv4 vers adresse IPv6 (et vice-versa), elles sont en cours de R&D et ne sont pas encore au point.
La fonction de tunneling entre les deux mondes protocolaire est par contre déjà opérationnelle, on peut faire traverser un nuage IPv4 par des paquets IPv6, et inversement. Les deux mondes sont donc « inter-opérationnels » l’un au travers de l’autre si les équipements en place le permettent, mais les deux mondes ne sont pas encore « interopérables ».

Pour la France, quelle indépendance stratégique en terme de fournisseur d’équipement ?
Pour les tenants d’un constructeur français d’équipements aptes IPv6, quid du champion français Alcatel ? Partit très en retard sur l’IPv6 par rapport aux principaux leaders constructeurs mondiaux (CISCO, Juniper, Huawey, etc), ce retard se transforme finalement en opportunité, car Alcatel a développé sa technologie en dernier, analysant les déboires de ses challengers. C’est ainsi que lors de tests de qualification IPv6, il n’est pas surprenant que certain équipement Alcatel « anciens » (mis à jour logiciellement) arrivent en tête aux tests, par rapport des équipements concurrents plus récents.
Le problème pour Alcatel, depuis la fusion avec Lucent Tech, c’est qu’il est avant tout reconnu comme un leader des technologies de Backbone WAN (ATM et autre MPLS). On peut raisonnablement se poser la question pour les activités de réseau LAN-MAN de sa filiale Data-IP, et se demander si, à cours terme, Alcatel restera un fournisseur d’équipements réseaux LAN et de Téléphonie (où il y a occupé une position de leader reconnu pendant longtemps). La stratégie de « l’entreprise sans usine » fait encore des ravages à notre époque…
IPv6 peut il révéler une opportunité d’un retour stratégique de la filiale Data-IP chez Alcatel-Lucent? La maitrise des ASIC’s (et/ou FPGA) IPv6 s’avèrerait t’elle stratégique pour les fonctions de souveraineté ? L’Etat au travers le FSN peut il appuyer cette technologie ?
Il est un fait avéré en technologie de l’information : on ne peut maitriser les applications critiques temps réel qu’en maitrisant parfaitement les couches réseaux. Un Etat français, misant à fond sur la dématérialisation et les systèmes d’information pour sa sécurité et sa défense (livre blanc 2008), peut il ne pas se préoccuper d’une certaine maitrise et indépendance dans les composants de surface des services des couches réseaux ?

Et la sécurité lié à IPv6 ?
IPv6 a la réputation d’être nativement plus sécurisé qu’iPv4. A l’utilisation, on peut simplement faire le constat que IPv6 pose rigoureusement les mêmes problématiques qu’IPv4, quelques exemples :
Concernant le protocole IPSEC : issus du monde IPv6, il et a été « descendu » sur IPv4. IPSEC permet de créer des VPN point à point, toute la problématique tient dans la gestion des clefs et des certificats qui se révèle totalement …ingérable dès que le nombre de point à gérer augmente. La gestion des clefs se révèle aussi lourde sous IPv6 qu’elle l’est déjà sous IPv4.

Concernant les équipements de sécurité (firewall) : absolument rien ne change pour les infrastructures de sécurité entre IPv6 et IPv4, le besoin en équipement de sécurité sera rigoureusement la même (Firewall, sonde, etc…), l’architecture de sécurité et des réseaux resteront au cœur de l’urbanisation des systèmes. La question qui se pose dans un premier temps est la compatibilité entre équipements actuels et ceux gérant l’IPv6, se sera une histoire de puissance de calcul et de bande passante interne à l’équipement (Path throught des équipements), de nécessité, de priorité, et donc de coûts, de choix ou d’arbitrage. On en revient aux besoins en services Métiers, au choix de l’organisation opérationnelle, et aux besoins technologiques permettant un appui pragmatique de la décision.

Alors pourquoi passer à IPv6 ?
Historiquement, les pays occidentaux et les principales entreprises des télécoms du « vieux monde » occidental ont hérités d’un grand nombre d’adresse IPv4. La réussite de l’Internet comme support de la mondialisation économique et financière, en moins de 15 années, remet tout à plat et voit toute une série de pays émerger et être fortement demandeur d’adresse IPv4 (qui ne se révèlent pas être disponibles). Même si les ingénieurs et scientifiques avaient rapidement anticipé dans les années 1990 en créant les RFC de l’IPv6 (format papier), la gouvernance mondiale de l’Internet et les industriels n’ont pas su anticiper le déploiement opérationnel.
L’indisponibilité d’adresse IPv4 est venue impacter directement la très forte demande des pays émergeant dans le cadre de leur développement, ils en ressentent une forme extrême d’injustice. On veut bien les croire, mais cette remarque se fait à postériori, et mis à part la Chine qui a investit sur de grand champion dans les Télécom (Huawey), les autres pays se plaignent par principe, comme il est de bon ton de se plaindre systématiquement de la responsabilité des USA et de l’Europe….

Mais il n’y a pas que le phénomène de mimétisme généré par l’Internet. L’explosion mondiale du marché des Xphone (PDAphone, tablettes, etc..), les prémisses du développement des marchés de la distribution de l’énergie couplé au besoin de la domotique (libéralisation du marché de l’énergie en Europe), les potentiels besoins de l’automobile, vont générer une explosion de la demande en adressage IP pour le marché des équipements d’extrémités.
Le potentiel de l’IPv6 n’est plus une problématique d’avenir pour le Marché mondial, c’est un fait au présent. À l’issue de l’été 2012, il ne devrait plus y avoir beaucoup d’adressage dIPv4 disponible à la vente. Les quelques entreprises des télécom occidentales qui disposent encore de Slot d’adresse IPv4 les vendent aux enchères, au plus offrant. La fin 2012 sera donc la véritable émergence de l’IPv6 au niveau mondial au travers de l’Internet. Les équipements de routage et de distribution ne sont pas encore totalement disponibles, mais la demande très forte va pousser les équipementiers à accélérer les développements et la mise à jour de ceux en service. D’ici 10 ans la totalité des équipements se raccordant au monde Internet seront « Full IPv6 ».

A l’heure actuelle, pour un ensemblier ou un intégrateur de solution réseau embarqués, mettre à disposition des équipements intégrant nativement les protocoles IPv6 est un argument de démarcation dans le cadre des propositions ou offres commerciales à destination des pays émergents.

6. Le dimanche 22 avril 2012, 22:21 par Patrice Defrance

Military Network Protocol
Les USA ont lancé en 2009 via un appel à projet de la DARPA (DARPA-BAA-09-11, Military Networking Protocol), qui recherche une rupture (part two, chap 1 : … … des avancées révolutionnaires face à l’actuel état de l'art. Sont expressément exclus de la recherche sur les améliorations évolutives à l'état actuel de la pratique.), avec des services d’identification et de hiérarchisation des utilisateurs, un auto-dimentionnement de la bande passante et une décision de qualité de service, avec une sécurité par authentification obligatoire.

part two, chap 1.1 : L’objectif du programme MNP est de développer un système de hiérarchisation du réseau avec de nombreux niveaux utilisateur. Les protocoles, les technologies et les dispositifs développés devront identifier explicitement (de-anonymize) les transitant au travers du réseau utilisant la technologie MNP. Identifier explicitement le trafic réseau permettra à l'infrastructure réseau de fournir des niveaux de hiérarchisation explicitant à la fois l'individu (end-user) et l'unité de rattachement, de réaffecter la bande passante entre les utilisateurs ou les catégories d'utilisateurs, et faire automatiquement de la décision de qualité de service.
Le trafic identifié explicitement sera compatible avec l'infrastructure de transit existant (protocoles Internet). Les réseaux compatibles MNP doivent pouvoir autoriser ou refuser l'entrée ou le transit aux flux de données non authentifiées, ils devront transmettre les données aussi vite (ou plus rapidement) que les protocoles réseau existants. Les moyens et matériel mis au point dans le cadre de ce programme seront auto-configurables et permettront de réduire considérablement la nécessité de disposer de personnels ainsi que les coûts global de maintenance du réseau.

Bien que certaines parties du programme MNP soient classés SECRET, des parties importantes du programme ne sont pas classifiés, mais des recherches sur sources ouvertes n’ont pas permit d’en apprendre plus au delà des noms de quelques scientifiques ayant travaillés sur le projet.

Le projet a été remporté par Raytheon BBN en juillet 2011 (http://investor.raytheon.com/phoeni...). Depuis cette date DARPA et fournisseur retenu en sont en phase de prototype et maquette en vue de qualification du niveau TRL final.

Selon que ce projet sera mené à son terme ou pas, on peut d’or et déjà parié qu’il fera office de norme et standard d’interopérabilité auprès des principaux alliés et alliance. L’OTAN n’est pas très loin, la BITD US liée Télécom et aux systèmes devrait largement bénéficier très en amont de l’effet de maitrise US de la norme, la BITD Européenne se verra peut être offrir un strapontin.

Basée sur des éléments de hiérarchisation des utilisateurs, d’auto-dimensionnement de la bande-passante réseau et de cryptage, la partie ouverte ou « civile » de cette norme viendra combler un réel besoin dans l’utilisation des réseaux de communication non-militaire. En effet, le besoin en unification des protocoles pour la mobilité IP n’est plus à démontrer : demain, ce ne sont pas seulement les utilisateurs finaux que devront avoir des IP mobiles, mais aussi les serveurs d’application virtualités qui devront pouvoir migrer au travers du grand Nuage pour des raison de coûts, d’adaptation à l’utilisateur, de green impact jour/nuit, de PRA et de résilience. Deux sous standardisations sont en cours de développement à l’IETF (des chercheurs français du LIP6 y participent): les plans de contrôle LISP et TRILL permettront d’adapter des contextes où les localisations de niveau 2 (@Mac) et de niveau 3 (@IP) changent très fréquemment. Mais ceci reste une évolution de la norme existante, certes totalement indispensable, mais ce pas une rupture comme souhaité dans le cadre de MNP.
Le DoD US (dont dépend la DARPA) aurait il tiré de l’expérience Israélo-syrienne de 2007 des enseignement à long terme (et cycle de vie des technologie) sur la trop grande ouverture et connaissance des protocoles Internet dans le cadre de la sécurité nationale ? Dans le cadre d’une cyber stratégie, pour se donner des marges de manouvre et de la liberté d’action, il faut rendre flou le milieu d’usage.

Les réseaux sont le milieu support du cyber monde. Le DoD démontre ainsi son approche en terme de cyber stratégie. Pour l’Europe et la France, sommes nous capable de tirer une approche cyber stratégique des mêmes enseignements ?

égéa : J'ajouterai que si j'ai bien compris, MNP permet daller au-delà d'IP v6. En effet, les Occidentaux maîtrisent IP v dans lequel ils ont le nombre d'adresses dont ils ont besoin. Et ils l'ont amélioré en ajoutant des couches de sécurité qui manquaient. IP v6 est surtout développé par les Asiatiques : d'une part pour avoir un système intégré et sécuritairement assuré, d'autre part pour s'attribuer le nombre d'adresse IP qu'il leur manque. Mais si les asiatiques ont de l'avance sur IPv6, cela n'arrange pas les Occidentaux et notamment les Américains. D'où l'intérêt de développer un nouveau protocole, MMNP.

Là où se situe l'enjeu, c'est celui de la maîtrise des protocoles. En effet, MNP pourra être fournis aux amis et alliés... mais qui garantit qu'il n'y a pas de backdoors ?

Derrière ce cas particulier des protocoles internet, c'est toute la stratégie de souveraineté des systèmes industriels qui est soulevée. Vous êtes un industriel d'un pays X, qui dépend donc pour une bonne part de l'export. Vous allez donc voir le pays H pour lui vendre votre système. Celui-ci l'achètera, mais se débrouillera pour ajouter tout de suite sa couche perso de sécurité, sa couche "nationale et souveraine" de sécurité. Il n'aura jamais la garantie qu'il n'existe pas de back door. CEla justifie d'ailleurs la persistance d'industriels européens et notamment français ou allemands : on s'en méfie moins, de par les monde, que des Chinois ou des Américains...

7. Le dimanche 22 avril 2012, 22:21 par Pierre-Louis Lamballais

Une autre remarque: d'un point de vue stratégique, on lit ici depuis pas mal de temps des infos mettant en avant la dissymétrie de plus en plus grande dans les conflits. Là, avec le Cyber,les grandes puissances semblent se lancer à corps perdu dans une direction, sans (j'ai l'impression) se rendre compte que là, c'est 100% symétrique mais à l'avantage des petits! On est plus dans le cas du char contre le bâton (t'as pas l'argent? T'as qu'un bâton), on est dans le cas de l'ordinateur acheté à New-York contre le même ordinateur acheté à Kaboul...
Aujourd'hui, les Iraniens décortiquent soit disant un drone "made in US" et les Américains clament haut et fort qu'ils n'y arriveront pas. ça fait doucement sourire!

égéa : en fait, je ne crois pas à l'asymétrie mais je crois quand même à la dissymétrie. Autrement dit, il y a quand même un effet taille qui joue. Mais on ne peut pas le contourner aussi facilement (et systémiquement) que ça.

8. Le dimanche 22 avril 2012, 22:21 par Pierre-Louis Lamballais

Juste encore pour le fun et pour montrer que ça risque de devenir bien vite plus compliqué qu'on pense...
Article décrivant point à point les process de Stuxnet:
https://github.com/Laurelai/decompi...
Une partie du code décompilé de Stuxnet:
https://github.com/Laurelai/decompi...

9. Le dimanche 22 avril 2012, 22:21 par Pierre-Louis Lamballais

Bien d'accord avec OK sur les dernières remarques. De plus, les systèmes qui vont bloquer? Aller une anecdote: j'allais très souvent télécharger CrossTalk (journal sur la qualité logicielle) avant le 11 Sept. A partir de cette date, les IP non-US étaient filtrées. Pourquoi? Parce que CrossTalk était hébergé sur le site de la base Hill dans l'Utah, base qui développe les outils logiciel pour les B1, les missiles MinuteMan etc..

Gênant parce que CrossTalk c'est une revue sympa. Il m'a fallut "au moins" 10 min pour contourner la protection et continuer à aller tranquillement télécharger ma lecture favorite.

Dans le milieu de la qualité logiciel, on dit qu'un voiture, des fois ça tombe en panne. Et un logiciel, des fois ça tombe en marche.

égéa : ds le genre des formules que j'adore : un camion, ça tombe en panne, un avion en panne, ça tombe.

10. Le dimanche 22 avril 2012, 22:21 par

"N'est pas la piraterie a proprement parler, mais la piraterie me semble plus appartenir a la criminalité...."

Mmh, plus aujourd'hui. Le terme pirate au sens cyber du terme est devenu neutre. On peut aujourd'hui préciser en parlant de white, black, ou grey hats.

J'ajoute que le poids qu'Internet prend socialement aujourd'hui est un point central de toute la cyber stratégie, tout simplement parce qu'avant un conflit, il y a un peuple. Dans le cas d'Internet, les réactions des internautes et des communautés a un poids tel dans la balance qu'il ne faut certainement pas le laisser de coté.

11. Le dimanche 22 avril 2012, 22:21 par

En terme de technologies voici à mon sens quelques tendances lourdes:

1/le cloud computing bien sûr, mais cette notion ne veux plus finalement dire grand chose: elle est très vaste et recouvre de nombreux aspects. C'est d'avantage une tendance naturelle qu'une technologie.

2/L’ingénierie sociale: là est le domaine de développement le plus prometteur et sans doute le plus important, car il apporte la puissance à qui le maîtrise. En changeant les comportements, en façonnant les opinions, les possibilités que ces technologies recouvrent donnent le vertige (jusqu'à la vision d'une société totalitaire ou la sciences fiction d'un Matrix ...)

3/ Les nouvelles interfaces homme/machine: implants, robots, drones, lunettes à réalité augmentée, papier numérique, holographie: ces nouveaux périphériques transformeront le cyberespace et son utilisation (aspect "multiplicateur de puissance")

4/Enfin, pour finir sur un aspect théorique: la cryptanalyse et l'intelligence artificielle sont les deux domaines roi des cyber-technologies. L'une assure la liberté d'action mais aussi l'anticipation, l'autre assure automatisation. Conjuguées, elles conduisent à la maîtrise des données qui transitent sur les réseaux: autant dire qu'elle sont la clé de son contrôle. L'immense centre de données que la NSA est en train de construire dans un désert de l'utah préfigure cette vision (http://www.wired.com/threatlevel/20...).

Cordialement

egea : merci pour ces fructueuses remarques. Juste une demande de précision : pouvez vous détailler ce que vous entendez par ingénierie sociale ? Est-ce réellement de la technologie ?

12. Le dimanche 22 avril 2012, 22:21 par

Le terme de "technologie" peut toujours être discuté, puisque l’ingénierie sociale recouvre un ensemble de techniques qui sont principalement logicielles.

Cependant, dans le cyberespace la "technologie" est bien souvent purement logicielle.

Actuellement l'ingénierie sociale va des techniques de fishing (ou filoutage en français;) aux moteurs de référencements en passant par divers outils ad-hoc permettant d'influer d'autres couches logicielles du cyberespace (blog, Twiter, Facebook ...). L’ingénierie sociale économique (competitive social engineering) utilise par exemple des outils appelés "Pots de miel informationnels". Ces pots de miel informationnels, qui permettent de leurrer, d'influencer ou de recueillir des renseignements ne sont pas en soi des ruptures technologiques; c'est l'usage qui en est fait qui affirme leur originalité.

Si je vous accorde qu'actuellement, l'ingénierie sociale est davantage un ensemble de techniques qu'une technologie à proprement parler, vu le contrôle qu'elle est en mesure d'exercer, elle sera un enjeu du développement logiciel des années à venir.

(Sur ce sujet je conseille l'excellent MISC N°59 Janvier/Février)

13. Le dimanche 22 avril 2012, 22:21 par Pierre-Louis Lamballais

http://www.zdnet.fr/actualites/a-qu...

14. Le dimanche 22 avril 2012, 22:21 par Jean Quinio

L'état français vient de décider s'injecter 75 millions d'€ dans le projet Andromede. La technique au service de la souveraineté. Retour des frontières. Cdlt.

Ajouter un commentaire

Le code HTML est affiché comme du texte et les adresses web sont automatiquement transformées.

La discussion continue ailleurs

URL de rétrolien : http://www.egeablog.net/index.php?trackback/1390

Fil des commentaires de ce billet