Quand le chiffrement des données est mis à mal par des mathématiciens

Quand le chiffrement des données est mis à mal par des mathématiciens

Alice et Bob répètent en boucle : jusqu'ici, tout va bien

Avatar de l'auteur
Sébastien Gavois

Publié dans

Internet

04/08/2014 18 minutes
61

Quand le chiffrement des données est mis à mal par des mathématiciens

En mai dernier, la conférence Eurocrypt 2014 se tenait à Copenhague. Quatre chercheurs du CNRS, de l'INRIA et du Laboratoire d'informatique de Paris 6 y présentaient leurs travaux sur un algorithme qui met à mal certains systèmes de chiffrement. Depuis, nous avons pu nous entretenir avec l'un d'entre eux : Emmanuel Thomé. Si les conséquences restent pour le moment mesurées, il s'agit néanmoins d'un nouveau coup de semonce dans le petit monde de la cryptographie.

Je chiffre et tu déchiffres, mais « ils » décryptent

Avant toute chose, il est important d'apporter quelques précisions sur les termes utilisés en cryptographie. On parle en effet de « chiffrer » un message afin de le rendre incompréhensible, puis de le « déchiffrer » lorsque l'on dispose de la clé adéquate. Si ce n'est pas le cas, il s'agit alors de le « décrypter ». De son côté, l'Agence nationale de la sécurité des systèmes d’information (ANSSI) rappelle qu'« on entend cependant souvent parler de « cryptage » qui est un anglicisme, voire de « chiffrage », mais ces mots sont incorrects », ils ne devraient donc pas être utilisés dans le cas de la cryptographie. 

 

Quoi qu'il en soit, le chiffrement des données occupe une place de plus en plus importante dans notre vie quotidienne, poussé en partie par le numérique qui s'installe dans tous les domaines d'activités et le besoin croissant de sécurité. Transactions bancaires, achats de produits en ligne, conversations privées entre amis, emails, échange de documents sensibles, conversations sur IP, objets connectés, ou encore stockage des données sont autant d'exemples où la cryptographie et la sécurité jouent désormais un rôle central. Et si cela est vrai pour le grand public, cela prend une plus grande ampleur pour les entreprises, les institutions et même les pays, et ce ne sont pas les révélations d'Edward Snowden qui nous inciterons à penser le contraire.

Le chiffrement RSA, l'un des plus utilisés repose sur un postulat des plus basiques

Le principe de base du chiffrement est de modifier les données afin de les rendre incompréhensibles, sauf si l'on dispose de la clé permettant de les déchiffrer. De fait, même si vos conversations ou vos données venaient à être interceptées ou volées, il ne serait pas possible de les exploiter en l'état, à moins de les décrypter, ce qui peut prendre du temps, beaucoup de temps. Dans certains cas, il est en effet question de plusieurs milliards d'années avec une méthode basique.

 

C'est d'ailleurs sur cet élément que l'on juge la fiabilité d'un chiffrement. Car au final, la question n'est généralement pas de savoir s'il tombera, mais plutôt quand, ou au bout de combien de temps. Il existe actuellement de nombreux algorithmes, l'un des plus connus étant certainement le RSA du nom des trois chercheurs qui l'ont mis au point : Ronald Rivest, Adi Shamir et Leonard Adleman. Il est dit asymétrique puisqu'il fonctionne avec une paire de clés : l'une privée et l'autre publique, et repose sur la factorisation des entiers et les nombres premiers.

 

Cryptographie RSA
Du RSA 2048 bits utilisé sur le site des impôts

 

Pour faire simple, si multiplier deux nombres premiers p et q entre eux est relativement rapide pour n'importe quel ordinateur, le factoriser – c'est-à-dire retrouver p et q à partir de leur produit – est une autre paire de manches, surtout lorsque la taille des nombres augmente. Notez que l'on parle ici d'un nombre composé de plusieurs centaines de chiffres.

 

Sur le papier cela ne pose pas de souci particulier, mais cela se complique dans la pratique puisqu'il n'existe (encore ?) pas d'algorithme permettant de simplifier à l'extrême cette tâche. Il faut alors chercher les nombres p et q en testant des combinaisons les unes après les autres et en vérifiant qu'il s'agit bien de nombres premiers. Problème, même avec des ordinateurs ultra-puissants, cela demande beaucoup de temps puisque la durée augmente de manière exponentielle avec la taille des nombres.

RSA-768 est tombé il y a quatre ans, mais les autres résistent encore

Il existe d'ailleurs un concours de factorisation. RSA-768, qui est composé de 232 chiffres, est le dernier à être tombé en 2010 sous l'attaque de l'équipe CARAMEL, dont nous allons avoir l'occasion de reparler un peu plus tard.

 

RSA 768
La multiplication des deux nombres donne 12301866845301177551304949583849... puis encore 200 autres chiffres

 

Actuellement, on utilise couramment des clés asymétriques sur 2048 / 4096 bits ce qui devrait laisser une marge plutôt confortable, surtout dans le second cas. C'est d'ailleurs ce que recommande l'ANSII.

Une découverte qui, selon le CNRS, « secoue la cryptographie »

Dans l'histoire de la cryptographie, on a déjà vu d'autres systèmes de chiffrements tomber très rapidement, et ce, quelle que soit la clé utilisée. On se souviendra par exemple du WEP, un algorithme dérivé du RC-4, que l'on retrouvait dans le Wi-Fi au début des années 2000. Ratifié par l'IEEE 802.11, ce protocole de sécurité tombera rapidement à cause de plusieurs faiblesses dans sa conception. Quelques années plus tard, il ne faut plus que quelques minutes pour casser une clé WEP et certains logiciels comme Aircrack s'en font une spécialité. Il doit donc être éradiqué et remplacé par le WPA / WPA2. Cet exemple montre bien ce qu'une petite brèche dans un algorithme peut donner au final.

 

Justement, lors de la conférence Eurocrypt 2014 qui se tenait récemment à Copenhague, quatre chercheurs exposaient leurs travaux sur un nouvel algorithme (une formule mathématique) qui, selon le Centre National de la Recherche Scientifique (CNRS), « secoue la cryptographie ». Il s'agit de Pierrick Gaudry, de Razvan Barbulescu, d'Emmanuel Thomé et d'Antoine Joux. Les trois premiers font partie de l'équipe CARAMEL qui a cassé le RSA-768, tandis qu'Antoine Joux est un expert en sécurité chez CryptoExperts qui a gagné le prix Gödel en 2013. Autant dire que les quatre chercheurs n'en sont pas à leur coup d'essai et leurs travaux jouissent déjà d'une certaine réputation.

Quelles sont les implications sur les systèmes de chiffrement ?

« Secoue », le terme employé par le CNRS est fort. Mais il n'a pas été utilisé sans raison puisque leur découverte met à mal certains systèmes de chiffrement basés sur le logarithme discret et facilite grandement leur résolution. Si cela ne vous parle pas, le Loria (Laboratoire Lorrain de recherche en informatique et ses applications) donne quelques exemples concrets en expliquant que le logarithme discret « permet, entre autres, de sécuriser et fiabiliser de nombreux systèmes, comme les transactions financières via Internet ou le VPN ». Le laboratoire ne s'arrête pas là et enfonce le clou en revenant sur les travaux des quatre chercheurs : « étudié depuis plus de trois décennies, le problème semblait aussi dur que la factorisation (RSA) et cela pour n'importe quelle instance ». Le parallèle avec le RSA est intéressant, car ce dernier est largement utilisé aujourd'hui.

 

Si le logarithme discret n'est pas spécialement connu du grand public, en tout cas bien moins que le RSA, il reste tout de même très important. En 2012, François Morain, cryptographe au laboratoire LIX de l'école Polytechnique, expliquait sur le site des Editions Diamond que « contrairement au problème de la factorisation d’entiers qui attire beaucoup d’attention car il est lié de très près à la sécurité du cryptosystème RSA et du contenu de nos portefeuilles, celui du logarithme a reçu moins de lumière, alors qu’il est tout aussi important, sinon plus ». En effet, il indique que « les tunnels sécurisés sont souvent basés sur des protocoles proches du protocole historique de Diffie et Hellman [NDLR : qui exploite le logarithme discret]. La sécurité du tunnel repose sur la résistance de certains groupes finis aux algorithmes de calcul de logarithme discret ». 

 

La question est maintenant de savoir s'il faut ou non avoir « peur » pour la confidentialité de nos données et des transactions sur internet. Va-t-on se retrouver prochainement dans la même situation que pour le système de chiffrement WEP, mais avec des conséquences bien plus importantes ? Pour avoir plus de détails sur les tenants et les aboutissants de cette histoire, nous avons pu nous entretenir avec Emmanuel Thomé, chercheur à l'INRIA, mais également l'un des quatre mathématiciens à l'origine de cette découverte.

Emmanuel Thomé, chercheur au CNRS, répond à nos questions sur « son » algorithme

  

Emmanuel Thomé

 

Tout d'abord, il est important de rappeler que ce n'est pas la première fois que les travaux de ce quatuor sont rendus publics. En effet, cette avancée majeure date du début de l'année dernière et leur travail avait alors déjà été mis en ligne. Nous avons donc tout d'abord commencé par interroger Emmanuel Thomé sur l'évolution de ces travaux durant l'année passée, afin de savoir quels avaient été les changements apportés entre la première publication début 2013 et la présentation qui s'est déroulée à Copenhague.

 

Le chercheur nous précise que ce temps a été mis à profit afin de remettre en ordre la présentation de l'algorithme, mais aussi afin de valider certains points. Il n'y a pas eu de nouvelle « révolution » durant ce laps de temps. 

Là où il est question de logarithme discret et de corps mathématiques

Il ajoute qu'il ne s'agit toujours que d'un travail théorique et nous précise aussi que le passage à la pratique n'est pas obligatoire et qu'il n'a pas toujours lieu dans ce genre de cas. De toute façon, il faut bien avouer que dans le petit monde de la sécurité informatique, connaître une méthode permettant de casser un code suffit à le faire tomber en disgrâce. Car le danger, même potentiel, pourrait avoir des impacts trop importants pour être négligé.

 

Emmanuel Thomé nous a ensuite précisé que l'algorithme mis au point par son équipe ne fonctionne pour le moment que sur un champ d'action restreint : le logarithme discret sur des corps de petite caractéristique. Pour faire simple, un corps mathématique est un ensemble comprenant plusieurs éléments, suivants certaines règles. On peut par exemple citer les nombres rationnels, les réels, les complexes, etc. D'autres types de corps, utilisés en cryptographie ont un nombre fini d'éléments. Ce nombre est toujours une puissance d'un nombre premier, et ce nombre premier est appelé la caractéristique. Par exemple un corps à 2^160 éléments est de caractéristique 2

 

De son côté, le logarithme discret est une formule mathématique, proche du logarithme « traditionnel », mais que l'on utilise dans d'autres des groupes mathématiques que les nombres réels. À titre d'exemple, le logarithme de 100 en base 10 est 2 (10^2 = 100). On appelle sa réciproque, la fonction exponentielle. On peut ainsi passer de l'un à l'autre grâce à des calculs mathématiques, ce qui est utilisé comme base pour certains systèmes de chiffrement.

Une évolution possible vers d'autres systèmes de chiffrement, y compris le RSA

Bien évidemment, la question du passage à d'autres corps mathématiques est envisagée, mais il reste encore d'importantes barrières à franchir pour que cela puisse fonctionner. En tout état de cause, ce n'est pas le cas actuellement. Sur de grands corps mathématiques, on retrouve des systèmes de chiffrement comme Diffie-Hellman et El Gamal, ce dernier étant d'ailleurs présent dans certaines versions de GnuPG et de PGP.

 

Il ne sont donc pas touchés par l'algorithme des quatre chercheurs pour le moment. Mais pour Thomé, il n'est pas illogique de penser qu'il pourrait aussi s'attaquer au chiffrement RSA, même si c'est loin d'être le cas actuellement.

 

Cryptographie
De toute façon, on peut en faire ce qu'on veut, tous les messages finiront par devenir des 0 et des 1

Une évolution pas simple, certains chiffrements offrent moins de « prises » que d'autres

Il nous précise tout de même que dans la pratique les choses ne sont néanmoins pas simples. En effet, en faisant une analogie avec un alpiniste qui tente de grimper une paroi qui n'a jamais été franchie, l'algorithme sur le logarithme discret dans les corps de petites caractéristiques proposait déjà quelques points d'accroches afin de commencer l'ascension, ce qui n'est pas toujours le cas. Par exemple, les algorithmes basés sur le logarithme discret dans le groupe des courbes elliptiques offrent bien moins de prises dès le départ et s'attaquer à ce code est donc bien plus difficile.

 

Pour autant, il tient à se montrer rassurant et à préciser que ce n'est pas encore demain qu'un site comme Amazon par exemple tombera sous les coups de son algorithme. Mais dans le monde de la cryptographie qui, pour rappel, repose sur des calculs mathématiques et sur le temps nécessaire à les mener à bien, l'impact est important. Encore une fois, la question n'est pas de savoir si un code tombera, mais quand.

Quid de la sécurité des codes actuels ? Tout n'est finalement que question de temps...

Ces travaux ont des répercussions sur d'autres expérimentations en cours, notamment en ce qui concerne le chiffrement par couplages qui était en cours de développement par plusieurs laboratoires de recherche et qui prennent donc de plein fouet ce nouvel algorithme. Emmanuel Thomé précise que la plupart des travaux sur les couplages en petite caractéristique ont été stoppés net.

 

Nous avons alors abordé un sujet plus vaste sur la cryptographie et la résistance des codes dans le temps. En effet, lorsque l'on crée un code cryptographique, un des éléments de base est de déterminer la durée pendant laquelle on souhaite qu'il soit fiable et donc qu'il résiste aux attaques. 

 

Le chercheur du CNRS nous a cité deux exemples. Tout d'abord, les passeports qui ont une durée de validité de 10 ans. Il ne faut donc pas que le chiffrement puisse être cassé durant ce laps de temps, finalement assez court. D'un autre côté, le stockage de documents chiffrés avec une clé asymétrique et là, la situation est bien différente. Notre interlocuteur ne prendrait en effet pas de paris sur la sécurité d'un tel chiffrement pendant une durée d'un siècle par exemple, ce qui peut paraître relativement long, mais finalement assez court selon les points de vues et les documents concernés. D'autant plus que la puissance de calcul dans le monde de l'informatique ne cesse de croitre et qu'il est de plus en plus facile d'accéder à de gros « clusters ».

... et cela dépend grandement de la taille de votre clé de chiffrement

Quel que soit l'algorithme utilisé, il est donc bien important de bien dimensionner sa clé. Dans le cas du RSA par exemple, on a pu remarquer qu'une clé sur 768 bits était cassable et il vaut donc mieux aller largement plus haut. Néanmoins, pour d'autres systèmes de chiffrement, une clé de 128 bits peut être largement suffisante, cela dépend en fait des corps mathématiques sur lesquels elles s'appliquent.

 

Afin de donner quelques idées, l'ANSSI (Agence nationale de la sécurité des systèmes d’information) indique des règles ainsi que des recommandations sur la taille minimale des clés que l'on doit utiliser. On les trouve au sein de ce document : le référentiel général de sécurité (v 2.0 du 26 avril 2012). Certains diront que les niveaux sont trop faibles afin que l'agence puisse, si besoin casser les codes, mais dans tous les cas il s'agit d'une base de travail intéressante.

 

En voici deux exemples :

  • Clé symétrique (DES par exemple) : 100 bits jusqu'en 2020, 128 bits ensuite
  • Clé asymétrique (RSA par exemple) : 2048 bits jusqu'en 2030, 3072 bits ensuite

L'agence précise par contre un point important concernant les clés asymétriques : « la taille des modules RSA est un sujet souvent très polémique. L’usage courant fait que l’utilisation de modules de 1024 bits est en général considérée comme suffisante pour garantir une sécurité pratique, même si les analyses effectuées par les plus grands spécialistes du domaine s’accordent sur l’idée que de tels modules n’apportent pas une sécurité suffisante, ou tout du moins comparable à celle que l’on exige des autres mécanismes cryptographiques ».

 

En effet, même si une clé sur 1024 bits n'a pas été factorisée pour le moment, le principe de précaution veut que l'on passe au minimum au cran du dessus. De plus, les révélations faites par Edward Snowden sur les agissements de la NSA laissent penser que l'agence américaine dispose d'une capacité de calcul phénoménale, la prudence doit donc être de mise suivant le degré de sécurité recherché. Puis, il devient assez facile d'utiliser des clés de 2048 ou de 4096 bits, donc pourquoi s'en priver ?

 

Cryptographie ANSSI

Crédit image : référentiel de l'ANSSI, page 47

 

Du côté de PGP, l'outil de chiffrement créé par Phil Zimmermann et récupéré par Symantec, on est un peu plus prudent et on prend comme base de travail une étude des Dr Lenstra et Verheul : « selon leurs calculs, une clé sur 2048 bits devrait [NDLR : notez l'emploi du conditionnel par les scientifiques] protéger vos secrets jusqu'en 2020, même contre des adversaires bien informés et disposant de nombreuses ressources (la NSA par exemple). Contre les adversaires de moindre importance comme les multinationales, vos secrets devraient être protégés beaucoup plus longtemps d'une attaque par force brute, même avec une clé de seulement 1024 bits ». Cette dernière hypothèse semble tout de même bien légère et on ne saurait que vous conseiller de passer au 2048 bits, voire tout simplement au 4096 bits pour être tranquille.

 

Pour rappel, il n'existe aucune limitation en France en ce qui concerne la taille d'une clé de chiffrement, au moins pour les particuliers, et ce depuis 2004. Libre à vous d'en choisir une aussi longue que vous le souhaitez, mais attention avec la taille le temps de traitement des données augmente aussi.

Un chiffrement totalement inviolable existe, du moins en théorie

Sachez enfin qu'il existe au moins un code totalement inviolable, mais à condition de respecter strictement certaines règles : le chiffre de Vernam (ou masque jetable). C'est le cas d'une permutation aléatoire de l'alphabet, qui serait réellement aléatoire, ce qui est tout sauf simple, avec une clé de chiffrement qui soit au moins aussi longue que le message à chiffrer.

 

En effet, avec ce système de chiffrement, il est impossible de savoir si un mot de huit lettres donnera éclatées, vagirons, macramés, japonnés... et l'on pourrait prendre les 38341 mots trouvés par ici comme exemple. Seule solution pour le savoir : connaitre la clé. Notez au passage qu'il serait totalement inutile de tenter une analyse séquentielle sur le texte chiffré afin de déterminer la lettre la plus utilisée, qui est généralement le e, car la permutation change de manière aléatoire à chaque fois.

 

L'histoire raconte qu'il s'agirait du procédé utilisé entre le Kremlin (Russie) et la Maison Blanche (États-Unis) pour sécuriser le fameux « téléphone rouge ». Dans cette situation, il reste tout de même un problème de taille : faire transiter les clés qui doivent absolument rester secrètes puisqu'il suffit que quelqu'un les intercepte pour qu'il accède ensuite à toutes les correspondances chiffrés.

Doit-on devenir totalement paranoïaque ? Non, enfin pas plus que d'habitude 

Quoi qu'il en soit, la question principale était la suivante : faut-il avoir peur des systèmes de chiffrement actuels et de l'annonce des quatre chercheurs ? En effet, pour la plupart des utilisateurs il n'est pas toujours évident de faire la part des choses.

 

Mais n'ayez pas trop d'inquiétude dans l'immédiat, car la réponse est non... du moins pour le moment. Le coup de semonce évoqué ici ne remet pas en cause la sécurité des sites qui utilisent souvent d'autres systèmes de chiffrement que le logarithme discret sur les corps de petites caractéristiques. De plus, la relève est déjà en route avec la cryptographie quantique, que ce soit pour l'échange de clés ou le chiffrement des messages, mais il s'agit là d'un tout autre sujet.

 

Cryptographie

 

De plus, comme nous avons pu le voir avec Heartbleed, les problèmes de sécurité ont bien plus de chances de venir d'une faille d'un des protocoles, et nous ne parlerons même pas de la crédulité des utilisateurs et donc de la première des faiblesses : celle située entre la chaise et le clavier.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Je chiffre et tu déchiffres, mais « ils » décryptent

Le chiffrement RSA, l'un des plus utilisés repose sur un postulat des plus basiques

RSA-768 est tombé il y a quatre ans, mais les autres résistent encore

Une découverte qui, selon le CNRS, « secoue la cryptographie »

Quelles sont les implications sur les systèmes de chiffrement ?

Emmanuel Thomé, chercheur au CNRS, répond à nos questions sur « son » algorithme

Là où il est question de logarithme discret et de corps mathématiques

Une évolution possible vers d'autres systèmes de chiffrement, y compris le RSA

Une évolution pas simple, certains chiffrements offrent moins de « prises » que d'autres

Quid de la sécurité des codes actuels ? Tout n'est finalement que question de temps...

... et cela dépend grandement de la taille de votre clé de chiffrement

Un chiffrement totalement inviolable existe, du moins en théorie

Doit-on devenir totalement paranoïaque ? Non, enfin pas plus que d'habitude 

Fermer

Commentaires (61)




Actuellement, on utilise couramment des clés asymétriques sur 2096 / 4096 bits





2048 ?



Une allergie au jeu sans doute ;-)








tsyr2ko a écrit :









Il y a un bouton pour ça :)



Depuis le temps que les algorithmes de chiffrement par factorisation de nombres premiers sont connus, il fallait se douter que le temps et l’augmentation de la puissance de calculs des ordinateurs finiraient par au moins conduire à des brèches, si théoriques et peu applicables soient-elles.



Par contre le monde de la cryptographie est en train de se tourner vers de nouveaux algorithmes liés aux fonctions des courbes elliptiques qui sont sensés apporter la même sécurité tout en réduisant la puissance de calcul pour les machines. (intéressant à l’heure des smartphones et tablettes)




Un chiffrement totalement inviolable existe, du moins en théorie



Sachez enfin qu’il existe au moins un code totalement inviolable, mais à condition de respecter strictement certaines règles. C’est le cas d’une permutation aléatoire de l’alphabet, qui serait réellement aléatoire, ce qui est tout sauf simple, avec une clé de chiffrement qui soit au moins aussi longue que le message à chiffrer.



Du coup autant retenir/transmettre directement le message plutôt que la clé, non ?








Mihashi a écrit :



Du coup autant retenir/transmettre directement le message plutôt que la clé, non ?





Non, en transmettant la clé, tu permets de passer facilement plusieurs messages dans le futur.



Simple exemple : deux mecs se rencontrent, dans une salle sans micros etc, et génèrent une clé de 10000 caractères connus d’eux deux. Puis ils se séparent.

Ensuite, ils pourront se transmettre jusqu’à 10000 caractères entre eux sur n’importe quel canal (typiquement Internet) sans avoir à être tous les deux dans une même salle sécurisée. Une fois les 10000 caractères épuisés ils doivent se rencontrer à nouveau.





De plus, la relève est déjà en route avec la cryptographie quantique, que ce soit pour l’échange de clés ou le chiffrement des messages, mais il s’agit là d’un tout autre sujet.



Dommage, ça aurait été intéressant d’en savoir un peu plus que la page wikipedia <img data-src=" />





SInon, un peu de lecture avec Axolot, il y a toujours des sources d’inspirations <img data-src=" />


Ça c’est un bel article de qualité, dont je suis content d’être abonné ! :)



Un comme ça par semaine et vous multipliez par 10 le nombre d’abonnés ;)



J’attends la suite avec impatience. (s’il y a une suite)








Pikrass a écrit :



Non, en transmettant la clé, tu permets de passer facilement plusieurs messages dans le futur.



Simple exemple : deux mecs se rencontrent, dans une salle sans micros etc, et génèrent une clé de 10000 caractères connus d’eux deux. Puis ils se séparent.

Ensuite, ils pourront se transmettre jusqu’à 10000 caractères entre eux sur n’importe quel canal (typiquement Internet) sans avoir à être tous les deux dans une même salle sécurisée. Une fois les 10000 caractères épuisés ils doivent se rencontrer à nouveau.





Ok, vu comme ça, ça se défend.









Pikrass a écrit :



Non, en transmettant la clé, tu permets de passer facilement plusieurs messages dans le futur.



Simple exemple : deux mecs se rencontrent, dans une salle sans micros etc, et génèrent une clé de 10000 caractères connus d’eux deux. Puis ils se séparent.

Ensuite, ils pourront se transmettre jusqu’à 10000 caractères entre eux sur n’importe quel canal (typiquement Internet) sans avoir à être tous les deux dans une même salle sécurisée. Une fois les 10000 caractères épuisés ils doivent se rencontrer à nouveau.







J’ai du mal à saisir ce que tu veux dire par le passage en gras. Des explications seraient les bienvenues ^^









eliumnick a écrit :



J’ai du mal à saisir ce que tu veux dire par le passage en gras. Des explications seraient les bienvenues ^^





Le principe de cette méthode de chiffrement est assez simple, mais elle nécessite une clé « consommable ». Si tu réutilises la même clé, elle devient progressivement de plus en plus facile à casser.



Je vais prendre des bits pour faire simple. Imaginons que tu veuilles encoder “hi” en ASCII. Sous forme binaire ton message est :

01101000 01101001

Tu conviens d’une clé de 16 bits, au hasard. Disons :

10111011 01111111

Le message codé sera le xor bit-à-bit des deux :

11010011 00010110



Le seul moyen de retrouver le message est de connaître la clé et de refaire un xor. Mais si tu utilises la même clé tous les deux caractères, c’est très simple avec une méthode statistique de deviner la clé et le message.



Donc pour que ce soit efficace à 100% ta clé doit être jetable.



J’avais un pote qui bossait à l’INRIA.

C’est des philosophes de l’informatique là bas.



Dès que quelqu’un avait une super bonne (<img data-src=" />) idée de truc high tech de chiffrement de la mort et qu’il demandait à l’INRIA d’y jeter un œil…

Là, c’était le drame <img data-src=" />

Et le mec repartait la queue entre les pattes avec son idée à jeter dans un Mojito.








kade a écrit :



J’avais un pote qui bossait à l’INRIA.

C’est des philosophes de l’informatique là bas.



Dès que quelqu’un avait une super bonne (<img data-src=" />) idée de truc high tech de chiffrement de la mort et qu’il demandait à l’INRIA d’y jeter un œil…

Là, c’était le drame <img data-src=" />

Et le mec repartait la queue entre les pattes avec son idée à jeter dans un Mojito.





Non seulement il partait mal mais il finissait mal aussi, donc…



On peut se jeter un Mojito mais on ne jette rien dedans, bon sang !



Le graphique laisse penser que les records de factorisation tombent de manière linéaire, or RSA-1024 tient toujours bon (et les clés RSA 1024 bits d’une manière générale aussi à la condition que le générateur pseudo-aléatoire utilisé pour la génération de la clé soit bien codé). <img data-src=" />



L’algo utilisé pour attaquer ces bêtes (GNFS ou SNFS - qui a une complexité co-NP si je ne dis pas de bêtises) est certes capable de s’attaquer à un poil plus gros (le record est la factorisation d’un 1061 bits) mais sur des nombres spéciaux (le record fut fait sur un nombre de Mersenne - 2^1061 - 1 en l’occurrence - hourra pour les rennais qui y ont participé <img data-src=" /> <img data-src=" />) sur lesquelles la phase de recherche des bons polynômes - cruciale sur NFS - est grandement simplifiée. <img data-src=" />



Bon ceci dit - et comme le rappelle l’article - générer de la clé 2048 ou 4096 bits, ça coûte que dalle de nos jours et ça tiendra d’ici à ce que le quantique fasse sauter l’ensemble <img data-src=" />









WereWindle a écrit :



On peut se jeter un Mojito mais on ne jette rien dedans, bon sang !







HS / J’ai testé un Mojito Chartreuse y a pas longtemps. Après avoir pensé à une hérésie (je suis né dans le bled où se fabrique la liqueur et j’ai des principes) quelle ne fut pas ma surprise de découvrir un fort bon (et fort cher) breuvage <img data-src=" />









John Shaft a écrit :



HS / J’ai testé un Mojito Chartreuse y a pas longtemps. Après avoir pensé à une hérésie (je suis né dans le bled où se fabrique la liqueur et j’ai des principes) quelle ne fut pas ma surprise de découvrir un fort bon (et fort cher) breuvage <img data-src=" />





Pour moi, le meilleur c’est du Havana Club 3 ans, le sucre, la menthe pilée et du Champagne (voire, du Vouvray).

Edit : j’ai oublié le citron vert, of course.

Bon, ça cogne, c’est vrai.

Tu remplace le rhum par la chartreuse ???





WereWindle a écrit :



On peut se jeter un Mojito mais on ne jette rien dedans, bon sang !





<img data-src=" />

Désolé, j’aurais pas du.





En effet, avec ce système de chiffrement, il est impossible de savoir si un mot de huit lettres donnera éclatées, vagirons, macramés, japonnés… et l’on pourrait prendre les 38341 mots trouvés par ici comme exemple. Seule solution pour le savoir : connaitre la clé. Notez au passage qu’il serait totalement inutile de tenter une analyse séquentielle sur le texte chiffré afin de déterminer la lettre la plus utilisée, qui est généralement le e, car la permutation change de manière aléatoire à chaque fois.

Un rapport avec la machine Enigma, utilisée lors de la 2ème Guerre Mondiale ?








kade a écrit :



Tu remplace le rhum par la chartreuse ???







Yup, c’est que j’ai testé en l’occurrence dans un excellent bar à cocktail d’Osaka (dans le genre improbable <img data-src=" />)



Très étrange sur le papier mais très bon au final



J’ai compris qu’il fallait dire chiffrage au lieu de chiffrement. C’est déjà ça…



Le Parisien fait des sondages pour savoir si l’été est la saison la plus propice aux rencontres. Vous ne voudriez pas être un peu plus léger aussi ? J’attends avec INpatience un dossier sur les lolcats <img data-src=" />


Excellent article, ça fait plaisir de voir NXI sortir ce genre de papier <img data-src=" />



Y’a plus qu’à remettre ça lundi prochain.









Jarodd a écrit :



J’ai compris qu’il fallait dire chiffrage au lieu de chiffrement. C’est déjà ça…



Le Parisien fait des sondages pour savoir si l’été est la saison la plus propice aux rencontres. Vous ne voudriez pas être un peu plus léger aussi ? J’attends avec INpatience un dossier sur les lolcats <img data-src=" />





Parfois on rencontre des gens qui nous disent que l’on gagnerait à traiter du contenu plus court et plus léger ;) Après il faut de tout pour faire un monde, mais sans aller chercher jusqu’aux dérives parfois étranges des généralistes, on a des spécialistes du genre dans le monde IT qu’on nous cite parfois comme “référence”…









Jarodd a écrit :



J’ai compris qu’il fallait dire chiffrage au lieu de chiffrement. C’est déjà ça…





Non: chiffrement, chiffrage, déchiffrement, déchiffrage, tout ça c’est ok. Ce sont les opérations qu’on fait dans un sens ou dans l’autre quand on a la clef. C’est le décryptage qui est mal employé, car on l’emploie à tort pour parler de déchiffrement:





  • déchiffrement, c’est quand on part du message codé et qu’on retrouve le message en clair au moyen de la clef), alors que le décryptage



  • décryptage, c’est quand on part du message codé et qu’on retrouve le message en clair sans avoir la clef.



  • le cryptage n’existe quand à lui pas, c’est un mélange de franglais.













Arcy a écrit :



Un rapport avec la machine Enigma, utilisée lors de la 2ème Guerre Mondiale ?





Pas vraiment, mais comme j’ai la flemme



<img data-src=" /> Exellent article top a lire



Ah, oui. Un bémol à noter sur le chiffre de vernam (“Un chiffrement totalement inviolable existe, du moins en théorie”) et qui n’est pas négligeable :

Dans la pratique, il faut d’abord transmettre de manière sécurisée les différents “masques jetables”.

La méthode est inviolable oui, mais elle nécessite de s’assurer de partager les informations sur les masques au préalable. Plutôt facile pour les gouvernements russes et américains ; bien plus difficile pour tout à chacun.








brazomyna a écrit :



Non: chiffrement, chiffrage, déchiffrement, déchiffrage, tout ça c’est ok.





chiffrage, perso, je ne l’ai rencontré pour pour savoir combien de brouzoufs allait couter un projet. (oui à fond pour le reste)







David_L a écrit :



Parfois on rencontre des gens qui nous disent que l’on gagnerait à traiter du contenu plus court et plus léger ;) Après il faut de tout pour faire un monde, mais sans aller chercher jusqu’aux dérives parfois étranges des généralistes, on a des spécialistes du genre dans le monde IT qu’on nous cite parfois comme “référence”…





premier article demain : “les Anges de la Télé-Réalité VS les lolcats” analysé sur Twitter (en 140 caractères donc…)



bonne soirée/nuit <img data-src=" />









brazomyna a écrit :



Non: chiffrement, chiffrage, déchiffrement, déchiffrage, tout ça c’est ok. Ce sont les opérations qu’on fait dans un sens ou dans l’autre quand on a la clef. C’est le décryptage qui est mal employé, car on l’emploie à tort pour parler de déchiffrement:





  • déchiffrement, c’est quand on part du message codé et qu’on retrouve le message en clair au moyen de la clef), alors que le décryptage



  • décryptage, c’est quand on part du message codé et qu’on retrouve le message en clair sans avoir la clef.



  • le cryptage n’existe quand à lui pas, c’est un mélange de franglais.







    Crotte je me suis trompé tout-à-l’heure !

    Je voulais dire :



    J’ai compris qu’il fallait dire chiffrement au lieu de chiffrage.



    (et pas l’inverse)



    C’est l’ANSSI qui le dit, donc brazomynan’essaye pas de m’embrouiller <img data-src=" /> <img data-src=" />



Bon, il y a de l’alcool et des codes, manque plus que 007.








amikuns a écrit :



Bon, il y a de l’alcool et des codes, manque plus que 007.





Et (du) Q



<img data-src=" />









kade a écrit :



Pour moi, le meilleur c’est du Havana Club 3 ans, le sucre, la menthe pilée et du Champagne (voire, du Vouvray).

Edit : j’ai oublié le citron vert, of course.

Bon, ça cogne, c’est vrai.

Tu remplace le rhum par la chartreuse ???



<img data-src=" />

Désolé, j’aurais pas du.







“Havana Club 3 ans” c’est de la pisse comment le cocktail peut être bon ? Le seul vrai rhum c’est le martiniquais, voire le guadeloupéen ou le reunionais (mais les 2 derniers sont beaucoup moins bon).



Très bon article. <img data-src=" />



Si je voulais faire mon chieur, tant qu’à faire un paragraphe sur les spécificités du vocabulaire cryptographique, autant éviter de mélanger les notions de codage et de chiffrement ; mais en l’état je ne trouve pas que sa rédaction actuelle nuise à la compréhension de l’article. <img data-src=" />








Arcy a écrit :



Un rapport avec la machine Enigma, utilisée lors de la 2ème Guerre Mondiale ?







Non, aucun ;)



Le chiffre de Vernam n’est absolument pas pratique dans la quasi-totalité des cas <img data-src=" />



L’histoire de légalité des chiffrages supérieurs à 128bits ça n’existe plus?








Pikrass a écrit :



Le principe de cette méthode de chiffrement est assez simple, mais elle nécessite une clé « consommable ». Si tu réutilises la même clé, elle devient progressivement de plus en plus facile à casser.



Je vais prendre des bits pour faire simple. Imaginons que tu veuilles encoder “hi” en ASCII. Sous forme binaire ton message est :

01101000 01101001

Tu conviens d’une clé de 16 bits, au hasard. Disons :

10111011 01111111

Le message codé sera le xor bit-à-bit des deux :

11010011 00010110



Le seul moyen de retrouver le message est de connaître la clé et de refaire un xor. Mais si tu utilises la même clé tous les deux caractères, c’est très simple avec une méthode statistique de deviner la clé et le message.



Donc pour que ce soit efficace à 100% ta clé doit être jetable.







Merci pour l’explication









darkbeast a écrit :



“Havana Club 3 ans” c’est de la pisse comment le cocktail peut être bon ? Le seul vrai rhum c’est le martiniquais, voire le guadeloupéen ou le reunionais (mais les 2 derniers sont beaucoup moins bon).





J’aime la pisse, et ma famille aussi, ainsi que mes amis.

Tu viens avec ta copine ? Elle est pas farouche ?



Edit : sans compter qu’il est bien connu que l’origine du Mojito est la Guadeloupe <img data-src=" /> Donc le rhum quiva avec. OSEF. Aller, come on la Farouche !!









jinge a écrit :



L’histoire de légalité des chiffrages supérieurs à 128bits ça n’existe plus?







En France , la Loi pour la Confiance dans l’Économie Numérique (LCEN) du 21/06/04 rend l’utilisation des moyens de cryptologie libre. Article 30-I



Il est temps de se mettre à jour. :)



Un bon pavé comme on les aime!

<img data-src=" />

<img data-src=" />








David_L a écrit :



Parfois on rencontre des gens qui nous disent que l’on gagnerait à traiter du contenu plus court et plus léger ;) Après il faut de tout pour faire un monde, mais sans aller chercher jusqu’aux dérives parfois étranges des généralistes, on a des spécialistes du genre dans le monde IT qu’on nous cite parfois comme “référence”…





Excellent article de fond, très bien expliqué, MERCI !! <img data-src=" />



Je suis surpris qu’on mette tant de temps à passer aux courbes elliptiques, j’avais écrit l’algorithme pour chiffrer en ECC il y a 10 ans comme projet d’école ! Bon la génération du polygone premier (et pas du nombre premier contrairement à RSA !) prenait 16 bonnes heures sur nos machines de l’époque, mais le chiffrement était assez rapide lui !



Il me semble que c’est nativement dans Windows depuis Windows 7 d’ailleurs !



Déjà à l’époque, la thèse sur laquelle on s’était appuyée avec un pote indiquait que ça permettait bien plus que RSA… De mémoire, avec 128bits, c’était déjà plus sûr que le RSA 4096 !



Et pour le vocabulaire, le mot “chiffrage” existe, mais ça n’est pas de la cryptographie, mais de la compta !


Et article inaccessible sur l’appli iOS alors que je suis abonné! Ça devient relou franchement…

Je sais que développer une appli ça a un coup et que c’est complexe mais là 0 pointé!

Dommage je consulte majoritairement PCi depuis mon portable…








tibubu257 a écrit :



Et article inaccessible sur l’appli iOS alors que je suis abonné! Ça devient relou franchement…

Je sais que développer une appli ça a un coup et que c’est complexe mais là 0 pointé!

Dommage je consulte majoritairement PCi depuis mon portable…





Je fais remonter l’info à l’équipe technique. Mais oui, on aimerait bien aussi avoir une équipe de 5 dév ;) En attendant, tu dois avoir accès à l’article avec un simple “pull to refresh”









kade a écrit :



J’avais un pote qui bossait à l’INRIA.

C’est des philosophes de l’informatique là bas.



Dès que quelqu’un avait une super bonne (<img data-src=" />) idée de truc high tech de chiffrement de la mort et qu’il demandait à l’INRIA d’y jeter un œil…

Là, c’était le drame <img data-src=" />

Et le mec repartait la queue entre les pattes avec son idée à jeter dans un Mojito.







Euh ? Des philosophes de l’informatique ? Comment ça ?

L’INRIA c’est pas un institut de recherche avec des gens qui font de la théorie et la valident en implémentant les choses ?









iXce a écrit :



Euh ? Des philosophes de l’informatique ? Comment ça ?

L’INRIA c’est pas un institut de recherche avec des gens qui font de la théorie et la valident en implémentant les choses ?





Certes mais leur niveau est tellement loin du simple codage… Quand je les écoute ou lis, je suis loin de l’informatique au sens “basique” du terme.

Ça me fait penser donc à la philo (même si le terme ne convient pas vraiment).









polytan a écrit :



Ça c’est un bel article de qualité, dont je suis content d’être abonné ! :)



Un comme ça par semaine et vous multipliez par 10 le nombre d’abonnés ;)



J’attends la suite avec impatience. (s’il y a une suite)





+1 :)









kade a écrit :



J’aime la pisse, et ma famille aussi, ainsi que mes amis.

Tu viens avec ta copine ? Elle est pas farouche ?



Edit : sans compter qu’il est bien connu que l’origine du Mojito est la Guadeloupe <img data-src=" /> Donc le rhum quiva avec. OSEF. Aller, come on la Farouche !!







faudra pas pleurer quand je t’aurais fait marabouté





De toute façon, on peut en faire ce qu’on veut, tous les messages finiront pas devenir des 0 et des 1



<img data-src=" />



merci pour cet article, très INtéressant <img data-src=" />


Ah ben ça change des articles racoleurs du caca qui fait pipi…



ça rafraîchit !



Pour la science ! Pour les mojitos !!!



<img data-src=" />








polytan a écrit :



Ça c’est un bel article de qualité, dont je suis content d’être abonné ! :)



Un comme ça par semaine et vous multipliez par 10 le nombre d’abonnés ;)



J’attends la suite avec impatience. (s’il y a une suite)









Effectivement cet article a éveillé ma curiosité. <img data-src=" />

Du coup je viens de m’abonner pour 1 an. Merci PCI pour ces articles de qualitaÿ <img data-src=" />



Un très bon article de fond sur un sujet difficile et passionnant, j’ai bien fait de m’abonner !



Je recommande à tous la lecture de l’excellente Histoire des Codes Secrets de Simon Singh .http://fr.wikipedia.org/wiki/Histoire_des_codes_secrets._De_l’%C3%89gypte_de…








DavidoffSensei a écrit :



Un très bon article de fond sur un sujet difficile et passionnant, j’ai bien fait de m’abonner !



Je recommande à tous la lecture de l’excellente Histoire des Codes Secrets de Simon Singh .http://fr.wikipedia.org/wiki/Histoire_des_codes_secrets._De_l’%C3%89gypte_de… )





attention à la 2e parenthèse à la fin ça fait foirer le lien <img data-src=" />









eliumnick a écrit :



J’ai du mal à saisir ce que tu veux dire par le passage en gras. Des explications seraient les bienvenues ^^





En gros tu partages avec ton ami 10000 caractères qui constitueront les clés utilisées lors de vos prochains échanges.



À chaque fois que tu envoies un message, tu pioches dans les 10000 caractères autant de caractères que ton message en contient. Genre tu veux envoyer 200 caractères, tu prends les 200 premiers caractères, tu chiffres ton message et tu envoies le message chiffré.

Ensuite pour être sûr de ne plus réutiliser ces caractères tu les supprimes. Tu te retrouves donc avec 9800 caractères de clés.

Le destinataire fait la même de son côté. Il ne vous reste plus qu’à tous les 2 9800 caractères à utiliser. Et quand il ne vous restent plus de caractères il n’est plus possible de chiffrer de façon sûres les messages, il faut donc rééchanger une clé de chiffrement.



C’est une méthode de chiffrement parfaite uniquement si les clés ne sont utilisées qu’une et une seule fois. D’où l’intérêt de ne pas réutiliser la clé et donc de ne pas envoyer de message plus long que la clé.

Don si ta clé fait 10000 caractères, il ne faut pas envoyer plus de 10000 caractères.









Glyphe a écrit :



Depuis le temps que les algorithmes de chiffrement par factorisation de nombres premiers sont connus, il fallait se douter que le temps et l’augmentation de la puissance de calculs des ordinateurs finiraient par au moins conduire à des brèches, si théoriques et peu applicables soient-elles.







C’est faux de croire que c’est l’augmentation de la puissance de calcul des ordinateurs qui permet de casser les clés. Augmenter la puissance de calcul de 10 ou 100, face à un problème exponentiel ça sert à rien. Ce qui est intéressant ce sont les progrès sur les méthodes permettant de réduire le nombre de valeurs à tester.









John Shaft a écrit :



Bon ceci dit - et comme le rappelle l’article - générer de la clé 2048 ou 4096 bits, ça coûte que dalle de nos jours et ça tiendra d’ici à ce que le quantique fasse sauter l’ensemble <img data-src=" />







Voir aussi les ordinateurs à ADN. Ça met du temps à démarrer mais une fois lancé, ya de la puissance dispo <img data-src=" />.









Max81 a écrit :



Voir aussi les ordinateurs à ADN. Ça met du temps à démarrer mais une fois lancé, ya de la puissance dispo <img data-src=" />.







9 mois pour initialiser le BIOS et env. 20 ans pour booter l’OS. C’est pas encore super au point <img data-src=" />



<img data-src=" />









Max81 a écrit :



C’est faux de croire que c’est l’augmentation de la puissance de calcul des ordinateurs qui permet de casser les clés. Augmenter la puissance de calcul de 10 ou 100, face à un problème exponentiel ça sert à rien. Ce qui est intéressant ce sont les progrès sur les méthodes permettant de réduire le nombre de valeurs à tester.





+1



Merci pour l’article, extrêmement intéressant. Je suis content de vous soutenir pour ce contenu <img data-src=" />



PS : bien envie de couler une chartreuse ce soir <img data-src=" />








David_L a écrit :



Je fais remonter l’info à l’équipe technique. Mais oui, on aimerait bien aussi avoir une équipe de 5 dév ;) En attendant, tu dois avoir accès à l’article avec un simple “pull to refresh”







Je ne comprends pas l’intérêt de l’app pour votre site ? La version mobile n’est pas suffisante ? En tout cas, elle marche bien et devrait pouvoir satisfaire une grande partie des besoins, non ?









Max81 a écrit :



C’est faux de croire que c’est l’augmentation de la puissance de calcul des ordinateurs qui permet de casser les clés. Augmenter la puissance de calcul de 10 ou 100, face à un problème exponentiel ça sert à rien.





Pourquoi ? Si tu mets 10 ans à casser “bêtement” un chiffrage, en décuplant tes capacités de calcul (qui augmentent a priori elles aussi de façon exponentielle) tu n’en mettras qu’un, non ?

Après je suis d’accord que c’est la démarche bête, et que les progrès mathématiques sont plus intéressants, mais de là à dire que ça ne sert à rien, j’ai l’impression qu’il y a une différence de taille.









polytan a écrit :



Je ne comprends pas l’intérêt de l’app pour votre site ? La version mobile n’est pas suffisante ? En tout cas, elle marche bien et devrait pouvoir satisfaire une grande partie des besoins, non ?





Si tu veux utiliser le site mobile, tu as le site mobile. Sinon il y a l’app. Chacun ses préférences, et on a de la demande dans les deux camps. On essaie de satisfaire les demandes tant que possible :)









TZDZ a écrit :



Pourquoi ? Si tu mets 10 ans à casser “bêtement” un chiffrage, en décuplant tes capacités de calcul (qui augmentent a priori elles aussi de façon exponentielle) tu n’en mettras qu’un, non ?







Ton hypothèse « qui augmentent a priori elles aussi de façon exponentielle » me paraît un peu rapide. L’augmentation de la puissance des machines actuelles est lente (ce n’est pas contradictoire avec exponentielle, c’est une question de base), et en dehors d’un saut technologique c’est compliqué.







TZDZ a écrit :



Après je suis d’accord que c’est la démarche bête, et que les progrès mathématiques sont plus intéressants, mais de là à dire que ça ne sert à rien, j’ai l’impression qu’il y a une différence de taille.







La crypto se base sur des principes du type : pour casser la clé, il faudrait plusieurs millions d’années au minimum. Donc même si dans 10 ans tu as un ordinateur 1000 fois plus rapide, il te faudra encore des milliers d’années. (les concepteurs de ces algos ne sont pas stupides, ils veulent pas que leur truc puisse être cassé par simple augmentation de la puissance de calcul dans 10 ans)



Par contre si mathématiquement t’es capable d’apporter une nouvelle approche pour casser la clé qui n’avait pas été prévue, tu peux considérablement réduire le nombre de cas à tester. Et là on parle pas d’un facteur de 10, 100 ou 1000, mais beaucoup beaucoup plus potentiellement.



C’est un peu comme si tu étais dans le désert à la recherche d’un trésor. Le gars qui a planqué le trésor a pris pour hypothèse que la chance de tomber dessus par hasard est nulle et il te faudrait des millions d’années pour tout explorer à pied.

C’est pas avec l’achat d’un véhicule qui te permettra d’explorer 1000 fois plus vite que tu vas t’en sortir pour autant. Par contre si tu trouves une méthode à laquelle le gars n’avait pas pensé et qui te permet de ne pas avoir à tout explorer, tu vas peut être pouvoir t’en sortir.









TZDZ a écrit :



Pourquoi ? Si tu mets 10 ans à casser “bêtement” un chiffrage, en décuplant tes capacités de calcul (qui augmentent a priori elles aussi de façon exponentielle) tu n’en mettras qu’un, non ?

Après je suis d’accord que c’est la démarche bête, et que les progrès mathématiques sont plus intéressants, mais de là à dire que ça ne sert à rien, j’ai l’impression qu’il y a une différence de taille.





Malheureusement la loi de Moore est en panne pour la puissance de calcul. Ca redécollera ptètre avec une grande avancée (les ordis quantiques ou autre chose) mais je sais pas si ça redeviendra vraiment exponentiel un jour.



Sinon, le problème avec ton raisonnement, c’est que même si toi t’arrives à avoir un ordi 100 fois plus performant, moi j’ai juste à augmenter ma clé de quelques bits pour t’outrepasser complétement. Quelques bits de plus ça me coûte pas grand chose mais ça multiplie le temps de calcul nécessaire exponentiellement. Donc je gagnerai toujours la course tant que tu n’arriveras pas à résoudre le problème en temps polynomial (ou au moins à réduire d’assez le nombres de valeurs à tester).









David_L a écrit :



Je fais remonter l’info à l’équipe technique. Mais oui, on aimerait bien aussi avoir une équipe de 5 dév ;) En attendant, tu dois avoir accès à l’article avec un simple “pull to refresh”





Tiens, ça m’a frappé là comme ça, mais vous n’avez jamais envisagé de libérer un peu de votre code ? Ou au moins le passer open source. Des lecteurs seraient peut-être intéressés pour vous aider pour certaines choses.



Super article, Sébastien, merci… Et content d’être abonné…


article très intéressant, même si de nombreux concepts mathématiques me dépassent. Merci <img data-src=" />

Mais

Quoi qu’il en soit, la question principale était la suivante : faut-il avoir peur des systèmes de chiffrement actuels et de l’annonce des quatre chercheurs ? En effet, pour la plupart des utilisateurs il n’est pas toujours évident de faire la part des choses.

Mais n’ayez pas trop d’inquiétude dans l’immédiat, car la réponse est non… du moins pour le moment.



il manque la question de la capacité d’écoute et de stockage actuels (plus ou moins légalement), compris de communications chiffrées aujourd’hui, qui ressortiront dans x ans en clair.

Bien content d’être un gros beauf quarantenaire.