IBM, en tête depuis des années dans le classements des dépôts de brevets, pourrait révolutionner le monde de l’informatique avec la présentation récente de travaux sur la lumière : le mariage de l’optique et de l’électronique classique au sein d’équipements prêts à entrer en production de masse.
Crédits : Robert Scoble, licence Creative Commons
Maîtriser la lumière
L’optique représente dans l’informatique une certaine forme de Graal. Sa capacité de transport de l’information attire depuis longtemps mais sa maîtrise s’est toujours heurtée à un mur. En effet, l'infrastructure nécessaire à son utilisation est radicalement différente de ce que l’industrie informatique utilise depuis plusieurs décennies : le circuit imprimé et le transistor. Comment relier alors l’onde lumineuse au transport traditionnel des électrons ?
En 2010, IBM avait présenté des travaux sur une technologie nommée « Silicon Nanophotonics ». Il s’agissait alors, comme le rappelle Ars Technica, de concevoir une machine dotée d’une monstrueuse puissance de calcul pour le compte du NCSA (National Center for Supercomputing Applications) de l’université américaine de l’Illinois. Le projet, nommé Blue Waters, fut finalement abandonné car la technologie n’était pas encore prête. Big Blue a cependant continué à travailler sur la pièce maîtresse, l’émetteur-récepteur, en vue de la rendre propre à une production de masse.
La firme est finalement parvenue aux résultats escomptés. Elle est arrivée à produire une puce intégrant à la fois des composants photoniques et des composants électroniques via une gravure d’une finesse inférieure à 100 nm. Plus exactement, la puce est capable de convertir les signaux d’une partie à une autre sans pratiquement aucune latence, ouvrant la voie de gigantesques flots de données dans des infrastructures telles que les centres de données (datacenters).
Rassembler deux mondes très différents
Contrairement à l’informatique standard, les puces d’IBM permettent de transporter l’information à la vitesse de la lumière en se servant des impulsions au lieu du courant électrique. Tant que l’onde peut circuler, elle n’est pas affectée par les problèmes inhérents à l’électricité et que l’ingénierie d’IBM, Intel ou AMD a pu rencontrer jusqu’à aujourd’hui dans les processeurs. Par exemple : un équilibre délicat entre la finesse de gravure, l’échauffement des transistors voire les pertes d’électrons. On se souvient d’ailleurs qu’IBM avait introduit la technologie SOI (silicon-on-insulator) pour réduire les pertes, et que l’on retrouvait alors dans les Athlon d’AMD.
Pour mieux comprendre le fonctionnement de la puce d’IBM, il faut observer l’image ci-dessus. Ce « cube » présente un fonctionnement simple dans son ensemble : un détecteur photonique, en rouge à gauche, et un modulateur, en bleu à droite, font figure d’entrée et de sortie pour les impulsions lumineuses. Le reste est constitué d’un empilement de neuf étages métalliques.
Cette deuxième image montre comment la lumière et l'électricité interagissent. Les courbes bleues représentent les guides lumineux transportant les impulsions. Ils sont en contact avec les parties jaunes, des réseaux de structures en cuivre dans lesquels circulent les signaux électriques. On retrouve bien la « fusion » des deux structures.
De larges perspectives
IBM a en outre réussi à produire sa puce dans un classique procédé CMOS d’une finesse de 90 nm. Selon la firme, cela ouvre la porte à la production de nombreux composants tels que des modulateurs ou encore des multiplexeurs ultra-compacts. Un seul émetteur-récepteur utilisant la technologie d’IBM peut transférer plus de 25 Gb/s. Les « silicon nanophotonics » peuvent également embarquer des composants réalisant du multiplexage en longueur d'onde. C’est d’ailleurs là une clé de l’évolution pour IBM : la possibilité de multiplexer de grands flux de données à très haute vitesse entre des zones distantes d’équipements informatiques, sans passer par des équipements supplémentaires pour convertir le signal.
Les retombées devraient se faire en priorité sur les équipements réseaux qui servent d’infrastructure maîtresse dans les centres de données. La communication entre les différentes machines pourrait se faire à des vitesses bien supérieures à aujourd’hui. Pour une intégration plus fine cependant, il faudra attendre encore.
Les travaux d’IBM seront présentés plus en détail la semaine lors de la conférence IEEE International Electron Devices Meeting (IEDM). Comme indiqué cependant par le docteur John E. Kelly, il s’agit dans tous les cas pour IBM d’une « percée technologique », le « résultat de plus de dix ans de recherches pionnières ».
Notez qu'en dépit de l'enthousiasme d'IBM, aucune production concrète n'a encore été annoncée. Cependant, Big Blue est certaine que la production de masse se fera prochainement, le procédé utilisé étant relativement économique.