Ce site contient un résumé du travail de recherche qu'a fait Savas Ali Tokmen sur Le Futur de la Micro-électronique pour son option IMA (Initiation aux Mathématiques Appliquées) du deuxième semestre de l'année universitaire 2002-2003.

Vous trouverez ci dessous le texte de ce travail de recherche, et vous pouvez cliquer ici pour accéder au slideshow.



Savaþ Ali Tokmen
Université Joseph Fourier
DEUG MIAS 1ère année


Introduction


        Aujourd’hui, les ordinateurs sont devenus un des outils quotidiens pour tout le monde que l’on trouve dans de plus en plus d’endroits: des personnes « normales » utilisent des ordinateurs « plus ou moins » de bureau ou portables pour toute sorte d’activité (allant des applications bureautiques à la communication, des jeux tridimensionnelles à la recompression de films, des simulations sociologico-scientifiques à la création d’effets spéciaux), des scientifiques l’utilisent pour rapidement « mettre en œuvre » les plus compliqués des algorithmes pour la création de nouveaux outils aussi bien pour la compréhension du monde qui nous entoure… Les ordinateurs apparaissent aussi de façon plus ou moins cachées dans des téléphones portables, positionneurs GPS, centrales téléphoniques, fusées « intelligentes », etc, etc. Tout ceci est grâce à la capacité miraculeuse de l’être humain (du moins jusqu’à maintenant) à toujours être capable de faire des microprocesseurs et unités de mémoire plus rapides, plus petits et moins chères ! Tout de même, une question se pose: seront-nous capable de poursuivre ce progrès ou sera-ce (pour une fois) un pari dans lequel la nature gagnera contre le génie humain ?


Lien avec les Mathématiques


        L’ordinateur (ou du moins celui d’aujourd’hui) étant une machine « débile » qui ne sait que faire des calculs et aucun raisonnement, n’aurait à priori aucune place dans les mathématiques, dans la création de théorèmes ou choses de cet ordre… En effet, cela est vrai ; l’ordinateur ne nous aide pas beaucoup à faire des maths. Mais, cette machine débile étant capable de faire un (très) grand nombre de calculs dans un temps (très) court, elle devient très vite un outil « de base » des gens qui voudraient appliquer des maths. L’ordinateur est en effet surtout intéressant quand on veut faire des maths appliquées.


Résumé du texte: « le futur de la microélectronique », par Dan et Jerry Hutcheson, paru dans « Pour la Science » mars 1996


        Au cours des dernières décennies, la micro-électronique est devenue une force motrice du développement, inaugurant une ère nouvelle. Tout cela est dû majoritairement aux efforts de miniaturisation, qui est devenu un phénomène si régulier qu’il sert même comme base dans les raisonnements des grandes firmes fabricant de la microélectronique. Mais, sommes-nous cette fois à la fin de cette miniaturisation ? Quel futur pour la microélectronique ?


        Comment est fabriqué un microprocesseur ? Simple: on prend premièrement une galette de silicium de forme circulaire, qui est formé d’un substrat de silicium, sur lequel on a « posé » une mince couche de nitrure de silicium, avec sur lui une couche de dioxyde de silicium et tout en haut une résine photosensible. Par simple projection répétée du motif du processeur (en passant bien sûr par une lentille pour diminuer la taille de l’original), la couche photosensible finit par avoir les « gravures que l’on veut » sur elle. Par une méthode de projection de gaz, ces gravures sont répétées sur les couches « du bas ». Ensuite, un jet d’ions dope la partie exposée du substrat, formant des transistors. Pour terminer, des alliances conducteurs sont ajoutées pour relier les transistors que l’on veut entre eux.

        Inversement à ce que laisserait croire la loi de Moore, la route qui a mené aux processeurs d’aujourd’hui n’a pas été « constante ». Plusieurs fois les techniciens ont dû surmonter d’importantes limitations techniques… Aujourd’hui, nous avons devant nous un grand obstacle: en effet les transistors que l’on grave sur les puces ont une largeur de 230, voir même 160 nanomètres de large. En effet, le critère de Rayleigh nous dit que le plus petit détail que l’on peut voir (donc aussi graver) est proportionnel au quotient de la longueur d’onde de la lumière avec laquelle on le voit avec l’ouverture de l’objectif avec lequel on le regarde. Maintenant, d’autres valeurs numériques: pour cette fabrication, la technologie ne sait pas utiliser « plus petit » que la raie i du mercure, donc 365 nanomètres. Les systèmes de lithographie de pointe ont cependant une ouverture maximale de 650 nanomètres. Actuellement, on ne sait donc que graver au minimum un « tracé » de 193 nanomètres de précision.

        Le plus grand problème est en effet que les usines de fabrication pour des puces qui auraient des tracés encore plus petits auraient des coûts si énormes que cela devrait avoir un effet sur le coût des processeurs…

        On peut en effet comparer l’industrie micro-électronique avec les industries aéronautiques et ferroviaires, qui eux aussi avaient visé d’aller encore plus vite encore plus loin mais qui, après un certain moment ont dû arrêter cela pour de raisons diverses.

        L’aéronautique a atteint ses limites avec les avions Boeing 747 et le Concorde, des engins qui ont marqué la fin de la volonté d’aller toujours plus loin toujours plus rapidement avec toujours plus de monde. En effet, le 747 était si grand que l’on n’arrivait pas à le remplir ! (sauf pour des vols transatlantiques) Et le Concorde, le plus rapide que l’on ait pu atteindre en matière d’avion commercial, fait tant de bruit que beaucoup d’aéroports ont dû le « rejeter ». Les ingénieurs ont donc dû aller vers des marchés spécifiques avec des avions plus petits et à confort accru.

        De même avec l’industrie ferroviaire, qui a atteint sa limite avec la locomotive EMD-DD40 ; un monstre que l’on n’a pu utiliser que pour le transport des marchandises à travers les Etats-Unis.


Mise à jour


        L’article date de 1996. Aujourd’hui, nous sommes en 2003. Beaucoup de choses ont changé depuis:
  • En 1996, on croyait que le GigaHertz (donc 109 hertz) sera une barrière infranchissable. Or, ce texte a été rédigé sur une machine tournant à 1.7 GigaHertz.
  • On croyait aussi que la limite de précision de gravure serait à 193 nanomètres. Cela n’est plus vrai: les processeurs actuels ont des transistors de 130 nanomètres, et Intel a atteint dans ces laboratoires une vitesse de quelques centaines de GigaHertz avec un processeur (toujours a base de silicium) avec des transistors de 27 nanomètres.
  • De plus, la loi de Moore a été « respectée », avec des vitesses aux alentours de 3 GigaHertz pour un prix qui n’a toujours pas augmenté
        Aussi, il y a eu des changements dans la « mode de vie ». En effet, la tendance actuelle est la mobilité, donc les fabricants de micro-électronique sont obligés de fabriquer du matériel qui est rapide, mais aussi qui consomme peu et ne chauffe pas. Grâce à tout ce « nouveau marché » crée avec les nouvelles technologies annoncées, nous sommes encore loin de l’arrêt !!

        Pour présenter tout cela, je vais en effet premièrement parler des nouveautés en matière de mémoire en après des nouveautés en matière de processeur.


Disponible maintenant: MagRAM


        Un ordinateur actuel est en effet composé de deux unités de mémoire: le disque dur, composant à base mécanique qui sert d’unité de stockage à grande taille et à vitesse faible ; et la mémoire vive, ou encore RAM, qui est une mémoire à base de condensateurs (donc interaction électrique) qui est rapide mais qui d’un autre coté oublie tout ce que l’on peut inscrire dedans une fois que l’on lui arrête l’apport en électricité.

        Je viens de dire que les mémoires vives actuels marchent à base d’interactions électrique. En effet, l’idée d’IBM a été d’utiliser des interactions magnétiques pour stocker l’information. Cela a plusieurs avantages :
  • inversement aux mémoires « électriques » qui ont besoin d’un apport sans cesse en électricité (car sinon leur contenu se vide au bout de millisecondes, donc ils oublient tout ce qu’on leur a mis dedans), les mémoires magnétiques gardent leur contenu pendant un temps « infini », ce qui permet :
    • des systèmes qui seront bien moins gourmands en apport énergétique (car ils n’auront pas besoin de rafraîchir le contenu de leur mémoire vive)
    • la technologie « instant-on » (votre ordinateur n’aura plus besoin de transférer tout son système d’exploitation dans la mémoire vive pour la bonne et simple raison qu’elle est déjà là !)
    • et puis, pourquoi pas des systèmes qui continueraient de là où on était après une coupure électrique !
  • inversement aux disques durs, les mémoires magnétiques (que l’on trouve actuellement sur le marché) sont au moins aussi rapides que les mémoires vives à base de condensateurs.
  • de plus, les prix montrent que les mémoires magnétiques qui viennent de sortir ne sont que 40% plus chers que les mémoires vives « normales » ! Ce qui est en effet promettant, car on aura probablement droit à des prix qui sont encore plus bas dans peu de temps !
        Les MagRAM n’ont cependant aucune désavantage comparé aux mémoires vives actuelles. Elles ont en effet pu être développées grâce aux matériaux GMR (Giant MagnetoResistance – Magnétorésistance Enorme), découverts en 1988.

Sur nos bureaux prochainement: Mémoires holographiques


        Quel est le point commun entre une disquette, un CD, un DVD, un disque dur, en encore beaucoup de mémoires que l’on utilise couramment ou pas aussi couramment ? Voilà la réponse: ils utilisent tous un stockage surfacique. Mais, pourquoi se limiter à la surface ? Pourquoi ne pas prendre un volume ?

        Cette question a été posée par un scientifique de Polaroid nommé Pieter J. van Heerden au début des années 60. Une décennie après, des scientifiques des laboratoires RCA ont démontré la technologie en enregistrant puis lisant 500 hologrammes d’images à haute résolution sur un cristal de lithium-niobate, et 550 sur une polymère sensitive à la lumière.

        En plus de 50 années, on a en effet eu le temps de bien tout mettre en place. Aujourd’hui, en utilisant un cristal (de la taille d’un cube de sucre classique), le même laser que celui qu’on peut trouver dans un lecteur DVD, un petit capteur CCD et un écran LCD qui au total ne vont coûter qu’aux alentours des dizaines de milliers d’euros, on peut avoir un stockage de 13 TerraOctets (ce qui fait à peu près 140 fois plus grand que le plus grand disque dur du marché qui lui coûte 200 euros) qui capable de transférer 1.5 GigaOctets par secondes (une vitesse qui permet de transférer un DVD entier en 2.7 secondes)

        La technique actuelle d’écriture et de lecture de mémoire holographique est relativement simple:
  • pour écrire, on projette un rayon laser et on le divise en deux. Le premier passera par l’écran LCD, ce qui fera que le rayon transportera la même image que celle sur l’écran LCD. Le deuxième (appelé « de référence »), ne subira aucune modification et ira vers le cristal mais bien évidemment avec un angle différent. Quand ces deux rayons se rencontrent (dans le cristal de préférence), l’image qui était sur le premier (qui est passé par l’écran LCD) se répète à cet endroit du cristal.
  • pour lire c’est encore plus simple: seul le rayon « de référence » est envoyé et passe par le cristal pour atterrir sur le capteur CCD. Il faut juste faire attention à être au même angle que celui qu’on a utilisé pour écrire l’information ! L’avantage c’est que l’on peut lire une ligne entière d’hologrammes en même temps, ce qui permet cette énorme vitesse que j’ai citée.
        Ce qui est en effet à l’origine de la disponibilité publique de cette technologie sont la création de lasers plus petits, l’invention du CCD ainsi que les processeurs rapides qui permettent l’encodage/décodage rapide de l’information que l’on écrit/lit sur le cristal. Elle sera vraiment publique quand on aura fini la mise au point de cristaux à base organique, qui coûteront moins chers (actuellement c’est quand même des « gens riches » qui en ont vraiment besoin [grands serveurs, etc] qui l’utilisent).


Retour dans le monde des processeurs


        Voilà en bref les nouvelles technologies de mémoire « du futur ». Et maintenant, parlons des processeurs…


Le silice verra le TerraHertz: EUVL


        Vous savez déjà comment on fabrique un processeur (ou à peu près on va dire). Mais ce que vous ne savez pas, c’est que, pendant le processus de projection motif sur la galette de silice, quand on aura besoin d’utiliser de la lumière avec une longueur d’onde plus courte que 100 nanomètres, la lentille qui est supposé rendre le grand motif que l’on projette plus petit commence à absorber cette lumière (qui était normalement supposé « graver » le processeur, mais si cette lumière n’atteint jamais le processeur elle aura du mal pour le graver)!

        Voilà qu’interviendra encore le « génie humain » : l’idée cette fois c’est de ne plus utiliser des lentilles mais des miroirs… Voilà le détail du processus :
  • un laser pointe sur un jet de xénon, ce qui lui chauffe et crée du plasma
  • le plasma commence à émettre des électrons et une lumière de 13 nanomètres de longueur
  • cette lumière passe par un condenseur (qui la condense) et se dirige vers un masque qui a sur lui l’image d’une couche du processeur avec un miroir derrière
  • cette lumière qui « porte » maintenant l’image qui était sur le masque se dirige vers une série de miroirs courbés, ce qui lui rend plus petit
  • les autres étapes de fabrication (dopage, superposition de couches, etc) restent cependant les mêmes.
        Cette technologie a permis la fabrication, dans les laboratoires Intel, d’un processeur avec des transistors de 27 nanomètres qui tourne à quelques centaines de GigaHertz (Intel a même nommé cette nouvelle technologie « TerraHertz » (1012 Hertz), ce qui donne l’impression qu’elle nous permettra d’aller loin !). À cause de la longueur d’onde de lumière utilisée, le processus doit être fait dans une atmosphère sans air. Aussi, les miroirs doivent être parfaits pour pouvoir refléter la bonne image.


Ordinateurs quantiques: toujours un rêve


        Si l'on poursuit l’évolution en se basant sur les lois de Moore, vers la fin des années 2020 les transistors nos processeurs auront atteint les dimensions des atomes ; donc la plus logique étape suivante semble être l’usage des atomes et des molécules comme processeur et comme mémoire informatique…

        Tous les opérateurs logiques (NON, ET, OU) qui sont à la base des calculs de nos ordinateurs peuvent être reproduits par la nature. Par exemple, un NON (qui inverse les 0 et les 1) existe à l'état naturel: lorsque l'atome de carbone n'est pas excité, les atomes d'hydrogène peuvent changer d'orientation et donc prendre diverses valeurs. Lorsqu'il est excité, l'atome de carbone donne aux atomes d'hydrogène une orientation opposée. On est dans le cas d'un opérateur logique NON.

        Deux équipes américaines, celle du Massachusetts Institute of Technology (MIT) et celle du laboratoire national de Los Alamos (Californie) se sont associées pour réaliser un prototype d'ordinateur quantique. A première vue, ce dernier ne réalise aucune opération exceptionnelle : quelques additions, des reproductions d'opérateurs logiques ET, OU, NON... Des calculs qu'une simple calculatrice de poche pourrait effectuer. Mais la méthode est révolutionnaire. Leur prototype n'est pas une boîte grise, avec un écran, un clavier et une souris. Non, c'est un tube à essai. Quelques gouttes d'un liquide de teinte marron, des molécules de 2,3-dibro­mothiophène, toutes identiques, composées d'atomes de carbone, d'hydrogène, de soufre et de brome. Ces molécules sont l'équivalent de nos processeurs. Ce sont elles qui exécutent les calculs. L'orientation des noyaux des atomes d'hydrogène, que l'on peut faire varier à l'aide d'ondes radio dont on module la fréquence et la durée, peut se traduire en autant de 0 et de 1, indispensables à la programmation de tout ordinateur.

        Dans l'expérience décrite ici un noyau d'hydrogène est simultanément orienté dans deux sens opposés. La puissance de calcul devient alors vite gigantesque, puisque deux calculs peuvent être menés en parallèle avec chaque noyau. Et avec deux noyaux par molécule, ce sont déjà quatre calculs que les chercheurs peuvent effectuer en même temps. David Cory, responsable de l'expérience au MIT, explique que « dans les deux prochaines années, nous passerons d'une expérience réalisée avec deux bits quantiques (ou q-bits), c'est à dire avec deux noyaux d'hydrogène, à une expérience avec six q-bits. La puissance de calcul sera alors multipliée par seize ». Et avec cinquante q-bits, la puissance sera multipliée par plusieurs milliards.

        En effet, on voit après cela l’énorme avantage des ordinateurs quantiques par rapport aux supports actuels à base de silice: ils peuvent faire plusieurs opérations en même temps. Il est probable que cela n’aide pas beaucoup aux jeux de Solitaire ou au chat, par contre par exemple la NASA qui doit suivre des trillions d’astéroïdes ou encore des physiciens, sociologues, chimistes ou biologues qui doivent simuler des réalités à plusieurs millions (même milliards) de variables seront contents de voir des ordinateurs qui font plusieurs opérations en même temps !


Processeurs et unités de mémoire à base d’ADN


        Il y a un problème assez classique appelé « The Traveling Salesman » (le vendeur ambulant). Imaginez un vendeur qui doit visiter régulièrement plusieurs villes les uns après les autres. Quelle est la route la plus rapide et/ou la plus courte qui va lui permettre de passer par toutes les villes, sans bien sur avoir à passer par la même ville deux fois ?

        Ça peut vous sembler facile, et en effet elle l’est pour avec quelques villes; mais si vous faisiez cela avez des centaines de villes ? En effet le problème devient bien plus compliqué pour chaque ville que l’on ajoute, car à chaque fois on doit calculer toutes les routes possibles et après comparer celle qui est la moins courte… Et comme vous le savez, le nombre total de combinaisons augmente en factorielle pour chaque ville de plus !

        Mais, ce problème devient très facile à résoudre avec un ordinateur à base d’ADN. Chaque combinaison des quatre molécules d’ADN (représentés couramment par les lettres A, T, C et G) représente une ville. Ce qu’on fait c’est que tout simplement on met « beaucoup » de fragments d’ADN dans un tube à essai, et toutes les combinaisons possibles seront crées instantanément par des réactions chimiques qui marchent en parallèle ! On peut éliminer les doubles réponses et fausses réponses par des réactions chimiques ; et on aura résolu le problème avec autant de ville que l’on veut en utilisant la même quantité de temps ! Il suffit juste de mettre assez d’ADN (ce qui n’est pas compliqué vu que l’ADN est une des choses le plus en abondance sur notre planète)

        D’autres scientifiques (ou plutôt ingénieurs informatiques) ont aussi envie d’utiliser l’ADN comme média de stockage de données (ce qui devient intéressant surtout car l’ADN est facilement duplicable, donc par exemple pour fabriquer des millions d’exemplaires de la même information (des films, des logiciels, …) ça devient bien plus rapide est bien moins cher !

        On peut donc dire que comme la technologie Quantique, la technologie de processeurs et mémoires à base d’ADN n’est qu’au tout début de son évolution mais qu’il est quand même assez promettant ! Surtout, les capacités de calculs en parallèle et de duplication aussi bien que la facilité à trouver de l’ADN fait que cette technologie semble être assez promettant…


Conclusion: on est encore loin de la fin !


        Le progrès scientifique est actuellement en expansion dans tous les domaines, et cela est aussi le cas pour la micro-électronique. Et, on ne peut à priori pas déterminer la forme qu’auront nos appareils « électroniques » en 2050… (comme c’est d’ailleurs le cas depuis un siècle)








Bibliographie


"Pour la Science", mars 1996
howstuffworks.com
intel.com (surtout les parties « developper forums » et « technology showcase »)
IBM.com
hardwareguys.com
sciam.com (Scientific American online)
hypography.com (Hyprography sci-tech)
University of Wisconsin (un des sponsors de DNA9)
qubit.org (centre for Quantum Computation)