Le père du Gigaoctet, interview de Stuart Parkin

Stuart Parkin Big Data V.jpg
Stuart Parkin Big Data V.jpg

Pionnier du stockage moderne des données, le physicien britannique Stuart Parkin, 59 ans, est le père du gigaoctet. Dans une interview accordée à ARTE Future, il parle d’un Big Data pas si big que ça pour l’instant, de l’avenir du disque dur qui passe par l’imitation du cerveau… et de son installation en Allemagne.

Professeur Parkin, il est difficile de se représenter le Big Data, cette masse de données constamment en croissance pour laquelle il n’existe pas de terme équivalent en français. C’est quoi pour vous, le Big Data ?

Les gigantesques masses de données dont vous parlez ne sont en fait pas si grandes que ça. Si on essayait de décrire le monde tel qu’il est aujourd’hui, ne serait-ce qu’un seul être humain, on aurait besoin d’un énorme volume de données. Imaginez un peu ce qu’il faudrait comme données pour décrire l'univers dans sa totalité ! (rires) En fait, nous sommes tout simplement assis sur un minuscule tas de données. Nous avons l’impression qu’il est gigantesque, car il a énormément grandi en quelques années et qu’à l’époque, cette ampleur était impensable.

On dit que sans vos inventions, les data centers d’aujourd’hui n’existeraient pas. Et que sans vous, il n’y aurait pas de Big Data. C’est bien ça ?

Parfaitement. Il me semble du moins (rires). Enfin bref, c’est exact.

En 2014, vous étiez récompensé par le Prix Millenium Technology, un prix doté de un million d’euros. Dans sa justification, la fondation Millenium écrit que vous avez non seulement rendus possible les data centers mais également les géants du Net comme Facebook, Amazon and co. Vous pouvez nous en dire plus ?

Tous ces services - Facebook, Google, Twitter – fonctionnent grâce à des données numériques hébergées dans le cloud et accessibles aux utilisateurs où qu’ils se trouvent. C’est le cœur de leur activité. Toutes ces données, et leur quantité est loin d’être négligeable, sont stockées sur des supports de stockage magnétiques, autrement dit, des disques durs. Et si ces disques durs disposent d’une mémoire suffisante, c’est notamment grâce à une de mes inventions.

Pouvez-vous être plus précis ?

La technologie des disques durs magnétiques a près d’un demi-siècle. Le fonctionnement est similaire à celui d’un tourne-disque. Un disque mécanique, aujourd’hui en verre, et de petite taille, tourne à grande vitesse. Sa surface est recouverte d’une fine couche de matériaux magnétiques – sur une seule face ou sur les deux. Et dans cette couche, des informations sont encodées dans des sections minuscules appelées bits magnétiques. Ces sections sont disposées en pistes concentriques. Un bit magnétique, ce n’est rien d’autre qu’une mini-surface de matériaux magnétiques, dont les pôles vont dans une direction. Tout autour du disque, en d’innombrables points, les pôles indiquent une direction ou l’autre. L’information en soi est encodée sur les bords de ces régions magnétiques. Au cœur de cette technologie, on trouve donc un disque, un film magnétique bidimensionnel, sans oublier la tête d’écriture/de lecture situé juste à la surface du disque et qui fait un va-et-vient. C’est un spectacle fascinant à observer. La distance entre la surface du disque – le matériel magnétique – et la tête d’écriture/de lecture est à peine d’un nanomètre, soit l’épaisseur de dix couches électroniques. Lorsque le disque tourne sous la tête d’écriture/lecture, cette dernière fait des allées et venues pour trouver ces minuscules régions magnétiques. Et moi, j’ai inventé un nouveau mode d’accès pour la lecture des informations. Si on veut avoir une plus grande capacité de stockage, autrement dit héberger plus de bits sur le disque, il faut réduire la taille des sections magnétiques. Mais plus la taille est réduite, plus la lecture est difficile. J’ai donc mis au point une technologique qui permet de lire des sections magnétiques 1 000 fois plus petites qu’avant. Et comme ça, le nombre de bits qu’il est possible de stocker a été multiplié par mille.

Si nos disques durs sont passés des mégaoctets aux gigaoctets, c’est donc à cause de vous ?

Si on veut, oui. Aujourd’hui, l’enjeu, c’est le passage d’un gigaoctet par pouce carré à un teraoctet par pouce carré (1 in2 = 6,4516 cm2) (ndrl : 1 pouce = 2,54cm). Depuis cinquante ans, le nombre de bits qu’on peut stocker sur un pouce carré représente l’alpha et l’oméga de l’industrie du disque dur.

Le chercheur français Albert Fert et son collègue allemand Peter Grünberg ont obtenu en 2007 le Prix Nobel de physique pour leurs travaux dans le domaine du stockage des données. Quel est le lien avec votre invention ?

Albert et Peter ont fait une découverte scientifique très intéressante, à savoir le changement de résistance entre le fer et le chrome. On parle aujourd’hui de magnétorésistance géante (GMR, giant magnetoresistance). Leur démarche était très conventionnelle et au début, leur découverte passait pour un phénomène. J’ai observé qu’un grand nombre de matériaux présente ce phénomène. Il peut être obtenu grâce à une technique compatible avec une production à grande échelle et même fonctionner pour des champs magnétiques bien plus petits. C’est ainsi qu’en 1997, IBM a pu lancer le premier disque dur utilisant cette technologie.

Aujourd’hui, quand j’enregistre un texte sur mon disque dur, une tête d’écriture/lecture va et vient à toute vitesse sur un disque de verre en rotation. Une technologie qui doit tout à Albert Fert, Peter Grünberg et à vous-même. A votre avis, comment se fera l’enregistrement de textes dans dix ans ?

Mais voyons, dans dix ans, vous n’utiliserez plus de documents textes ! (rires) Je trouve que c’est un concept pour le moins passé de mode. L’automatisation sera omniprésente. Peut-être qu’en pensant à quelque chose, un mot apparaîtra sur votre appareil. Dans le futur, nous implanterons les systèmes informatiques dans les structures dont est fait le monde. Tous les objets autour de nous pourront être sollicités et seront capables de réagir. Ils anticiperont nos pensées et nos désirs potentiels. Le monde va devenir très intéressant.

Prenons ma brosse à dents : combien de données pourra-t-elle stocker ?

Une quantité assez élevée. Les nouveaux concepts de stockage des données dans les liquides et les oxydes permettront de fabriquer des systèmes capables de réfléchir, autrement dit, des matériaux qui évoluent par eux-mêmes pendant que nous les utilisons. Tout porte à croire que nous parviendrons à une modélisation informatique du fonctionnement de notre cerveau. Et qu’ensuite, nous construirons des ordinateurs qui n’accompliront pas les mêmes tâches que les ordinateurs que nous connaissons aujourd’hui, mais des tâches de notre quotidien. Ils auront le même mode de pensée que nous.

Qu’est-ce que cela signifie pour les ordinateurs ? Comment vont-ils s’humaniser ?

Je pense qu’à l’avenir, nous aurons besoin de systèmes informatiques dont le développement s’éloignera du schéma de réponse binaire. Au lieu d’une réponse précise, il y aura différentes réponses, approximatives et le plus souvent correctes. Comme chez nous autres humains.

Et c’est là que notre existence deviendra une bonne fois pour toutes une simulation de réalité, comme dans Matrix ?

Tous les dix ans, nos ordinateurs décuplent leurs performances. Quarante ans que ça dure ! Un phénomène qui dépasse l’imaginable. Les dix prochaines années, il y a aura à nouveau d’immenses changements. Mais pour obtenir des appareils capables de tirer assez d’énergie de leur environnement pour exister n’importe où, il faudra d’abord améliorer le bilan énergétique. Mettons que l’énergie dont notre cerveau a besoin s’élève à 20 Watt. Ce n’est pas grand-chose. Mais si on n’a pas besoin de toute la capacité de calcul d’un cerveau, mais juste d’une partie, disons un Watt ou deux, on aura toujours un ordinateur surpuissant capable de puiser sans effort de l’énergie dans son environnement. Tout est une question d’efficience énergétique : par rapport aux ordinateurs d’aujourd’hui, le cerveau est un million de fois plus efficient sur le plan énergétique.

Où vous situez-vous dans cet avenir régi par les données ?

Les dix années à venir, je vais de toute évidence plancher sur la construction de supports de stockage tridimensionnels. Il y a longtemps que je travaille sur mon idée de « Racetrack Memory ». Le principe est le suivant : il n’y a plus de disques mémoire tournants mais seulement des bits, des champs magnétiques, placés sur des nanofils et qui fusent à la verticale et passent à côté de minuscules têtes d’écriture/lecture. C’est un peu comme un hippodrome miniature. L’architecture tridimensionnelle pourrait multiplier par mille les capacités de stockage.

Vous avez quitté San Jose pour Halle an der Saale… Vous êtes passé du cœur de la Silicon Valley au centre de l’Allemagne, d’IBM au Max-Planck-Institut. Le Vieux continent va-t-il supplanter l’Amérique dans la course aux hautes technologies ?

(rires) Si je me suis installé en Allemagne, c’est surtout parce que j’ai rencontré une femme formidable et que je l’ai épousée. C’est une scientifique exceptionnelle, une chimiste, qui comprend les matériaux comme personne. C’est fascinant et merveilleux de vivre et de travailler ensemble. Et puis le Max-Planck-Institut a beaucoup en commun avec IBM. Ces deux structures misent sur l’humain, et sur des idées qui peuvent sembler aberrantes. Des idées qui, si elles marchent un jour, pourront changer le monde. Et pour le scientifique que je suis, il n’y a rien de plus passionnant. Si je sais d’emblée qu’une chose fonctionne, elle a déjà perdu de son intérêt.

Traduction de l’entretien mené en allemand par Felix Zeltner