Viktor Mayer-Schönberger - "Belle opportunité, énorme défi"

L’Autrichien Viktor Mayer-Schönberger enseigne la « Internet Governance and Regulation » à l’Université d’Oxford et a co-signé le livre "Big Data". Il nous livre sa définition de ce phénomène, révèle pourquoi il nous est si difficile d’appréhender la vitesse à laquelle circulent les données et aussi ce que les prématurés ont de commun avec les voitures à pilotage automatique.

ARTE Future : Professeur Mayer-Schönberger, comment définissez-vous le Big Data ?

Viktor Mayer-Schönberger : le phénomène du Big Data désigne la capacité à tirer, à partir d’une grande quantité de données, des conclusions que nous ne pourrions pas obtenir à partir d’une quantité moindre. Par le passé, les êtres humains disposaient d’un nombre de données insuffisant, c’est pourquoi ils ont développé des capacités leur permettant de tirer un maximum d’enseignements à partir d’un minimum d’informations. A l’ère du Big Data, la situation s’est inversée. L’analyse de grandes quantités de données nous permet de faire des déductions qui auraient été impossibles précédemment. L’exemple le plus classique est l’identification d’escroqueries à la carte bancaire, qui est très aisée et rapide si l’on analyse une grande quantité de données mais quasiment impossible en procédant par sondage.

Dans quel domaine la vitesse liée au Big Data se manifeste-t-elle le plus aujourd’hui ?

Les analystes de Big Data font des projections à partir desquelles des êtres humains, mais aussi des machines, peuvent prendre des décisions. Et cela nous permet d’accélérer le processus de décision de telle sorte que sur le marché du comptant à Wall Street, des milliards de décisions peuvent être prises en l’espace d’une seconde. Google est aussi un exemple parlant : sur la page d’accueil, on voit à droite des annonces payantes et, en haut, des liens sponsorisés. Ces espaces publicitaires sont vendus aux enchères en temps réel, en fonction de la nature de la recherche lancée par l’internaute. Google fait alors une offre sur le marché qui est évaluée par d’autres algorithmes, qui décident alors d’acheter ou non cet espace. Ce processus se produit quarante ou cinquante milliards de fois par jour rien que pour Google ; idem pour d’autres prestataires comme Bing. L’aviation est un autre exemple où la rapidité du Big Data joue à plein. Les capteurs placés au niveau des réacteurs fournissent des quantités incroyables d’informations qui sont évaluées en temps réel par les ordinateurs de bord. En d’autres termes, si vous rêvez aujourd’hui de piloter un Airbus, sachez que le risque d’accident est quasiment nul. J’en ai fait moi-même l’expérience dans un simulateur de vol. Dans sa flotte, Airbus a installé trois systèmes qui fonctionnent en parallèle et se surveillent mutuellement. La tragédie du vol Air France entre Rio et Paris s’est produite parce que ces systèmes s’étaient déconnectés et que les pilotes ont dû diriger l’avion tous seuls, sans aucun dispositif de contrôle ; or, ce n’était pas possible et c’est pour cela que l’appareil s’est abîmé en mer. Depuis, ce cas de figure a été pris en compte dans la formation des pilotes.

Quelle expérience en rapport avec l’accélération des données vous a le plus impressionné dans le cadre de vos recherches pour le livre « Big Data » ?

Ce qui m’a le plus frappé, c’est la manière dont des chercheurs de l’Université de Toronto examinent les fonctions vitales des prématurés : ils collectent 1200 données par secondes en temps réel. Un changement spectaculaire pour les enfants nés avant terme. Jusqu’ici, la médecine comparait chacun d’entre nous à des valeurs moyennes, à un être humain moyen créé de façon arbitraire. Quand vous prenez un antalgique, le dosage est calculé en fonction d’un individu « moyen », généralement de sexe masculin. En médecine, une révolution est en cours, celle de la médecine personnalisée. En d’autres termes, le médecin compare mon état de santé non pas avec celui d’un individu « moyen », mais mon état actuel avec celui que j’avais il y a une demi-heure, une semaine ou un mois. Cela permet de poser un diagnostic bien plus rapidement. Or, cela n’est possible que si le médecin sauvegarde régulièrement un grand nombre de données me concernant.

Pourquoi la vitesse de transfert des données a-t-elle autant évolué depuis le début de l’ère informatique ?

D’abord, parce que nous pouvons convertir de plus en plus d’éléments tangibles en données grâce à l’amélioration des capteurs et à une collecte plus rapide des données. Ensuite, le stockage des informations est plus facile et moins onéreux. Et enfin, parce que nous sommes capables d’analyser plus rapidement les données. Les processeurs tout comme les algorithmes se sont nettement améliorés, les premiers notamment en réaction à l’offre et à la demande. Il s’agit d’améliorations quantitatives ; sur le marché, la manière la plus simple de se démarquer des autres est de proposer des « plus » qui, à un moment où à un autre, prennent une qualité différente.

Pourquoi avons-nous tant de mal à comprendre ces vitesses et à nous les représenter ?

Parce que le cerveau humain est un ordinateur analogique et non numérique. C’est-à-dire qu’il gère beaucoup de choses en parallèle alors que l’ordinateur fait une chose après l’autre. Notre cerveau accomplit les tâches assez lentement c’est pourquoi nous sommes aussi surpris de voir les ordinateurs traiter si rapidement l’information ; et si étonnés face à l’accélération du processus, même si cela ne concerne que la vitesse du flux d’information et non sa qualité. Cela nous dépasse complètement.

Comment le Big Data et l’accélération des transferts de données sont-ils perçus par les gouvernements, organisations et multinationales que vous conseillez ?

Les entreprises qui sont conscientes - ou commencent à prendre conscience - des enjeux du Big Data considèrent ce phénomène comme une belle opportunité, mais aussi comme un défi énorme qui exige de mettre à plat l’ensemble de leurs processus et structures internes. Elles commencent à comprendre que les structures analogiques et hiérarchiques ne permettent pas de prendre des décisions adaptées à la rapidité du Big Data. Cela implique qu’il faudra remanier non seulement les organisations mais aussi les modes d’interaction. Je m’attends à de nombreuses expériences dans ce domaine et cela promet d’être passionnant.

Y a-t-il des limites physiques à l’accélération du Big Data ?

Bien entendu. Dans un court texte, Borges parle d’un homme qui a l’idée de créer une carte du monde à l’échelle 1:1. Il commence par recouvrir l’espace qui l’entoure d’une toile et sur laquelle il dessine ce qui se trouve en-dessous, puisqu’il veut réaliser une mappemonde en taille réelle. Puis il se dit : si je recouvre tout de toile, celle-ci va se substituer au monde et il ne sera plus nécessaire de dessiner quoi que ce soit sur la toile. Vous comprenez la métaphore ? A mesure que nous essayons de représenter le monde sous forme d’informations, ces informations deviennent progressivement le monde. Mais il s’agit là d’une limite purement théorique, les physiciens quant à eux évoquent la fin entropique de l’information. Mais ce n’est pas pour demain. (Rires).

Il n’y a donc pas de limite du point de vue pratique ?

A mon sens, il n’y a pas de limite à ce phénomène. Mais je pense qu’il y a une limite pour nous les humains. Cela dit, les hommes n’ont pas grande importance à l’échelle de la planète.