CAIRN.INFO : Matières à réflexion
figure im1
Adèle Haller

1Les data que nous laissons en surfant sur des sites, en utilisant une carte de fidélité d’une chaîne de supermarché, en passant des péages, sont devenues la matière première de l’économie de la connaissance. Une ressource gigantesque, le pétrole du XXIe siècle, est ainsi créée : en 2013, l’humanité a produit en communicant sur Internet plus de 2 000 milliards de gigaoctets de données numériques nouvelles. Ces données sont utilisées pour nous proposer de nouveaux produits mais aussi - surtout ? - pour prévoir nos comportements de consommateurs ou de citoyens.

Le Big data veut devenir une boule de cristal

2Pour ceci, les méthodes de base relèvent de l’application de méthodes mathématiques de régression qui analysent de grandes séries pour en tirer des enseignements prédictifs. Par ailleurs, plusieurs techniques logicielles sont testées (on dénombre une cinquantaine de ces technologies [1]). C’est l’« association », qui consiste à découvrir, via des logiciels adaptés, les relations existant entre des données de nature différente jusqu’à la « visualisation », qui crée des images colorées à partir de flots de données afin de mieux transmettre l’information, en passant par Hadoop, un logiciel qui permet de travailler avec des milliers de nœuds de communication et des petabytes de données.

3Plusieurs conditions sont nécessaires pour obtenir une prédiction efficace. C’est d’abord la rapidité des logiciels à traiter des petabytes de données, dont certains analysent les données en flux (streaming). La véritable richesse d’un projet Big Data est de croiser des données hétérogènes en temps réel et d’imaginer des combinaisons et corrélations possibles. Ceci permet d’une part d’affiner la connaissance de la situation, du client ou du marché, d’autre part de délivrer des connaissances jusque-là inaccessibles et d’en tirer profit [2]. Cette analyse en temps réel, si rapide, donne l’impression de pouvoir prévoir. Au Canada, en analysant en temps réel les informations sur l’état de santé de bébés prématurés avec un logiciel d’aide au diagnostic, des infections ont pu être ainsi détectées 24 heures avant la manifestation de symptômes visibles [3].

Big data et intelligence artificielle

4Par ailleurs, les logiciels utilisent une méthode inductive et non plus déductive. Ils cherchent à établir des corrélations entre plusieurs informations sans hypothèses prédéfinies. Le projet BrainsSCANr a permis de fabriquer un logiciel qui, en s’appuyant sur 3,5 millions de résumés d’articles scientifiques, fait automatiquement un lien entre des parties du cerveau et certaines maladies. C’est le logiciel lui-même qui ouvre une nouvelle piste de recherche [4]. D’autres pistes se dessinent en matière d’intelligence artificielle : les tenants de la fusion biologie-machine affirment que, vers 2050, des robots microscopiques se fixeront dans notre cerveau, ce qui accroîtra formidablement sa capacité à traiter l’information [5]. Mais, pour l’heure, nous en sommes encore aux balbutiements des modèles prédictifs à long terme, même si ceux-ci, très prometteurs, ont bien été recensés [6].

5L’utilisation des big data, en matière d’analyse prédictive, repose sur le traitement de données issues du passé qui permettent de détecter les variables les plus influentes et de les appliquer aux données présentes pour en tirer des enseignements sur l’avenir. C’est ce modèle qui est appliqué à la lutte contre le crime, l’un des domaines d’utilisation les plus prometteurs. Par exemple, si, à chaque attaque par véhicule bélier, un véhicule de grosse cylindrée est dérobé deux à trois jours auparavant, dans un rayon de 50 kilomètres, une veille sur ce type de vols permettrait de prévoir une attaque par véhicule-bélier [7].

Faut-il s’accrocher au passé pour penser l’avenir ?

6Il s’agit ici de prédiction, consistant à poursuivre les tendances du passé, ce qui est utile, mais non d’anticipation, visant à détecter les ruptures, comme l’invention de tablettes électroniques ou l’utilisation d’avions pour détruire des tours. Or, c’est d’anticipation dont les utilisateurs des big data ont besoin.

7C’est l’Humain qui répondra à cette attente, car l’anticipation est une création de l’analyste nourrie par les données qu’il a recueillies et traitées. C’est ce qui émerge d’un autre domaine pour lequel l’utilisation des big data est centrale : le marketing (schéma 1). « De façon très imagée, ces algorithmes d’analyse prédictive permettent alors de mettre dans la boîte aux probabilités une immense quantité de données que le marketer vient secouer […]. Le marketer remue donc la boîte aux probabilités jusqu’au moment où il perçoit une corrélation inattendue. » [8].

Schéma 1

Big data et humain dans le marketing

Schéma 1

Big data et humain dans le marketing

Source : Vayre, 2013

8En fait, l’anticipation est plus un art qu’une science. Elle repose sur le jugement et l’intuition, fusionnant dans la capacité de donner une réponse rapide à travers le processus de la reconnaissance, laquelle est constituée par des centaines voire des milliers de modèles stockés dans la mémoire du décideur [9]. L’arrivée des big datas ne change pas grand chose à ce raisonnement.

9L’anticipation repose sur le traitement et l’exploitation de données réalisés par des logiciels perfectionnés et leur utilisation par l’analyste pour construire une connaissance, laquelle est le résultat de l’expérience personnelle et totale d’un individu, intellectuelle et émotionnelle, qui permet d’être lucide vis-à-vis de soi-même et de son environnement, afin de ne pas négliger le neuf, le déviant, l’incertain, l’étonnant, les signaux faibles porteurs de demain.

10Dans ce contexte, on peut présenter un modèle de construction de l’anticipation (schéma 2).

Schéma 2

Un modèle de construction de l’anticipation

Schéma 2

Un modèle de construction de l’anticipation

11Il repose d’abord sur un traitement des données par des logiciels de big data. Des filtres personnels peuvent ensuite être mis en place pour traiter les informations reçues : c’est l’utilisation de prises de notes, travaillées et retravaillées au fil du temps, de sessions de mentorat ou de travail en groupe. L’information est alors filtrée. Ensuite, elle sera traitée pour être appropriée par sa mise en interaction, ce qui passe par la détection et l’analyse de signaux faibles. Ce travail ne peut s’accomplir qu’en groupe, comme le pratique le groupe l’Oréal dans sa salle des confrontations [10].

12Ce traitement de l’information favorise l’appropriation, laquelle ne peut être complète que si chacun accepte son irrationalité, son intuition, son flair et, surtout, qu’il connaisse le mécanisme de son cerveau droit, siège de l’émotion, de l’expérience et de l’erreur, afin de pouvoir, non le contrôler, mais s’en servir plus efficacement. Ainsi, l’analyste doit travailler à plusieurs niveaux, technologique et cognitif, afin de s’approprier l’information, construire le futur et nager avec aisance dans le déluge informationnel du Big Data.

Notes

  • [1]
    McKinsey Global Institute. « Big data : The next frontier for innovation, competition, and productivity », mai 2011 www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation
  • [2]
    M. Karoui, G. Davauchelle, A. Dudezert. « Big Data : mise en perspective et enjeux pour les entreprises », Ingénierie des systèmes d’information, juin 2014
  • [3]
    M.P. Hamel, D. Marguerit. « Analyse des big data : quels usages, quels défis ? », note d’analyse, Commissariat général à la stratégie et à la prospective, novembre 2013 www.strategie.gouv.fr/publications/analyse-big-data-usages-defis
  • [4]
    S. Fischmann. « Big data, partie 2 : le quatrième paradigme de la science », Sciences et technologies de l’information et de la communication, 2013, n°336 http://www.france-science.org/Big-Data-Partie-2-Le-quatrieme.html
  • [5]
    R. Kurzwei. Humanité 2.0, la bible du changement, M21 édition, 2007
  • [6]
    C. Brasseur. Enjeux et usages du Big data, Éditions Hermès, 2003
  • [7]
    P. Perrot. « L’analyse du risque criminel : l’émergence d’une nouvelle approche », Revue de l’électricité et de l’électronique, décembre 2014
  • [8]
    J.-S. Vayre, « Le big data et la relation client. Quand les traces numériques organisent l’échange marchand », 12e Journées normandes de recherche sur la consommation : société et consommation, novembre 2013 https://hal.archives-ouvertes.fr/hal-00911765
  • [9]
    H.A. Simon. « Making Management Decision : the Role of Intuition and Emotion », Academy of management executive, 1987, n°1, p. 57-64
  • [10]
    B. Collin, D. Rouach. Le Modèle L’Oréal : les stratégies clés d’une multinationale française, Pearson Education France, 2009
Français

[données] Le déluge informationnel apparaît comme l’un des phénomènes majeurs du XXIe siècle. Un traitement technologique est utile pour filtrer les données mais la pensée stratégique ne peut se mouvoir que par des cerveaux formés à utiliser leurs intuitions comme d’une boussole.

Pascal Junghans
Enseignant à l’Université de technologie de Troyes
Chercheur-associé au CEREGE (CNRS EA 1722)
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 06/01/2016
https://doi.org/10.3917/i2d.154.0012
Pour citer cet article
Distribution électronique Cairn.info pour A.D.B.S. © A.D.B.S.. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...