Big Data, entre origine et impact sur la société
baptiste 15 août 2017

Temps de lecture : 9 minutes

L’histoire de la Big Data, telle que l’on entend parler de nos jours est sans doute assez courte. Mais il est important de comprendre que bon nombre des fondations sur lesquelles elle a été construite ont été établies il y a des milliers d’années. À travers le temps on va découvrir que l’important est non pas de simplement collecter cette data, mais bien de l’analyser pour la mettre au service de tous. 


Bien avant la démocratisation des ordinateurs, l’idée de créer un ensemble de connaissances afin d’être analysées était populaire dans les milieux universitaires. Notre capacité à stocker et à analyser l’information a été en évolution constante, même si nous devons admettre que les choses ont accéléré considérablement à la fin du siècle dernier, avec l’invention du stockage numérique et de l’internet.

 

– PETITE HISTOIRE DE LA DATA

18 000 av. J.C – Les premiers exemples de stockage et d’analyse de données que nous avons sont les bâtons de pointage. L’os Ishango, est sans doute le plus populaire et a été découvert en 1960 dans ce qui est maintenant l’Ouganda. Il est considéré comme l’un des premiers éléments de preuve du stockage de données préhistoriques. En effet, il s’agissait d’un moyen mnémotechnique destiné à enregistrer un nombre en faisant des encoches sur des bâtons ou des os. Cela permettait de suivre l’activité commerciale ou les provisions.

 

De 300 av. J.-C. à 48 – La Bibliothèque d’Alexandrie est peut-être la plus grande collection de données du monde antique, abritant jusqu’à un demi-million de rouleaux et couvrant tout ce que nous avions appris jusqu’ici.

 

1663 – À Londres, John Graunt effectue la première expérience enregistrée dans l’analyse de données statistiques. En enregistrant des informations sur la mortalité, il prétend être capable de concevoir un système de prévention permettant de détecter l’apparition de la peste bubonique qui ravage l’Europe à l’époque.

 

1880 – Le bureau du recensement des États-Unis a un problème – il estime qu’il faudra 8 ans pour nettoyer et assembler toutes les données recueillies dans le recensement de 1880. Mais en 1881, un jeune ingénieur employé par le bureau, Herman Hollerith, produit ce qui deviendra connu sous le nom de l’Hollerith Tabulating Machine. À l’aide de cartes perforées, il réduit un travail de huit ans en trois mois et obtient sa place dans l’histoire en tant que père du calcul automatisé moderne. À partir de cette découverte, il créera sa propre entreprise : IBM

Big Data Hollerith
Hollerith et sa machine en 1890

 

1926 – Interrogé par le magazine Colliers, l’inventeur Nikola Tesla déclare que lorsque la technologie sans fil sera « parfaitement appliquée, toute la Terre sera convertie en un cerveau énorme… et les instruments par lesquels nous serons en mesure de le faire seront incroyablement simples par rapport à notre téléphone actuel. Un homme pourra en porter un dans la poche de son gilet. » Plutôt visionnaire non ?

 

1965 – Dans un article du Sun on apprend que le gouvernement américain planifie de mettre en place le premier Data Center du monde afin de stocker 742 millions de déclarations d’impôt et 175 millions d’empreintes digitales sur des bandes magnétiques.

 

1970 – Le mathématicien d’IBM Edgar F. Codd présente son système de « base de données relationnelle ». Le modèle relationnel est une manière de modéliser les relations existantes entre plusieurs informations, et de les ordonner entre elles. Cette modélisation, qui repose sur des principes mathématiques, est souvent retranscrite physiquement dans une base de données. À sa grande déception, IBM tarda à écouter ses conseils et les premières applications de ses théories seront développées par des entreprises concurrentes, notamment Oracles fondée par Lary Ellison.

 

1991 – L’informaticien Tim Berners-Lee annonce la naissance de ce qui deviendra le World Wide Web, tel que nous le connaissons aujourd’hui. Dans une publication, il définit les spécifications d’un réseau de données mondialement interconnecté accessible à n’importe qui, n’importe où.

Big Data Tim Bellers
Tim Berners devant son invention, le World Wide Web

 

1999 – Quelques années plus tard, le terme Big Data apparaît dans The Visually Exploring Gigabyte Datasets in Real Time, publié par l’Association for Computing Machinery. Ici, l’inutilité de stocker de grandes quantités de données sans moyen d’analyse adéquate est pointée du doigt. Le document poursuit en citant le pionnier de l’informatique, Richard W. Hamming : “The purpose of computing is insight, not numbers.” Une notion d’insight qui sera largement reprise dans le monde publicitaire.

 

2005 – Plusieurs articles annoncent que nous assistons à la naissance de «Web 2.0» – le Web généré par les internautes – où la majorité du contenu est fourni par les utilisateurs des services plutôt que les fournisseurs de services eux-mêmes. Ceci est rendu possible grâce à l’intégration de pages Web traditionnelles de style HTML avec de vastes bases de données fondées sur la technologie SQL. (Cette phrase est dédiée à tous mes amis geeks). À l’époque, 5,5 millions de personnes utilisent déjà Facebook, lancé un an plus tôt, où ils téléchargent et partagent leurs propres données avec des amis.

 

2014 – Le mobile passe un cap, puisque pour la première fois, plus de personnes utilisent des appareils mobiles, pour accéder aux données numériques, que des ordinateurs.

 

2017 – Le concept de Big Data n’est plus aussi tendance, mais il est directement lié à un des termes de l’année : l’intelligence artificielle. Grâce aux algorithmes du machine learning et au deep learning, nous sommes capables d’apprendre davantage des données. Le principe est simple, plus il y a de données, plus la machine apprend, la course à la donnée ne risque donc pas de cesser.

Cette chronologie nous permet certes de démontrer que les concepts de Data et de Big Data ne sont pas des phénomènes réellement isolés et nouveaux, mais en aucun cas de comprendre les enjeux de cette collecte et analyse massive de données.

 

— LES DONNÉES C’EST BIEN, LES ANALYSER C’EST MIEUX

Big Data : un buzzword marketing certes, mais également un raccourci pour faire comprendre comment la technologie ouvre la porte à de nouvelles approches pour comprendre le monde et prendre des décisions.

 

Un constat sans appel, les récentes avancées technologiques créent de plus en plus de données. Il existe, par exemple, d’innombrables capteurs dans les équipements industriels, les automobiles, les hôpitaux… Ils peuvent mesurer et communiquer l’emplacement, le mouvement, les vibrations, la température, l’humidité, même les changements chimiques dans l’air. Reliez ces capteurs à l’intelligence informatique et vous obtenez ce que l’on appelle l’Internet des objets.

 

De la même façon, l’amélioration de l’accès à l’information contribue également à l’accroissement des données. Par exemple, les données gouvernementales, les chiffres de l’emploi et d’autres informations ont migré sur le Web. En 2009, dans un souci de transparence, Washington a ouvert les portes de sa bibliothèque de données en lançant data.gov. Un site internet rendant accessibles toutes sortes de données sur le pays. La France a emboité le pas en 2011 avec le site data.gouv.fr. De parfaits exemples d’Open Data

 

Mais que fait-on avec toutes ses données ? Rick Smolan, créateur de la célèbre série de photographies Day in the Life, a sorti en 2014 un livre accompagné d’un documentaire, réalisé par son frère, intitulé The Human Face of Big Data. Dans ses œuvres et lors de ses différentes interventions, Rick Smolan veut nous convaincre qu’avec l’émergence rapide d’appareils numériques, une force imparable et invisible change les vies humaines : la Big Data.

 

The Human of Big Data explore comment la visualisation des flux de données à partir de satellites, de milliards de capteurs et des smartphones commence à nous permettre, en tant qu’individu et collectivement en tant que société, de détecter, de mesurer et de comprendre les aspects de notre existence d’une nouvelle manière. La prémisse du documentaire nous explique que tous nos appareils créent un système nerveux planétaire et que la collecte massive et l’analyse des données en temps réel nous permettent de répondre à certains des plus grands défis de l’humanité, y compris la pollution, la faim dans le monde et la maladie.

 

Pareillement, pour saisir l’impact potentiel de Big Data, l’économiste Erik Brynjolfsson du Massachusetts Institute of Technology, nous conseille de comparer la Big Data au microscope. Le microscope, inventé il y a quatre siècles, a permis aux gens de voir et de mesurer les choses comme jamais auparavant au niveau cellulaire. Pour lui, la Big Data est l’équivalent moderne du microscope. Les recherches de Google, les publications de Facebook et les messages de Twitter, permettent de mesurer des comportements et des sentiments en détail. Ainsi, dans le monde de l’entreprise, le professeur Brynjolfsson nous affirme que les décisions seront de plus en plus basées sur des données et des analyses plutôt que sur l’expérience et l’intuition.

Data visualisation réalisée par la Data Art Team de Chrome Experiment

L’histoire est similaire dans des domaines aussi variés que la science, le sport, la publicité et la santé publique, nous vivons une dérive vers la découverte et la prise de décision axée sur les données, « data-driven decision » en anglais. « C’est une révolution« , déclare Gary King, directeur de l’Institut Harvard pour les sciences sociales quantitatives. « Nous commençons tout simplement à faire des progrès. Mais la marche de la quantification, rendue possible par d’énormes nouvelles sources de données, va parcourir les universités, les entreprises et le gouvernement. Il n’y a pas de zone qui ne sera pas touchée.« 

 

Cependant, il est important de comprendre que selon Gary King, ce ne sont pas les données elles-mêmes qui sont la source de la révolution, mais bien les techniques d’analyse de celles-ci. Et c’est bien là tout le sujet de son dernier ouvrage Big Data is not about the Data. Selon Gary King, bien que l’augmentation de la quantité et de la diversité des données est indéniable, les données en tant que telles n’expliquent pas ce qu’on appelle la révolution Big Data. Les progrès réalisés dans l’analyse rendant les données accessibles au cours des dernières décennies sont également essentiels.

 

Et cette analyse des données est applicable à tous les champs de notre société. À titre d’exemple, les services de police de New York utilisent la cartographie et l’analyse informatisée de données comme les modèles d’arrestation historiques, les jours de paie, les événements sportifs et les vacances afin de prédire les « points chauds » et de déployer les agents au préalable.


La big data est un terme générique qui sous-entend de nombreux autres concepts. L’important était ici d’en connaitre l’origine pour pouvoir identifier les enjeux. Cependant, malgré le point de vue très positif de certains auteurs présentés ici, on ne peut nier les différentes problématiques engendrer par la big data. Chacun de nous laisse maintenant une trace numérique indélébile qui restera éternellement dans notre sillage, le véritable défi semble donc de réguler cette collecte et analyse de données.

baptiste

Your comment

Your email address will not be published. Required fields are marked *