© Donatien Rousseau

© Donatien Rousseau

Le déluge des données


La gestion de crise souffre du paradoxe de l’information : on passe son temps à chercher l’information pertinente tout en croulant sous l’information inutile. Ce déluge d’informations engendre l’éblouissement des gestionnaires de crise. Cet état de fait est clairement dû à deux éléments conjoints :

1- La révolution du “ tout “ 2.0 et son orientation vers l’ascendant, à savoir la génération “ tout azimut “ de données : le “ fantasme “ de la caméra sur le casque du pompier ou de sa veste connectée transmettant ses données vitales, la multiplication des capteurs de toutes sortes, l’intrusion des réseaux sociaux dans ce monde, l’Open data et la volonté du citoyen de bénéficier des données environnementales et sociétales les plus précises et complètes, etc.

2- L’incapacité des systèmes informatiques actuels à rassembler, recouper et regrouper ces masses de données qui sont alors archivées à plat et indexées dans d’immenses espaces de stockage. Le fait que cette masse de données ne soit pas interprétée globalement empêche toute autre exploitation que celle, directe, par les outils logiciels connectés de manière cloisonnée avec telle ou telle source de données, piochant systématiquement et précisément à une (ou plusieurs) adresse(s) de stockage pour récolter la (ou les) donnée(s) nécessaire(s) à son traitement. Un outil de prévision des conditions de circulation directement connecté à plusieurs capteurs de trafic et qui applique une formule mathématique aux données relevées illustre exactement ce mécanisme.

 

Regrouper les données pour les interpréter


Ce traitement des données générées par les sources de données de toutes natures (capteurs, réseaux sociaux, opendata, etc.) est archaïque et doit franchir le cap de l’interprétation. La meilleure image pour illustrer ce principe est anthropomorphique: pour maintenir son équilibre, un humain ne répond pas à chacun des signaux envoyés par ses capteurs sensoriels, ni même à l’union de ces signaux ; il s’appuie sur un mécanisme intermédiaire qui permet à son cerveau d’agréger les signaux reçus (par la vue, l’oreille interne, la peau, etc.) sous la forme d’une “ représentation de son corps dans l’espace “ (plus ou moins précise et plus ou moins fiable selon les individus) à laquelle il répond directement (sans même savoir ou tenir compte de la masse des signaux qui ont permis de construire cette image intermédiaire).

 

Décloisonner les données pour les exploiter


En gestion de crise, comme dans beaucoup de domaines, un enjeu prépondérant est alors le suivant : casser la liaison rigide et cloisonnée qui existe entre les données numériques collectées et leur exploitation par des outils informatiques pour intercaler un niveau d’interprétation des données afin de les rendre intelligibles par des générations d’outils informatiques plus intelligents. Finalement, si l’on veut permettre aux objets de parler intelligemment et surtout efficacement aux objets, il faut s’assurer que ces objets ne vont pas être destinés à ne parler qu’à un objet particulier mais bien à diffuser largement une information qui, associée à d’autres informations, pourra être utiles à différents objets, prédestinés ou non à recevoir ce message, mais en tout cas capable de l’exploiter de manière pertinente et productive. Les objets de demain devront trouver l’information (quel qu’en soit l’origine) et non la donnée (issue d’une source particulière).

 

Par FRÉDÉRICK BÉNABEN,
Enseignant-Chercheur Centre de Génie Industriel Ecole des mines d’Albi
frederick.benaben@mines-albi.fr