Le mot algorithme, connu il y a encore 10 ans uniquement par les spécialistes du domaine et les ingénieurs en informatique a fait son coming out ces deux dernières années. Pas une semaine sans qu’un media ne parle d’algorithmes. Et il est vrai que nous utilisons tous, souvent sans le savoir, des algorithmes. L’addition que vous avez apprise à l‘école primaire est un algorithme !

 

Alors qu’est-ce qu’un algorithme selon Wikipedia : « Une suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre un problème ou d’obtenir un résultat ». Cette définition acceptée par la communauté des algorithmiciens englobe (même si on peut ne pas être tout à fait d’accord) l’ensemble des algorithmes en apprentissage automatique (le Machine Learning) et notamment les algorithmes de l’apprentissage profond (Deep Learning). La plupart des grandes entreprises et beaucoup de petites se sont lancées dans le développement de ces algorithmes appliqués à des situations métier.

Pourquoi un tel engouement ? Parlons d’abord des deux facteurs qui facilitent et rendent possible ce vif intérêt :

  1. La grande masse de données disponibles.
  2. La puissance de calcul invraisemblable dont on peut disposer pour pas très cher.

Grâce aux efforts déployés ces dernières années, certains algorithmes permettent désormais de faire des prédictions. À partir de données, de faits présents et passés, un algorithme prédictif, tel un oracle, calcule une prédiction sur un événement futur. Plus la masse de données est large et meilleure sera la prédiction.

Mais est-ce bien vrai ? Verrez-vous un jour votre médecin consulter d’abord son algorithme prédictif avant de vous livrer un diagnostic ? Peut-être pas pour toutes les maladies mais fort probablement pour de nombreuses. Verrez-vous un jour votre prime d’assurance automobile ou d’assurance vie calculée par un algorithme prédictif ? En fait : c’est déjà le cas ! Les primes demandées par les assurances vies par exemple reposent sur des tables de mortalité. La première de ces tables a été créée par Antoine Deparcieux vers 1746…

Qu’est ce qui change alors ? La conjonction des deux facteurs : masse de données et puissance de calcul. Ceci améliore les prédictions et donc la qualité des résultats.

Et que va-t-il se passer ? Sans être devin cela est assez facile : on va avoir une phase pendant laquelle on verra ces algorithmes utilisés à tort et à travers, pour prédire tout et n’importe quoi, et le tout avec des dérives graves ou moins graves. Et on verra quelquefois que ces algorithmes prédictifs se trompent partiellement voire totalement. Pourquoi ? Il y a plusieurs raisons. La plus importante : ce n’est pas parce qu’une « prédiction » a été calculée à grand renfort de données et de calculs qu’elle est juste. Pensez à la météo. Regarder une carte de France pour le week-end prochain ne vous donne pas la certitude du temps qu’il va réellement faire le week-end prochain. Même si les prédictions météos sont plus en plus fiables, cela reste une prédiction dont nous rappelons une des définitions : discours annonçant des événements futurs. Il faut aussi que la qualité des données soit réelle, que les modèles choisis soient pertinents et que les « spécialistes » soient vraiment compétents. Donc il est facile de prédire que l’on risque d’avoir une période transitoire mais, fort probablement, après cette phase, les algorithmes prédictifs deviendront utiles voire nécessaires dans de nombreux domaines.

La santé est certainement le domaine où ils vont prendre le pouvoir. Il ne faut pas s’inquiéter, il faut accompagner et si possible contrôler cette vague. Et peut-être un jour apprendre à résister à ces algorithmes prédictifs lorsqu’ils se feront trop invasifs. Et un jour peut-être verra-t-on ces algorithmes utilisés pour aider à vivre mieux, ensemble.

En savoir plus sur : Robert ERRA est Directeur du Laboratoire Sécurité & Systèmes d’EPITA

Dans sa carrière, il a créé et géré plusieurs formations en sécurité de l’information, tant en France qu’au Maroc, trois MS, un MSc et deux BADGES, tous accrédités CGE. Ses recherches portent sur l‘algorithmique en général et plus particulièrement en ce moment sur deux thèmes :

  1. La classification et l’analyse à très grande échelle de malware.
  2. Les algorithmes d’analyse des très grands graphes, ce qu’on appelle les graphes géants du web.

 

Le + de la rédac