[Lesechos.fr] Le « big data » et les atouts français

Le volume de données numériques générées par Internet dépasse l’imagination : on estime que l’humanité produit chaque jour autant de bits d’informations qu’elle en avait produits au total jusqu’à la fin du XXe siècle.

Le « big data », c’est cette masse d’informations numériques dont l’exploitation présente des opportunités encore à peine explorées à ce jour. Or la France est très bien placée pour profiter de ces opportunités et faire du « big data » un facteur de compétitivité, de croissance et de création d’emplois.

En effet, les deux outils de base d’exploitation des données numériques sont les mathématiques appliquées et les logiciels, et les deux sont des pôles d’excellence français. C’est un domaine où les jeunes pousses peuvent démarrer avec un investissement limité. Nous avons aussi un tissu d’entreprises importantes de création de « contenu », dans la publicité, la création de programmes audiovisuels, de jeux et d’animation électronique.

Au-delà des volumes, les données recueillies sur Internet ont des caractéristiques nouvelles, qui créent une rupture dans leur potentiel de valorisation. Elles sont souvent géolocalisées et horodatées, et accessibles en temps réel. Dans le domaine de la santé, l’accès en temps réel aux constantes biologiques des personnes (par exemple le rythme cardiaque) change la donne. Les sources d’informations se sont également multipliées. De leur côté, les objets connectés multiplient par un facteur élevé le volume d’informations générées et en créent d’une nouvelle nature. Ils changent la donne dans l’industrie, au niveau de la production et de l’après-vente, en permettant par exemple les diagnostic et les dépannages sophistiqués à distance. A vrai dire, il n’y a guère de secteur d’activité qui ne soit concerné.

Cependant les problèmes que pose le « big data » sont nouveaux par la dimension, la diversité et la structure des données disponibles, à la fois très nombreuses, hétérogènes et très incomplètes. Les problèmes sont à la fois théoriques – développement de modèles d’analyse de grandes masses de données lacunaires – et pratiques – mise en œuvre informatique rapide et économique des nouvelles méthodes de traitement, notamment en temps réel. Les méthodes statistiques classiques n’opèrent plus et la coopération entre mathématiciens, statisticiens et informaticiens est essentielle pour construire des méthodologies nouvelles dans la lignée des techniques développées pour les données issues de la biologie ou du traitement d’images. C’est un des domaines où la formation française est excellente.

C’est sur la recherche et la formation que repose le développement des entreprises qui traitent et utilisent les données numériques et que nous pouvons avoir un avantage compétitif. Les initiatives existent à tous les niveaux, celui de l’enseignement supérieur et de la recherche comme celui de l’enseignement technique et de l’apprentissage. Par exemple, avec l’école créée par Xavier Niel pour former à l’informatique des jeunes de toutes les origines, hors circuits traditionnels ; ou, dans un registre complètement différent, les initiatives de recherche développées par Dauphine-PSL avec le soutien d’entreprises françaises ; ou encore le colloque international de chercheurs de haut niveau sur le « big data », qui se tient les 20 et 21 mars à Paris à l’initiative de l’Institut Louis-Bachelier. Côté entreprises, les incubateurs se sont multipliés, notamment en liaison avec les nouvelles universités de recherche comme Paris-Saclay ou Paris Sciences et Lettres. Nous avons donc les cartes pour tirer le meilleur parti de la transition numérique que nous vivrons dans les prochaines années, à condition que l’action et le soutien publics s’appuient sur les initiatives décentralisées des entreprises, des universités et des écoles. Le défi vaut d’être relevé.

Par André Lévy-Lang et Jean-Michel Lasry
Source : lesechos.fr

Laisser un commentaire