[L’AGEFI] Le nouveau paradigme informatique du Big Data

Le nouveau paradigme informatique du Big Data

‘Né de l’explosion de l’information disponible, le Big Data (volumes massifs de données) est une révolution technologique dans la mesure où il est capable de collecter, stocker et exploiter des données en très grandes quantités. On l’appelle d’ailleurs parfois la révolution de la donnée. Ce n’est qu’à travers ces trois actions que des ensembles de données, si vastes et véloces soient-ils, deviennent du Big Data. Seuls des systèmes spécialisés dans le calcul de haute vitesse (algorithmes) sont capables d’analyser un grand volume de données.

Quatre dimensions servent à définir le Big Data: le volume (chaque jour, nous générons 2,5 trillions d’octets de données), la vélocité (on s’achemine de plus en plus vers le traitement des données en temps réel), la variété des sources (capteurs intelligents, réseaux sociaux, images numériques et vidéos publiées en ligne, achats en ligne, signaux GPS de téléphones mobiles, etc.), la véracité (précision, exactitude).

Dans les années 1980, on a assisté à l’augmentation fantastique de la puissance de calcul des ordinateurs. À partir des années 1990, Internet a mis en réseau les ordinateurs et, avec l’intensification de nos pratiques en ligne et la massification des capteurs (à commencer par les téléphones mobiles), les humains du monde entier. L’étape actuelle se traduit par un changement de paradigme: la valeur de l’informatique était de créer des outils pour manipuler les données, puis dans la création des processus qui manipulent ces outils. Maintenant, on se rend compte que la valeur se trouve dans la donnée elle-même. Dans notre société, de plus en plus de faits deviennent des informations à valoriser dans des bases de données.

Traditionnellement, les données étaient rattachées à l’entrepôt de données (datawarehouse) dans lequel elles étaient stockées. Aujourd’hui, l’informatique dans les nuages (cloud computing) stocke les données en ligne et les rend ainsi accessibles sans contrainte de lieu ni de temps. Un tiers des données sera stocké dans le cloud d’ici à 2020, selon Stéphane Grumbach, de l’Institut français de recherche en informatique et automatique (INRIA). Une plateforme Big Data stocke environ cinq fois plus d’informations qu’un entrepôt de données traditionnel. Le cloud computing permet de démocratiser le Big Data en le rendant accessible à des PME ou à des acteurs peu familiers du traitement des données. Mais surtout il permet leur analyse en temps réel.’ […]
Lire l’intégralité de l’article
Par Henri Schwamm, Université de Genève
Source: agefi.com

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *