L’année dernière, j’ai prédit qu’en 2013 l’analytique pour Big Data commencerait à s’introduire dans les grands déploiements et l’étude que nous avons récemment confiée à EMA indique que cela s’est produit. Cependant, l’ampleur de la demande pour le data blending, qui a accentué à la hausse cette courbe, m’a réellement surpris et je crois que cette tendance accélèrera la croissance du Big Data en 2014.
Prévision 1: La courbe de croissance du Big Data en 2014 sera modelée par la demande des utilisateurs métiers pour le data blending
Des clients tels que Paytronix et TravelTainment atteignent des objectifs d’entreprise spécifiques en mélangeant Big Data et données relationnelles. Les utilisateurs métiers sont enthousiasmés par le potentiel des données mélangées pour obtenir des nouvelles connaissances sur une vision des clients à 360 degrés. Cela inclut la capacité d’analyser les modèles d’habitudes clients et d’évaluer la probabilité que les clients tireront parti d’offres ciblées.
Prévision 2: Le Big Data doit bien fonctionner avec les autres données !
Historiquement, les projets Big Data se sont principalement développés au sein des services informatiques du fait des compétences techniques requises et d’un éventail croissant et déroutant de technologies qui peuvent être associées pour concevoir des architectures de références. Les clients doivent choisir parmi une variété de technologies commerciales et open source telles que les distributions Hadoop, les bases de données NoSQL, les bases de données à haute vitesse, les plateformes analytiques et de nombreux autres outils et plug-ins. Mais ils doivent également considérer leur infrastructure existante incluant les données relationnelles et entrepôts de données et comment ils vont se fondre dans le paysage.
Le côté positif de ce choix et de cette diversité est, qu’après des décennies de tyrannie et « d’emprisonnement » imposés par les éditeurs de logiciels en 2014, un pouvoir d’achat encore plus large reviendra aux clients. Mais il y a également des enjeux. Il peut être laborieux de gérer cet environnement de données hétérogènes concernés par l’analyse des Big Data. Cela signifie que l’informatique cherchera des outils pour Big Data afin de faciliter le déploiement et la gestion de ces architectures émergentes complexes, et de les simplifier. Il incombera aux fournisseurs de technologies pour Big Data de bien s’entendre et de tendre vers une compatibilité. En fin de compte, la capacité d’accéder à l’information et de la gérer à partir de sources multiples donnera une valeur ajoutée à l’analytique pour Big Data.
Prévision 3: L’Innovation de la Communauté Open Source pour le Big Data sera plus rapide
De nouveaux projets open source tel qu’Hadoop 2.0 et YARN, gestionnaire de ressources Hadoop de nouvelle génération, rendront l’infrastructure Hadoop plus interactive. De nouveaux projets open source tels que STORM, protocole de communication des flux, permettra d’avantage le mélange d’informations à la demande en temps réel dans l’écosystème Big Data.
Depuis notre annonce des premiers connecteurs natifs Hadoop en 2010, nous sommes engagés dans la mission de faciliter la transition vers les architectures Big Data et de limiter les risques dans ce contexte d’écosystème en développement. En 2013, nous avons énormément innové dans ce sens en commençant par notre ressource fondamentale, l’adaptive big data layer. Ce module permet aux services informatiques de se sentir plus habiles, sécurisés et confiants quant à leurs architectures de référence et d’ouvrir des solutions Big Data aux utilisateurs métier, qu’ils soient experts des données, analystes des données, analystes des opérations marketing ou responsables de lignes de produits.
En définitive… on ne peut préparer demain avec les outils d’hier
Nous continuons d’affiner notre plateforme pour contribuer à l’analytique de demain. En 2014, nous annoncerons de nouvelles fonctionnalités, des mises à jour et nouveaux plug-ins pour faciliter et accélérer encore davantage le déplacement, le mélange et l’analyse des sources relationnelles et Big Data. Nous projetons d’améliorer les capacités de notre module Adaptative Data Layer et de le rendre encore plus sécurisé et simple afin que les clients gèrent leurs flux de données. Côté analytique, nous travaillons pour simplifier la recherche de données à la volée pour tous les utilisateurs métier et pour faciliter la recherche de modèles et la détection d’anomalies. En ce qui concerne Pentaho Labs, nous continuerons de travailler avec les premiers utilisateurs pour concocter de nouvelles technologies et présenter des éléments tels que des données machines prédictives et l’analyse en temps réel au sein de productions à grande échelle.
Alors que les gens en entreprise voient ce qui est possible avec le mélange des Big Data, je crois que nous serons témoins d’innovations et de résultats vraiment passionnants. J’espère que vous êtes aussi enthousiastes que je le suis pour 2014!
Par Quentin Gallivan, Pentaho
Source : decideo.fr