[After The Web] Big Data – les prédictions 2015 de Xavier Guérin, MapR

<strong>BigDataFr recommande</strong> : <a title="@afterweb.com Big Data - les prédictions 2015 de Xavier Guérin, MapR" href="http://aftertheweb.com/big-data-les-predictions-2015-de-xavier-guerin-mapr/" target="_blank">Big Data – les prédictions 2015 de Xavier Guérin, MapR

‘2015 sera l’année où les organisations poussent leurs déploiements Big Data au-delà des implémentations initiales de traitement par lots pour passer au temps réel. Cette évolution est le fruit des avancées considérables réalisées par les leaders de l’industrie, et par les leaders en devenir, dans l’intégration de nouvelles plateformes Big Data dans leurs opérations, s’appuyant sur l’analytique « à la volée » pour transformer leurs métiers.

Les cinq principales évolutions de 2015 selon Xavier Guérin seront les suivantes :

1. L’agilité des données devient le principal sujet

Les bases de données historiques et les data warehouses sont si onéreux que les ressources des administrateurs sont requises pour aplatir, résumer et pleinement structurer les données. Mais les coûts associés retardent l’accès à de nouvelles sources de données, et les structures rigides s’avèrent difficiles à modifier alors qu’elles vieillissent. Le résultat est évident : les bases de données patrimoniales ne sont pas suffisamment agiles pour répondre aux besoins modernes de la plupart des organisations. Les projets Big Data initiaux se concentraient sur le stockage de données issues de sources variées. Plutôt que de se concentrer sur le volume de données gérées, les organisations vont se concentrer sur l’évaluation de l’agilité des données. Comment l’agilité à traiter et analyser des données affecte les opérations ? Avec quelle rapidité est-il possible de s’adapter et de répondre aux changements dans les préférences des clients, dans les conditions de marché, dans les actions des concurrents, et dans le statut des opérations ? Ces questions vont influer sur les décisions d’investissement et sur le périmètre des projets Big Data de 2015.

2. Les organisations passent de lacs de données à des plateformes de traitement de données

Au cours de l’année passée, les lacs et hubs de données ont été populaires pour les déploiements Hadoop initiaux. Un lac de données, ou hub de données, est une infrastructure élastique qui est à la fois économiquement attractive – avec un coût par To réduit – et agile – elle est capable de stocker des formes variées de données structurées et non structurées. La possibilité d’utiliser des milliers de serveurs et de stocker des pétaoctets de données pour moins de 1000 $/To par an est l’un des bénéfices clés d’Hadoop. En 2015, les lacs de données vont évoluer, les organisations passant du traitement par lots au temps réel pour intégrer des moteurs de bases de données, Hadoop, et des données basées sur des fichiers au sein de plateformes de traitement à grande échelle. En d’autres termes, il n’est plus question de stockage à grande échelle dans un lac de données pour supporter des requêtes et des rapports plus étendus ; la grande tendance de 2015 touchera à l’accès en continu et au traitement d’événements et de données en temps réel pour accéder à une information continue et pouvoir ainsi agir dans l’instant.

3. Le Big Data en self-service se démocratise

Retrouver l’intégralité de l’analyse de Xavier Guérin, Vice Président EMEA en charge du business development, des partenariats et des alliances chez MapR’
Par Thomas Graindorge
Source : afterweb.com

Laisser un commentaire