Pour Karine Calvet, directrice générale de Verizon France, l’incontournable Big Data ne pourra émerger qu’à condition de réunir les critères qualitatifs du Cloud. Un niveau d’exigence qu’auront du mal à atteindre certains acteurs du Cloud. Ce qui ouvre la voie à la consolidation de ce marché.
Depuis quelques années, la question du Cloud occupe les gros titres en ne laissant que peu d’espace pour les autres tendances IT. Mais récemment, le « Big Data » a supplanté le Cloud dans les discussions et mobilise plus encore l’attention des professionnels. Une chose est sûre, maintenant que l’on connaît mieux les capacités et le potentiel du Big Data : celui-ci n’aurait jamais pu exister sans le Cloud, et à cause de lui, le Cloud ne sera plus jamais pareil. Nous autres, fournisseurs et utilisateurs des technologies Cloud, nous devons nous interroger sur les changements à venir pour l’industrie. Sommes-nous prêts à gérer la déferlante du Big Data ? Est-ce que tous les fournisseurs Cloud pourront assumer les nouvelles demandes générées ?
Si le Big Data apparaît compliqué de prime abord, un large pourcentage de la population s’expose à son utilisation chaque jour sans s’en rendre forcément compte. Par exemple, grâce au Big Data, les grands moteurs de recherche suggèrent des mots dans leur barre de recherche avant même que l’utilisateur ait fini de taper un terme. Comment est-ce possible ? C’est effectivement une opération complexe, mais pour faire simple, disons que les moteurs de recherche stockent de grandes quantités de termes de recherche, qu’ils trient et classent pour pouvoir suggérer aux internautes les mots les plus populaires et pertinents.
La nature perturbatrice du Big Data
Dans le contexte du Cloud, la nature complexe et perturbatrice du Big Data prend tout son sens. Cette nature perturbatrice est liée aux différents facteurs qui entrent en jeu pour parvenir à exploiter ces énormes volumes de données, mais aussi pour les sollicitations supplémentaires auxquelles les fournisseurs de services Cloud doivent faire face. Par exemple :
1. Toutes les données doivent être stockées au même endroit : en effet, il faut pouvoir analyser et traiter les données au même endroit, sans quoi les déplacements de données entre différents lieux prolongeraient considérablement les délais d’analyse. Les fournisseurs de Cloud doivent donc avoir au moins un datacenter pouvant stocker toutes les données. Est-ce que c’est le cas de tous les fournisseurs Cloud ?
2. La fiabilité du réseau compte : pour pouvoir analyser avec efficacité de grandes quantités de données, les fournisseurs de Cloud doivent pouvoir offrir un réseau ultra-fiable et puissant, sans quoi on risque bien d’attendre le résultat d’une analyse pourtant censée être instantanée. Est-ce que tous les fournisseurs peuvent offrir un réseau aussi puissant ?
3. Le strict respect des accords de niveau de service (SLA) : en cours d’analyse, une défaillance de machine virtuelle (VM) suffit à interrompre l’opération et le client devra réexécuter toute sa requête. Autrement dit, avec le Big Data, les accords de niveau de service cessent d’être une simple préférence pour devenir obligatoires. Est-ce que tous les fournisseurs Cloud satisfont à cette exigence ?
4. Configuration sur mesure, au cas par cas : puisque la stabilité, la puissance du réseau et la capacité de stockage prennent de l’importance avec le Big Data, les niveaux de performance et de qualité de service doivent pouvoir être configurés pour chaque client. Est-ce que tous les fournisseurs peuvent honorer cette exigence, et surtout l’accepteront-ils ?
Satisfaire toutes les exigences
Il est clair que la qualité de service du réseau, les accords de niveau de service portant sur la performance et la disponibilité, ainsi que les API sont des aspects critiques pour le bon fonctionnement des outils d’analyse du Big Data. Pour cette raison, tout fournisseur Cloud doit satisfaire chacune de ces exigences afin de pouvoir exécuter correctement les analyses et prétendre fournir des services autour du Big Data.
Or, la majorité des fournisseurs Cloud ne sont pas prêts. En conséquence et dans le contexte de la future croissance exponentielle des services autour du Big Data, on assistera probablement à la consolidation de l’industrie, qui va se resserrer autour d’une poignée de fournisseurs qui poursuivront leur développement, tandis que les autres se spécialiseront sur des niches et résoudront les problèmes IT secondaires des clients. Ne vous y trompez pas : la révolution du Big Data a déjà commencé, et alors que chaque DSI se sent contraint de trouver de nouveaux moyens économiques pour stimuler la croissance, le Big Data va continuer d’alimenter les conversations et devenir un facteur de consolidation du marché du Cloud.
Karine Calvet, directrice générale de Verizon France
Source : silicon.fr