Blogue

Big Data : faut-il passer à l’action ?

Cogeco Peer 1

octobre 01, 2013

Share:    

Sujet fort débattu ces derniers temps, le Big Data a encore besoin de faire ses preuves pour beaucoup d’entreprises mais les premiers retours d’expérience aident à clarifier le propos. Dans un récent avis d’expert, Didier Gaultier, directeur du développement SPAD et Data Mining chez Coheris, éditeur français de logiciels spécialisés, fait le point en 6 questions que tout porteur de projet doit se poser.

Les entreprises qui se lancent dans un projet Big Data misent sur le fait qu’une exploitation raisonnée des masses de données accumulées dans leurs serveurs peut être un formidable levier de croissance pour leur activité. Cette idée s’appuie sur une prise de conscience : le rôle clé des méthodes statistiques dans l’analyse des données, une compétence que connaissent bien les spécialistes des techniques de Data Mining comme Coheris SPAD. Mais comment une entreprise doit-elle mener un tel projet ? Eléments de réponse en 6 questions clé.

Qu’apporte concrètement le Big Data ?

L’exploitation intelligente de gros volumes de données est surtout l’occasion de mettre en application réelle une antienne bien connue : « mettre le client au centre de l’entreprise ». Le Big Data, le Data Mining et l’analyse de données concernent directement cet enjeu essentiel en donnant à l’entreprise des capacités de « prédiction » sur le comportement des clients, tout cela pour éviter d’abord d’en perdre mais aussi pour mieux gérer leur « cycle de vie ». Il s’agit finalement de mieux comprendre le parcours client et surtout d’améliorer son expérience. Ce point de vue n’est pas encore trop souvent mis avant à propos du Big Data mais il va devenir central. Selon Didier Gaultier, « sans Data Mining, pas de connaissance client donc pas d’amélioration possible de son expérience.
Le Big Data permet aussi d’anticiper les évolutions du marché, de comprendre pourquoi des clientèles se sont détournées très vite de certaines entreprises au profit de leurs concurrentes ou pour des produits de substitution. Il est quasiment impossible de faire travailler des analystes pour « veiller » sur tout un secteur ; le Big Data, lui, offre la possibilité de scruter ses données chiffres et de mener l’enquête pour expliquer la moindre irrégularité constatée ».

Quel est le point de départ ?

« La mauvaise idée est de penser qu’il suffit de collecter énormément de données, de les mettre dans un centre de stockage pour ensuite espérer faire du Big Data avec un outil magique », affirme Didier Gautier. C’est pourtant un discours que l’on entend souvent, y compris chez certains prestataires. La donnée brute est bien la matière de base du « dataminer » mais le stockage n’a rien à voir avec un modèle d’analyse pertinent qui, seul,  apporte de la valeur pour l’entreprise.

Que faut-it pour s’attaquer au big data ?

Comme dans beaucoup de projets, il faut d’abord se fixer un objectif ! L’entreprise doit avoir une stratégie et déterminer d’abord ce qu’elle veut faire. Au-delà de ce pré requis, elle a également besoin de compétences adéquates, puisées en interne ou recherchées en externe. Il lui faut non seulement de bonnes compétences, mais aussi un bon architecte de projet et de bons coordinateurs, capables de parler à plusieurs métiers. Hélas, le marché manque cruellement de « data scientists » qui alignent la triple compétence de statisticien, d’informaticien et de celui qui a la bonne compréhension du métier concerné (le marketing par exemple).

Le conseil pratique de Didier Gautier est d’attaquer un projet Big Data comme tous les autres projets et d’être extrêmement rigoureux et vigilant sur son déroulement. La rigueur est effectivement nécessaire car une compilation de données n’est pas spontanément propice à un traitement statistique. C’est plutôt la qualité et la richesse de l’information collectée qu’il faut d’abord évaluer, le volume n’a en lui même que peu de valeur réelle pour l’entreprise.

Comment choisir son outil d’analyse du Big Data ?

« Outre sa capacité à traiter de grands volumes de données rapidement, l’outil d’analyse doit être accessible aux métiers impliqués dans le processus, sinon il faudra compenser le manque de spécialistes en ayant recours à la pédagogie et à l’intuition », suggère Didier Gautier. Il n’existe pas de solution miracle qui produit des résultats immédiatement exploitables. L’outil doit donc être suffisamment complet et ouvert pour permettre l’application de modèles d’analyses adaptés à la situation. Si l’on accède à des données de qualité permettant d’appliquer des algorithmes statistiques on obtiendra assurément un modèle solide, précis et fiable. Pour autant, dans un environnement Big Data, l’outil doit également être capable de traiter des données de moindre qualité à l’aide notamment d’algorithmes moins exigeants, comme le Support Vecteur Machine (SVM), les réseaux bayésiens, ou les réseaux de neurones.

Comment convaincre le management ?

« Les premiers retours d’expériences sont récents ce qui rend difficile le chiffrage exact des retours sur investissements de projet Big Data. Il ne faut donc pas chercher à convaincre avec des chiffres probants mais argumenter sur le fait qu’ignorer le sujet ou s’effrayer de sa complexité apparente ne sont pas de bonnes politiques et qu’il sera sans doute trop tard quand on se rendra compte de son impérieuse nécessité. Il ne faut pas reproduire les erreurs du virage Internet chez les VPCistes », exhorte Didier Gautier. « Le Big Data est un projet à long terme, avec de gros enjeux et de gros investissements, de l’ordre de ceux qui changent en profondeur l’entreprise. Prendre du retard maintenant, c’est risquer la catastrophe à l’arrivée ».

Faut-il encore attendre ?

« Il vaut mieux commencer un projet modeste dès maintenant plutôt que d’agir dans l’urgence plus tard avec une tâche ambitieuse qui risque de ne jamais s’achever », conseille Didier Gautier.  « Il faut bien entendu en parler à la DSI mais aussi impliquer le service commercial,  le marketing, les ressources humaines et bien entendu la direction générale ! Il peut y avoir des ramifications inattendues », prévient Didier Gautier, d’où l’intérêt de travailler avec le management dès le départ et au delà du feu vert de principe puisqu’un projet Big Data a des incidences en termes de moyens et de ressources. C’est l’occasion aussi de faire une évaluation des compétences disponibles en interne. Il faut populariser le projet dans l’entreprise et le rendre intelligible jusqu’au niveau opérationnel ; ce travail étant indispensable si l’on veut que l’entreprise tire le maximum de valeur du Big Data.

 Quel rôle pour l’hébergeur-infogérant ?

On ne peut éviter de se poser une septième question sur le rôle que peut jouer un hébergeur en charge de l’infogérance de tout ou partie du SI d’une entreprise engagée dans un projet Big Data. Au delà des capacités d’hébergement de données et des fonctionnalités mises en œuvre par l’hébergeur pour aider à traiter ces grosses masses d’informations, celui-ci peut partager l’expérience tirée de projets similaires menés pour d’autres clients. Et bien que l’analyse des données soit une activité hautement stratégique, l’hébergeur peut être amené à y participer d’une façon ou d’une autre en mettant par exemple des capacités de calcul ou de stockage ponctuellement à disposition sur des infrastructures virtualisées. Le rôle de l’infogérant sera évidemment proportionnel à son niveau d’engagement et au degré de confiance dont il bénéficiera de la part de son client.


Contactez-nous

Vous aimeriez savoir comment tirer le maximum de votre infrastructure de données ? Contactez l’un de nos experts en solutions d’infrastructure dès aujourd’hui et découvrez ce qu’Aptum peut faire pour vous !

Obtenir un devis