Comment Voyages-sncf.com met la data au cœur des métiers

Avenir de l’IT : Voyages-sncf.com s’est lancé dans l’aventure Big Data depuis 2011 et depuis quatre ans déjà sur la partie connaissance client. Premier objectif : envoyer aux internautes des messages ciblés dans des délais toujours plus courts.

Les projets Big Data au sein du marketing chez Voyages-sncf.com ont démarré en 2013. « Notre volonté était d’utiliser des données de navigation provenant de nos clients, tous internautes », explique Damien Bigot, responsable Data et outils marketing. « Jusque-là, nous ne disposions que des données transactionnelles – achats, comptes clients, etc. Et donc une bonne partie de données liées à notre relation avec la clientèle nous échappait. Par exemple, lorsqu’un client internaute ne trouvait pas ce qu’il cherchait, nous ne pouvions pas revenir vers lui et l’aider».

Comment Voyages-sncf.com met la data au cœur des métiers - 2017 - 2018 

Sur son portail, Voyages-sncf.com enregistre 760 millions de recherches par an. Et chaque année est envoyé un milliard d’emails. C’est clairement un terrain pour le Big Data. « Si nous avions utilisé des solutions de BI (Business Intelligence) traditionnelles, le coût aurait été trop élevé », ajoute Damien Bigot.

Le premier objectif visait à proposer aux internautes voyageurs, une à deux fois par semaine, des destinations personnalisées ainsi que des services connexes. Un PoC

[proof of concept] a été créé, portant sur la recommandation de destinations et sur l’incitation à voyager en fonction des goûts exprimés ; et en profitant des promotions: « D’autres personnes ont apprécié cette destination, elle devrait vous plaire aussi, … . »

Premiers résultats encourageants

Jusque-là, les responsables commerciaux déterminaient, en tâtonnant de façon arbitraire, quelles étaient les meilleures destinations en France. Les premiers résultats sont encourageants : « Nous avons constaté deux fois plus de clics sur les destinations et nous avons enregistré une amélioration de 1 point sur les désabonnements ».

Mais rien n’est gagné d’avance: « Au début, on part avec beaucoup d’enthousiasme. On pense que l’on va vite pouvoir étendre l’application, la généraliser, l’automatiser et la faire fonctionner durant les week-ends. Nous avons commencé par envoyer nos offres une fois par mois. En réalité, nous étions encore loin de la phase d’industrialisation, en pratique il a fallu 6 mois pour être vraiment opérationnel et parvenir à deux envois par semaine. Il a fallu beaucoup ré-écrire le code et gérer les cas particuliers ».

« Voyages-sncf Technologies hébergeant à la fois le datalake Voyages-sncf.com mais aussi celui de la Big Data Fab du groupe SNCF, nous avons des échanges réguliers et nous avons rencontré les mêmes écueils – par exemple des algorithmes qui n’étaient pas ‘scalables’ [extensibles], une phase de réécriture trop importante, … ».

Une phase clé : le nettoyage des données

Après ce constat, une démarche différente a été adoptée : « Nous avons pris du recul notamment sur l’importance du nettoyage préalable des données et sur le règlement des cas particuliers afin d’éviter l’arrêt du ‘pipeline’ des données traitées sur la plateforme ». Une nouvelle organisation a été mise en place pour rendre fluide la relation entre le métier et les data scientistes « Cela permet d’augmenter la fréquence des tests vers le client, car les personnes sont désormais côte à côte au sein d’une même équipe et partagent les mêmes objectifs».

Par ailleurs, la partie développement doit évoluer vers des process plus industrialisés. « Pour que la diffusion de la donnée soit fluide dans le reste du SI, il faut construire correctement les process et les flux dès le départ. Tout ce qui est développé doit être réutilisable. Cela permet ensuite de se concentrer sur l’amélioration des modèles mathématiques. La collaboration doit être nourrie entre les data-ingénieurs et les data-scientistes. Aujourd hui, nous sommes à un pour un. Il est possible de constituer des binômes efficaces mais nous souhaitons que les data-scientistes gagnent en expertise sur les pratiques de développements pour minimiser les tâches de ré écriture du code ».

Dans ces conditions, en industrialisant les modes de fonctionnement, il devient possible de parvenir à des tests quasi automatisés en production dans un délai d’un à deux mois de développement. Et ainsi, on peut tendre vers la fourniture de services IT en continu ou presque.

Un autre objectif est visé : parachever une supervision prédictive de l’ensemble, avec la possibilité d’envoyer des alertes dès la détection de petits écarts qui pourraient signifier des anomalies, etc.

La data au cœur du dispositif

L’organisation a donc été adaptée. Jusque-ici, il existait une équipe Innovation orientée ‘data’. Aujourd’hui la ‘data’ est mise au cœur des métiers- ce qui est très structurant. Elle est disponible via divers API au sein du SI.

« Il faut tester de nouvelles idées, de nouveaux cas d’usage possibles, même s’ils ne sont pas toujours réalistes. Nous avons le droit à l’erreur, d’autant plus que nous pouvons réajuster très vite. Cela permet de tester et d’optimiser nos envois de messages. Nous pouvons les préparer avec le bon contenu et vers la bonne cible ». A terme, ils pourraient être envoyés en quasi-temps réel. « Nous possédons une architecture physique HPE d’une quinzaine de machines avec une distribution Hortonworks 2.5.3. Nous utilisons le moteur de calcul Spark pour le traitement des données.»

Eviter les grands programmes, rester agile

En résumé, certains points de vigilance s’imposent : « Il faut éviter de lancer un grand programme uniquement sur la constitution d’un datalake avec toutes les données de l’entreprise, et donc rester dans des cycles ‘business’ rapides. A partir de cas d’applications, il faut collecter les données nécessaires, les travailler et les tester. Et ensuite, d’autres cas et donc d’autres données viendront enrichir ce data lake », conclut Damien Bigot.

  • Big Data, mais Big menaces également
  • Big data et robotique : une longue histoire
  • Le Big Data, la clé des Smart Cities de demain
  • Construire votre infrastructure Big Data : 4 composantes clés pour réussir
  • 3 raisons pour lesquelles l’IA et le Big Data décollent maintenant

Comment Voyages-sncf.com met la data au cœur des métiers

Source : L’article Comment Voyages-sncf.com met la data au cœur des métiers >> est extrait de ZDNet

Une sélection d'articles qui pourraient vous intéresser ...

Comment Voyages-sncf.com met la data au cœur des métiers - 2017 - 2018
Ne manquez plus rien!
Abonnez-vous dès maintenant aux infos de SOSVirus et recevez chaque mois, le meilleur de la sécurité informatique : news, tutos, hacking, alerte ransomware, spam alerte ...

1 Etoile2 Etoiles3 Etoiles4 Etoiles5 Etoiles 1 avis, 5,00/5
Loading...
2017-09-18T18:29:41+00:00

Laisser un commentaire