Aller au contenu

Changer les méthodes de travail avec la Fab Big Data – 5 questions à Benoît Calande

Trois ans déjà que la Fab Big Data a été créée. Maillon essentiel dans la transformation numérique de SNCF, cette structure multiplie les projets au service de la performance industrielle du groupe. Benoît Calande, son directeur, nous en dit plus.

Publié le

Par La Redaction

Comment définiriez-vous le rôle de la Fab Big Data au sein du groupe ?

Le cœur de notre mission ? Permettre l’utilisation et la valorisation des données. La manière d’y parvenir ? Mettre aussi bien des moyens humains que technologiques à la disposition des différentes entités. Nous sommes aussi en charge du “data lake” de l’entreprise, soit le stockage d’une grande partie des données auxquelles nous facilitons l’accès.

Qui dit “données” au sein de SNCF, dit…

Plein de choses ! À l’image du groupe, elles sont très diverses. Elles peuvent concerner la circulation ferroviaire, la maintenance des voies comme du matériel roulant, la gestion du trafic, les boîtes noires des trains, la consommation énergétique, etc.

Face à l’ampleur de la tâche, comment vous organisez-vous ?

La Fab Big Data, c’est à peu près 70 personnes et trois grands types de métiers. Les missions les plus classiques sont celles qui concernent l’accompagnement de projets : directeurs ou directrices de mission, chefs de projet, etc. Ensuite, il y a toute la partie technique autour du Big Data : architectes, spécialistes de mise en place de flux de données, etc. Et enfin, tout ce qui touche à l’intelligence artificielle et à la conception de traitement de données : data scientists ou data engineers en grande majorité.

Sur quels projets la Fab Big Data travaille-elle en ce moment ?

Nous travaillons par exemple sur la question énergétique pour le compte de SNCF Mobilités. L’enjeu est essentiel dans la mesure où SNCF est un des plus gros consommateurs industriels d’électricité du pays… La finalité, c’est un meilleur suivi et, de fait, un meilleur pilotage de notre gestion énergétique. Or, on ne peut réduire que ce que l’on mesure finement. Via le traitement des données, le but est d’obtenir – pour chaque origine-destination – une vision précise de la consommation unitaire par train. En analysant notamment les conditions et comportements de conduite, nous pouvons être en mesure de proposer des plans d’action efficaces.

Et un autre projet totalement différent ?

Pour SNCF Gares & Connexions, nous étudions la qualité des affichages en gare, facteur important de régularité pour nos trains. Ce qui est logique : plus nous annonçons un quai tardivement, plus le risque de retard est élevé. Raison pour laquelle SNCF s’est engagé à informer la voie 20 minutes avant le départ. Notre travail, c’est fournir les moyens de répondre à cette problématique, ce qui permet de dégager ensuite des axes d’amélioration.

En quoi aujourd’hui votre apport devient essentiel ?

Le Big Data, comme l’intelligence artificielle, sont des nouveaux moyens au service de l’entreprise, et des leviers puissants. Naturellement, nos enjeux se situent vers un meilleur service client, une sécurité toujours plus grande et une amélioration de notre performance industrielle. On le voit bien actuellement, la volumétrie de données n’a plus rien à voir, les entreprises ne généraient pas autant de datas auparavant. Les systèmes classiques ne parviennent plus aujourd’hui à récupérer et croiser autant d’informations, ils ont atteint leurs limites. Des nouvelles sources de données apparaissent, comme la vidéo ou l’image 3D des voies ferrées. Si elles améliorent sans nul doute notre connaissance du réseau, elles changent aussi nos manières de travailler. Et ce que proposent les data sciences, c’est cela : la capacité de regrouper, de traiter et de prioriser les données.

Et pourtant, le Big Data est parfois source de craintes…

C’est la raison pour laquelle il est important de circonscrire le sujet. Le Big Data, c’est quoi ? De la technologie, une infrastructure technique qui permet, rapidement et à moindre coût, de stocker et traiter de la donnée hétérogène et volumineuse. Ce n’est jamais une fin en soi. Le Big Data est nécessaire, mais pas suffisant pour créer de la valeur. Il y aussi la partie intelligente, ce que l’on range derrière le terme “analytics”. Statistiques, simples traitements informatiques, algorithmes, machine learning… Mais là aussi, ce n’est qu’un complément. L’intelligence artificielle ne réalise que des tâches simples, du type classification de documents. Elle ne remplace pas l’humain, mais lui permet de se consacrer aux missions à plus grande valeur ajoutée.

Des projets à venir ?

Le nombre de sujets Big Data suivis en ce moment frôle la cinquantaine, ce qui est dense. Mais nous envisageons déjà l’après. Et en premier lieu, intégrer toujours plus d’intelligence dans nos traitements. Dans l’absolu, le Big Data, c’est 4 étapes : savoir, comprendre, prédire et prescrire. Chaque palier compte et nous en sommes qu’au début, ce qui s’avère plutôt passionnant.

Recommandé pour vous