12.01.2017 Views

TRANSFORMATION DIGITALE 2016

file211143

file211143

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

4. Prendre la mesure du digital implique de passer d'un mode "digital expérimental" à un mode "digital à l'échelle" et<br />

de transformer les organisations en profondeur<br />

4. Prendre la mesure du digital implique de passer d'un mode "digital expérimental" à un mode "digital à l'échelle" et<br />

de transformer les organisations en profondeur<br />

Des compétences indispensables<br />

pour l’industrialisation des données<br />

“Avant de mettre en oeuvre des chantiers big data, nous<br />

devons faire des travaux d'inventaire et d'identification<br />

des données actuelles et futures”, décrit ainsi Michael<br />

Aidan, Chief Digital Officer de Danone. “Nous voulons<br />

accroître la capability en central, et laisser la main aux<br />

divisions pour gérer leurs données. L'enjeu, c'est que tout<br />

soit raccordable à un socle commun : nous avons aussi<br />

besoin de compétences de ce côté.”<br />

Les compétences relatives au domaine de la donnée<br />

(data scientists et data architects) doivent ainsi être intégrées<br />

à tous les niveaux, en central et dans les filiales.<br />

“Sur les questions de data science, nous devons allier la<br />

centralisation technique avec l’intégration des compétences<br />

de product owners (type data mining) aux métiers<br />

existants”, affirme Catherine Spindler, Directrice<br />

Marketing de vente-privee.com. Les entreprises misent<br />

ainsi sur le recrutement de spécialistes : “Nous recrutons<br />

des data scientists au niveau Groupe et dans<br />

les entités”, confirme Jérôme Hombourger, Directeur<br />

Général Adjoint,<br />

Développement<br />

et Stratégie Groupe<br />

du Crédit Agricole<br />

Consumer Finance.<br />

Le big data est aussi<br />

intégré aux compétences<br />

traditionnelles,<br />

comme celles<br />

de l’actuariat pour<br />

les assureurs. “En<br />

plus des recrutements,<br />

nos actuaires<br />

montent en compétences sur le digital”, déclare Thomas<br />

Vandeville, Directeur de la Transformation Digitale<br />

de Groupama. “Ils sont en effet habitués à traiter des<br />

données beaucoup plus structurées et homogènes, avec<br />

des volumes beaucoup plus réduits. Nous avons mis en<br />

place pour eux des programmes de formation à la data<br />

science.”<br />

Stockage des données : du SQL aux data lakes<br />

Ces nouvelles compétences gardent un ancrage important<br />

dans la DSI, traditionnellement maître d’œuvre des<br />

bases de données de l’entreprise. “Notre équipe IT a<br />

conçu un entrepôt de données commun sur lequel s’appuient<br />

nos infrastructures big data et BI”, indique Venky<br />

Balakrishnan Iyer, Global Vice President Digital Innovation<br />

de Diageo.<br />

Les technologies de stockage des données ont considérablement<br />

évolué : les bases de données structurées<br />

(type SQL) se prêtent assez mal au stockage de données<br />

dont le format n’est pas prédéfini, qui permettent pourtant<br />

une plus grande créativité dans les traitements big<br />

data. Pour y remédier,<br />

les entreprises<br />

« La maîtrise technique<br />

est achevée, c’est sur<br />

la conformité<br />

réglementaire et la confiance<br />

client que se jouera la bataille »<br />

François Gonczi,<br />

Directeur Numérique d’EDF Commerce<br />

mettent en place des<br />

entrepôts de données<br />

d’un genre nouveau<br />

: les data lakes.<br />

“Nous avons achevé<br />

la mise en place de<br />

notre data lake (basé<br />

sur une technologie<br />

Hadoop)”, se félicite<br />

François Gonczi,<br />

Directeur Numérique<br />

d’EDF Commerce.<br />

“La maîtrise technique est achevée, c'est sur la conformité<br />

réglementaire et la confiance client que se jouera la<br />

bataille.”<br />

La finalité de ces bases de données monumentales n’a<br />

plus rien d’expérimental : elle est très clairement opérationnelle,<br />

visant le temps réel grâce à une accélération<br />

des temps de traitement. “Notre data lake est capable de<br />

traiter 5 ans d'historique en 2h, là où il fallait auparavant<br />

des journées entières”, avance Christophe Leray, Directeur<br />

des Opérations et des Systèmes d'Information du<br />

Interview<br />

CIGREF<br />

Pascal Buffard<br />

Président<br />

Les nouveaux modes d'administration de la donnée<br />

du big data<br />

« On parle beaucoup des nouvelles technologies big<br />

data qui orchestrent le stockage et l'analyse des données<br />

comme par exemple les data lakes. Ce type d’outils a<br />

l’intérêt de constituer aussi un support de management<br />

opérationnel, ce qui n'était pas le cas pour les technologies<br />

précédentes de type entrepôts de données (data<br />

warehouses). Cette nouvelle génération de stockage des<br />

données peut ainsi supporter la fourniture de services en<br />

temps réel. Les DSI doivent investir dans ces nouvelles<br />

plateformes, en les co-construisant aux côtés des métiers,<br />

et en développant leurs compétences. »<br />

<br />

•<br />

PMU. L’intérêt, pour les sociétés, est de s’affranchir des<br />

analystes BI qui se prêtent parfois mal au temps réel.<br />

“C'est très intéressant car nous pouvons raisonner à partir<br />

de données réelles, nous n'avons plus besoin de passer<br />

par des agrégats”, poursuit-il.<br />

Cloud vs big data : des données à deux vitesses ?<br />

Mais toutes les données n’ont pas vocation à être stockées<br />

en interne ! S’il y a un véritable enjeu à alimenter les<br />

data lakes en données non structurées pour alimenter les<br />

programmes big data, les entreprises trouvent un intérêt<br />

économique à externaliser dans le Cloud leurs données<br />

de structure plus classique. “Le Cloud est un sujet majeur<br />

pour la DSI, qui concerne aussi les systèmes historiques”,<br />

décrypte Pascal Buffard, Président du CIGREF.<br />

“Le Cloud permet des gains de compétitivité en optimisant<br />

les coûts de l'infrastructure et du stockage des données,<br />

qui deviennent désormais une charge variable au<br />

lieu d’un investissement fixe.”<br />

Le principe se base en effet sur un effet de volume : plus<br />

les clients sont nombreux, plus les prix sont bas du fait de<br />

l’important niveau de mutualisation des coûts. La maintenance<br />

des infrastructures IT s’en voit radicalement<br />

changée : “Ce métier passe désormais par la gestion à<br />

distance à travers des partenariats maîtrisés.” Les revenus<br />

générés par l'activité Cloud d'IBM représentent 10,2<br />

milliards de dollars, en augmentation de 61 % par rapport<br />

à l'année précédente². La tendance à la migration vers<br />

le Cloud est certes lente, mais irrémédiable. Les entreprises<br />

se sont toutes engagées dans cette démarche, pas<br />

toujours pour leur core system, mais pour un nombre<br />

croissant d’applications métier (RH, messagerie, CRM...).<br />

02- Source Résultats 2015 IBM corporation :<br />

www.ibm.com/investor/financials<br />

96<br />

97

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!