Formations et Coaching / Calendrier / Gérer un projet BIG DATA / BIG DATA Module 3

Formation - BIG DATA Module 3

Gérer un projet BIG DATA / BIG DATA Module 3

BIG DATA Module 3 
Concevoir et piloter un projet big data

Description Générale

En plus des connaissances techniques de l’infrastructure et de gestion de la data c’est surtout de la capacité à manager et à conduire des projets qui va permettre aux entreprises de se différencier et de se créer des avantages compétitifs durables dans les prochaines années.

Cette formation vise à exprimer toute l’intelligence qui doit être mise en œuvre par les chefs de projets et leurs équipes dans la conception et le pilotage d’un projet Big Data. Les exemples et les études de cas qui sont utilisés permettent de parfaitement appréhender les spécificités et la complexité du pilotage d’un tel projet. 
 

Inscrivez-vous

Pédagogie  du programme

Ce programme est élaboré sur la base de l’analyse de projets BIG DATA mis en place en entreprises. Durant toute la formation des professionnels partagent leurs retours d’expérience avec les apprenants, sous la forme d’exemples concrets et de témoignages (certains en vidéo). La formation est rythmée par des études de cas et des séances de classe inversée (l’apprenant devient formateur le temps d’un exercice).
 
Pédagogies mises en œuvre
 
Les pédagogies mises en œuvre reposent principalement sur 6 approches que nous avons nommées APT, ECH, REX, EDC, MES et DIY :
 
APT : apports théoriques de la part du formateur
ECH : les apprenants sont invités à échanger autour d’une question soulevée par le formateur, les professionnels interviewés ou par les apprenants eux-mêmes
REX : durant toute la formation des professionnels partagent leurs retours d’expérience avec les apprenants principalement sous la forme de témoignages (dont vidéo) et d’exemples concrets
EDC : chaque journée de formation est rythmée par une étude de cas
MES : l’apprenant est régulièrement mis en situation de choix (anticiper, mettre en place, piloter)
DIY : l’apprenant est acteur de sa propre formation à travers des séances de classe renversée (les apprenants sont regroupés en groupes de 3 qui deviennent formateurs des autres groupes le temps d’une activité).

Programme sur 3 jours
Journée 1  CONCEVOIR
 
Introduction
→ Présentation et tour de table
→ Présentation des objectifs de la formation.
→ Principes du DESIGN THINKING.
 
  1. Présentation de cas d’usages et d’exemples BIG DATA
    1. Présentation de la multiplicité des cas d’usages potentiels du BIG DATA dans différents secteurs d’activité (pédagogie : DIY)
    2. Présentation de plusieurs exemples de projets BIG DATA : lutte contre la fraude, santé publique, maintenance prédictive, marketing (pédagogie : REX)
 
  1. Les spécificités d’un projet BIG DATA
Principales caractéristiques des BIG DATA: la transversalité & la complexité accrues par rapport à des projets « classiques » et donc des coûts souvent plus élevés
  1. Spécificités contextuelles : multiplicité des points de départ - comment découvre-t-on qu’on est dans un projet BIG DATA ? la grande variété des démarches (pédagogie : REX)
  2. Spécificités culturelles : culture de partage de la donnée, culture de la créativité, similarités et différences qui existent entre Big Data et Business Intelligence
  3. Spécificités organisationnelles : objectifs, buts fonctionnels, caractère transversal (marketing, créatifs…), externalisation / internalisation, timing, rattachement des data scientists
  4. Spécificités humaines : équipe multidisciplinaire, management spécifique et transversal, formation et veille dans un contexte d’innovation permanente, risque de turn over important
  5. Spécificités méthodologiques : réflexion stratégique en amont, identification des besoins métiers et des contraintes techniques associées (temps réel, volumétrie importante…), phase d’expérimentation (Proof Of Concept ou Projet pilote), conduite de projet en mode agile, modèles prédictifs, évolution de la démarche ETL (Extract-Transform-Load) en ELT et ELTL, workflow type d’un Data Scientist (imaginer, collecter, préparer, modéliser, visualiser, optimiser, déployer), cycle de vie des données et nécessité d’avoir une stratégie de gouvernance des données
  6.      Spécificités technologiques découlant des 7V (Volume, Velocity, Variety, Variability, Veracity, Visualization, Value) : technologies et architectures spécifiques pour traiter des données massives non structurées (architecture Hadoop /  architecture Lambda), théorème CAP, difficulté à avoir des transactions ACID, différentes catégories de bases de données NoSQL (BDOA et BDOG), panorama des bases de données NoSQL existantes, automatisation du traitement parallèle (algorithme Map Reduce et framework Hadoop, écosystème autour d’Hadoop, autres solutions notamment pour les traitements interactifs), solutions Big Data proposées en mode Cloud (PaaS et DaaS)
  7. Spécificités économiques : budget, retour sur investissement, nécessité de se focaliser sur des thématiques prioritaires (performance ou innovation), coûts associés à certaines technologies (si temps réel notamment ou n écessité d’acquérir des datas tierces)
  8. Spécificités juridiques : sécurité et protection des données, gestion des données à caractère personnel, gestion des prestataires externes
 
  1. L’équipe en charge du projet BIG DATA
    1. Les 3 compétences de base à réunir : Métiers, IT, Sciences des données
    2. L’implication nécessaire et indispensable de la DSI et des Directions Métiers
    3. L’importance d’avoir un ergonome et un formateur dès la phase de test (interface utilisateurs intuitive en  amont (sélection des données, métadonnées, structuration…) et en aval (visualisation)
    4. Le rôle du prestataire AMOA et ESN
 
 
Journée 2 → METTRE EN PLACE
 
  1. Le processus de mise en place d’un projet BIG DATA, sur la base du workflow type d’un Data Scientist (Pédagogie : EDC pour illustrer et faire le lien entre chaque partie)
    1. Imaginer : compréhension et définition de la problématique métier, identification des besoins, la définition des objectifs, la formulation rigoureuse du besoin ou de l’opportunité métier, le seuil de signification envisageable, études de cas
    2. Collecter : la disponibilité et la qualité des données, les sources traditionnelles de données (dont enjeux politiques internes), les nouvelles sources de données (dont open data et réseaux sociaux), les formats de données, l’acquisition des données (Crawling, Scraping…), la législation, le stockage des données massives (lac de données, entrepôt, cache d’analyse), la stratégie de gouvernance des données
    3. Préparer : les techniques de nettoyage, d’homogénéisation des formats et de mise à l’échelle, l’enrichissement des données massives, les technologies sémantiques, l’organisation de l’information pour optimiser l’analyse des données, exemples (dont Pig et Hive)
    4. Modéliser : l’approche itérative, les données prédictives, le machine learning, le « feature engineering », l’exploration et l’analyse (par lot ou en temps réel), la création de nouvelles informations (par identification, corrélation, agrégation ou projection de l’ensemble des données précédemment transformées), la réduction dimensionnelle (quand nécessaire), les techniques prédictives (régressions, règles d’association, classification), les techniques exploratoires (acp, afc, clustering), l’interprétabilité de l’algorithme, 8 exemples d’algorithmes, études de cas (segmenter une population, analyser l’opinion sur la base de verbatims)
    5. Visualiser : l’importance de la visualisation des données, les rudiments à connaître (html5, javascript, librairies), le recours à des applications de data visualisation (tableau software, microsoft power BI), les échanges avec les utilisateurs métiers, exemples de représentations graphiques (les plus couramment utilisées)
    6. Optimiser : la démarche agile et le cycle itératif, les principaux tests et optimisations réalisables, le déploiement, exemples (dont valorisation des données et intégration de modèles prédictifs)
    7. Déployer : l’industrialisation de la chaîne de traitement, le changement d’échelle, la possible réécriture du code, la gestion de l’après-projet, la maintenance des applications et des données
 
 
Journée 3 → PILOTER
 
  1. La conduite de projet en mode Agile
    1. Conduite de projet en mode Agile : comment travailler dans un environnement incertain
    2. Aspects comportementaux et humains : principes, état d’esprit, Management 3.0
    3. Master Data Management
    4. Outils du manager de projets BIG DATA et panorama des outils existants
    5. Cadre contractuel des projets BIG DATA
 
  1. Les risques associés à la mise en place d’un projet BIG DATA
    1. Risques du projet en tant que tel : problème du cleaning, problème de vérification / diagnostic …, données biaisées, design des expérimentations inapproprié (confounding / difficulté à déterminer les liens de causalité …), risque de sampling biaisé, résultats pas clairs, problème de la prise de décision, communication des résultats négligée, rapport ou analyse non reproductible…
    2. Risques associés à la conduite de projet : penser qu’un modèle de Data Scientist est une application informatique, exigences et spécifications incomplètes, exigences irréalistes ou trop innovantes, s’enfermer dans une voie sans issue, ne pas douter des données, non-respect du planning, difficulté à « montrer » le travail qui a été réalisé car il s’agit avant tout de calculs et de tests, généraliser trop vite les premiers résultats obtenus, se déconnecter du besoin des opérationnels, témoignages
    3. Risques liés à la « non culture » de partage des données : difficulté à mobiliser les opérationnels, obstruction, non compréhension, peu d’utilisateurs finaux, difficulté à casser les silos entre métiers ou équipes, témoignages
    4. Risques juridiques : DCP (Données à Caractère Personnel), agrégation de données, CNIL, propriété intellectuelle, exemples
    5. Risques financiers : estimations budgétaires mal cadrées, absence de mesure du ROI, témoignages
    6.        La gestion de l’échec (prepare to fail) : certains projets n’iront pas à terme (cf. les risques), aussi comment faire face à l’échec ? témoignages
 
  1. Les performances d’un projet BIG DATA
    1. Facteurs clés de succès : objectifs bien définis, démarche itérative, ajustement possible des objectifs en cours de projet, implication des opérationnels, compréhension des métiers, compréhension et nettoyage des données, présence d’étapes de validation durant tout le projet, étude de cas
    2. Phase de test, livrables, validation par l’expérience, témoignages
    3. Mesure de la performance et analyse (prime à la performance ou prime à l’innovation ?)
 
  1. Conclusion
  • En sous-jacent, adapter les offres de produits et de services à un public international





DUREE: 3 jours

DATES

5 - 7 JUIN 2019
Versailles
28 - 30 OCT. 2019
Versailles

TARIFS

1680 € HT par personne
1580 € HT a partir de la 2e pers.

Repas compris

INSCRIPTION

Choisir la ville:

Choisir les dates:
Inscrivez-vous

Langues disponibles

Francais English



36 rue des Etats Généraux 78000 VERSAILLES
01 39 20 97 77 / info@opteam.fr / www.opteam.fr










36 rue des Etats Généraux 78000 VERSAILLES
01 39 20 97 77 / info@opteam.fr / www.opteam.fr







Les avantages OPTEAM

Spécialisation Specialisation dans le management de projet avec la maîtrise de principaux référentiels du métier
Adaptabilité Approche spécifique pour chaque entreprise et pour chaque marché
Étendue L’offre la plus large sur le marché sur le management de projet : 99 formations et 10 modes d'intervention
Expertise
Expertise de nos consultants reconnue dans tous les secteurs économiques en France et à l'international
Satisfaction
Taux moyen de satisfaction de nos clients