ECTS
4 crédits
Composante
Polytech Grenoble - INP, UGA
Période
Semestre 9
Liste des enseignements
Base de données cliniques et Big Data / Clinical database and Big Data
Modélisation systèmes d'information 2 / Modeling of information systems 2
Base de données cliniques et Big Data / Clinical database and Big Data
Composante
Polytech Grenoble - INP, UGA
Acquérir :
- Culture générale des écosystèmes Big Data
- Notions d'architecture et d'intégration
- Méthode de conception d'un lac de données
- Méthodes et outils pour la collecte, l'organisation et l'exploration interactive de données massives et/ou complexes
- Savoir-faire l'implémentation d'une plate-forme d'exploration de données de santé centré sur une base graphe
PARTIE THÉORIQUE (8H)
Partie 1 : Introduction / Contexte
- Big Data : définitions
- Regroupement de données
- Approche de construction d'un lac de données : workflow associé
- Les démarches péri-informatiques (gouvernance, CNIL, ?)
- Les écosystèmes autour du Big Data
- Considérations techniques (montée en charge, haute disponibilité, redondance, ...)
Partie 2 : Mise en œuvre sur un Entrepôt de Données de Santé (EDS)
- Contexte CHU
- Approche projet
- Workflow de traitements : ETL, Traitement, Accès
- Un exemple d'architecture générale
- Quelques outils indispensables
- Exemple d'un projet de EDS au CHUGA
Partie 3 : Conception d'un lac de données
- Contexte, objectifs, moyens.
- Concepts des bases graphes
- Domaines courants d'application
- Interopérabilité, web sémantique
- Du modèle à la base orientée graphe
- Modèle pivot du lac, évolutions
Partie 4 : Implémentation d'une plate-forme interactive d'exploration de données complexes et massives
- Focus ArangoDB, Elastic, ETL, IHM
- Élaboration de données métier
PARTIE PRATIQUE (14H)
Partie 5 : Exercice de modélisation (2H)
Partie 6 : Mini-projet (12H)
Déployer un workflow de traitement de données : ETL, BD Graphe, Visualisation
Bilan des connaissances acquises (2H)
Acquire:
- General Culture of Big Data Ecosystems
- Architecture and integration concepts
- Method of designing a data lake
- Methods and tools for collecting, organizing and interactive exploration of massive and / or complex data
- Know-how implementation of a health data mining platform centered on a graph database.
THEORICAL PART (8H)
Part 1: Introduction / Background
- Big Data: Definitions
- Grouping of data
- Approach to build a data lake: associated workflow
- Peri-computing approaches (governance, privacy, ...)
- The eco-systems around Big Data
- Technical considerations (scalability, high availability, redundancy, ...)
Part 2: Implementation of a Health Data Warehouse (DHS)
- University Hospital of Grenoble Context
- Project approach
- Treatment Workflow: ETL, Treatment, Access
- An example of a general architecture
- Some indispensable tools
- Health Data Warehouse project example at the University Hospital of Grenoble
Part 3: Designing a data lake
- Context, objectives, means.
- Concepts of graph oriented databases
- Common areas of application
- Interoperability, semantic web
- From the model to the graph oriented database
- Pivot model of the lake, evolutions
Part 4: Implementation of an interactive platform for complex and massive data mining
- Focus ArangoDB, Elastic, ETL, HMI
- Business Data Development
PRACTICAL PART (14H)
Part 5: Modeling Exercise (2H)
Part 6: Mini-Project (12H)
Deploy a data processing workflow: ETL, BD Graph, Visualization
Assessment of acquired knowledge (2H)
Modélisation systèmes d'information 2 / Modeling of information systems 2
Composante
Polytech Grenoble - INP, UGA
Savoir identifier, adapter et mettre en œuvre des Design Patterns.
- Rôle des Design Patterns
- Étude des principaux Design Patterns
- Mise en œuvre des principaux Design Patterns
Know how to identify, adapt and implement Design Patterns.
- Role of Design Patterns
- Study of the main Design Patterns
- Implementation of the main Design Patterns