DU analyste big data par Université Paris Descartes - IUT Paris Descartes
Lieu(x)
En centre (75)
Durée
Total : 150 heures
En centre : 150 heures
Financement
Demandeur d’emploi
Salarié
Diplômes délivrés
BAC+3/4
Prix
Nous contacter
Cette formation vous intéresse ?
Description générale
Module 1 - stockage massif de données :
- Bases de données relationnelles VLDB.
- Bases de données mémoire.
- Stockage dans le cloud.
- Stockage dans l'éco
- système Hadoop.
- Environnement de type data lab (data mining agile) et outils de fouille de données passant à l'échelle.
Module 2 - décisionnel temps réel :
- Sources de données en flux : capteurs, salles de marché...
- Complex Event Processing (CEP) : notion de flux de données, requêtes sur flux, fenêtrage ...
- Tableaux de bord dynamiques, alarmes.
- Méthodes de fouille de flux de données : modèles incrémentaux et adaptatifs (clustering, classification, prévision).
- Visualisation de flux de données.
Module 3 - fouille de données complexes :
- Sources de données complexes : séries temporelles, données spatiales, texte.
- Pré-traitements des données complexes (transformations, indexation, signatures...).
- Méthodes de fouille de séries temporelles et fonctionnelles, de données spatiales, de textes (clustering, classification).
- Visualisation de données complexes.
- Applications.
Module 4- fouille du web et des réseaux sociaux :
- Sources et formats de données du web.
- Extraction de données à partir du web.
- Structures de grands graphes, propriétés statistiques de ces graphes.
- Algorithmes de fouille des graphes des réseaux sociaux (statique, dynamique).
- Visualisation de graphes.
Module 5 - qualité, sécurité et confidentialité des données :
- Gestion de la qualité des données : concepts et mise en oeuvre.
- Outils pour la qualité des données : Master Data Management, audit de bases de données.
- Sécurisation de l'accès aux données.
- Gestion des données personnelles (CNIL), anonymisation des données personnelles.
- Bases de données relationnelles VLDB.
- Bases de données mémoire.
- Stockage dans le cloud.
- Stockage dans l'éco
- système Hadoop.
- Environnement de type data lab (data mining agile) et outils de fouille de données passant à l'échelle.
Module 2 - décisionnel temps réel :
- Sources de données en flux : capteurs, salles de marché...
- Complex Event Processing (CEP) : notion de flux de données, requêtes sur flux, fenêtrage ...
- Tableaux de bord dynamiques, alarmes.
- Méthodes de fouille de flux de données : modèles incrémentaux et adaptatifs (clustering, classification, prévision).
- Visualisation de flux de données.
Module 3 - fouille de données complexes :
- Sources de données complexes : séries temporelles, données spatiales, texte.
- Pré-traitements des données complexes (transformations, indexation, signatures...).
- Méthodes de fouille de séries temporelles et fonctionnelles, de données spatiales, de textes (clustering, classification).
- Visualisation de données complexes.
- Applications.
Module 4- fouille du web et des réseaux sociaux :
- Sources et formats de données du web.
- Extraction de données à partir du web.
- Structures de grands graphes, propriétés statistiques de ces graphes.
- Algorithmes de fouille des graphes des réseaux sociaux (statique, dynamique).
- Visualisation de graphes.
Module 5 - qualité, sécurité et confidentialité des données :
- Gestion de la qualité des données : concepts et mise en oeuvre.
- Outils pour la qualité des données : Master Data Management, audit de bases de données.
- Sécurisation de l'accès aux données.
- Gestion des données personnelles (CNIL), anonymisation des données personnelles.
Objectifs
Permettre aux apprenants d'évoluer vers des postes au sein de projets big data dans les entreprises, les administrations et les collectivités territoriales, par la prise en main de nouveaux outils répondant aux nouveaux défis :
- la prise en compte de données très volumineuses (volume),
- le traitement de données arrivant sous forme de flux continus en temps réel (vélocité),
- l'hétérogénéité des provenances et des types des sources de données (variété),
aussi bien au niveau du stockage des données que de leur traitement statistique, dans une perspective décisionnelle.
- la prise en compte de données très volumineuses (volume),
- le traitement de données arrivant sous forme de flux continus en temps réel (vélocité),
- l'hétérogénéité des provenances et des types des sources de données (variété),
aussi bien au niveau du stockage des données que de leur traitement statistique, dans une perspective décisionnelle.
Centre(s)
- Paris - 16ème (75)
Métier(s)
- Analyste en intelligence économique
- Analyste prix / pricing
- Assistant chargé / Assistante chargée d'études socio-économiques
- Attaché / Attachée d'études statistiques
- Chargé / Chargée d'études commerciales
- Chargé / Chargée d'études de marché
- Chargé / Chargée d'études en marketing
- Chargé / Chargée d'études financières
- Chargé / Chargée d'études prospectives
- Chargé / Chargée d'études satisfaction
- Chargé / Chargée d'études socio-économiques
- Chargé / Chargée d'études statistiques
- Chargé / Chargée d'études économiques
- Chargé / Chargée d'études économiques et sociales
- Chargé / Chargée d'études économiques et statistiques
- Chef de groupe études socio-économiques
- Chef de projet études socio-économiques
- Chef de service études socio-économiques
- Data analyst
- Data miner
- Data scientist
- Directeur / Directrice d'études socio-économiques
- Directeur / Directrice d'études économiques
- Ingénieur / Ingénieure économiste en entreprise
- Ingénieur statisticien / Ingénieure statisticienne
- Responsable d'études socio-économiques
- Responsable d'études économiques
- Responsable de veille stratégique
- Responsable prévision des ventes
- Statisticien / Statisticienne
- Économiste d'entreprise
- Économètre
Compétence(s)
- Algorithmique
- Aménagement du territoire
- Analyse financière
- Analyse statistique
- Big data analytics
- Développement économique
- Gestion budgétaire
- Gestion commerciale, relation clients
- Gestion de projet
- Gestion des Ressources Humaines
- Insights marketing
- Intelligence économique
- Langages de programmation informatique
- Logiciel de conception et analyse d'enquête
- Logiciels de gestion de base de données
- Logiciels de modélisation et simulation
- Logiciels de statistiques
- Management
- Marché de l'emploi
- Marketing / Mercatique
- Modélisation statistique
- Modélisation économique
- Méthodes d'enquête
- Méthodes de prospective
- Outils bureautiques
- Outils de Business Intelligence (BI)
- Sciences économiques et sociales
- Techniques commerciales
- Techniques de benchmarking
- Techniques de conduite d'entretien
- Techniques de mesure d'audience
- Techniques de sondage d'opinions
- Urbanisme
- Économie du développement durable
- Économétrie
Formation proposée par : Université Paris Descartes - IUT Paris Descartes
À découvrir