Galerie de cartes mentales Big data et science des données
Système de connaissances Dama, la science des données intègre l'exploration de données, l'analyse statistique et l'apprentissage automatique avec l'intégration de données, et combine des capacités de modélisation de données pour créer des modèles prédictifs et explorer les modèles de contenu des données.
Modifié à 2024-04-07 10:20:07Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Big data et science des données
introduction
triangle de convergence des informations
concept de base
science des données
La science des données intègre l'exploration de données, l'analyse statistique et l'apprentissage automatique à l'intégration de données, et combine des capacités de modélisation de données pour créer des modèles prédictifs et explorer les modèles de contenu des données.
processus de science des données
Caractéristiques du Big Data
1) Grande quantité de données (Volume)
2) Mise à jour rapide des données (Velocity)
3) Variété/variabilité des types de données
4) Les données sont très collantes (viscosité)
5) Volatilité des données (Volatilité)
6) Faible précision des données (véracité)
lac de données
Un lac de données est un environnement capable d'extraire, de stocker, d'évaluer et d'analyser différents types et quantités massives de données, et peut être utilisé dans une variété de scénarios.
apprentissage automatique
Type d'algorithme
1) Apprentissage supervisé. Basé sur des règles communes (telles que la séparation des e-mails SPAM des e-mails non-SPAM)
2) Apprentissage non supervisé. Basé sur la découverte de ces modèles cachés (exploration de données)
3) Apprentissage par renforcement. Réalisation basée sur un objectif (par exemple vaincre un adversaire aux échecs)
Analyse sémantique
Utilisez le traitement du langage naturel (NLP) pour analyser des expressions ou des phrases, détecter sémantiquement des émotions et révéler des changements dans les émotions afin de prédire des scénarios possibles.
analyse normative
L'analyse prescriptive va plus loin que l'analyse prédictive en définissant des actions qui affecteront les résultats, plutôt que de simplement prédire les résultats sur la base d'actions déjà survenues.
Analyse de données non structurées
L'analyse des données non structurées combine l'exploration de texte, l'analyse d'association, l'analyse de cluster et d'autres techniques d'apprentissage non supervisé pour traiter de grands ensembles de données.
analyse opérationnelle
L'Analyse Opérationnelle est également appelée BI opérationnelle ou analyse en streaming. Son concept est dérivé de l'intégration des processus opérationnels et de l'analyse en temps réel.
visualisation de données
La visualisation est le processus d'explication de concepts, d'idées et de faits à l'aide d'images ou de représentations graphiques.
Application composite de données
Les Data Mashups combinent des données et des services pour afficher visuellement des informations ou des résultats d'analyse.
outil
MPP n'a rien partagé en matière de technologie et d'architecture
La technologie de base de données sans partage de traitement massivement parallèle (MPP) est devenue une plate-forme standard pour l'analyse d'ensembles de données volumineuses pour la science des données.
Dans une base de données MPP, les données sont partitionnées (distribuées logiquement) sur plusieurs serveurs de traitement (nœuds de calcul), chacun doté de sa propre mémoire dédiée au traitement des données locales.