Galerie de cartes mentales Introduction aux bases des statistiques médicales
Il s'agit d'une carte mentale sur l'introduction de base aux statistiques médicales. Elle applique des principes et des méthodes mathématiques pour rechercher la collecte, l'organisation et l'analyse de données, et fait des inférences scientifiques sur des données incertaines.
Modifié à 2024-01-20 12:39:29Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Introduction aux bases des statistiques médicales
1.1 Statistiques médicales
Statistiques : discipline qui applique des principes et des méthodes mathématiques à la recherche sur la collecte, l'organisation et l'analyse de données, et qui fait des déductions scientifiques sur des données incertaines.
tâches statistiques
Statistiques descriptives : résumer, décrire et explorer les données. La branche des statistiques consacrée à ces applications est appelée statistique descriptive.
Statistiques inférentielles : utilisez des exemples d'informations sur les données pour déduire les caractéristiques de la répartition de la population. La branche des statistiques à cet effet est appelée statistiques inférentielles.
1.2 Quelques concepts de base en statistique
population et échantillon
Population : l’ensemble de la population des objets de recherche déterminée en fonction de la finalité de la recherche
Individuel : Chaque unité de base (un ou plusieurs indicateurs) qui constitue la population
population finie
population infinie
Échantillon : une partie des individus tirés de la population
Taille de l'échantillon : le nombre d'individus inclus dans l'échantillon
Échantillonnage : processus d'obtention d'échantillons auprès d'une population. Le processus d'extraction des échantillons doit suivre le principe de la randomisation
Échantillon aléatoire : Dans le processus d'échantillonnage aléatoire, chaque individu de la population a une probabilité non nulle d'être sélectionné.
Échantillon aléatoire simple : Au cours du processus d'échantillonnage aléatoire, chaque individu de la population a la même probabilité d'être sélectionné.
La relation entre la population et l'échantillon
L'échantillon provient de la population et fait partie de la population. Les caractéristiques de l'échantillon peuvent refléter dans une certaine mesure les caractéristiques de la population.
L’obtention d’échantillons représentatifs est la base de déductions raisonnables sur la population
L'échantillon satisfait au principe de distribution identique indépendante (i.i.d.) : l'échantillon est indépendant de la population, chaque observation est indépendante les unes des autres et la distribution de l'échantillon est la même que la distribution de la population.
homogénéité et variation
Homogénéité : Les individus d'une population ont quelque chose en commun. La nature, les conditions d'influence ou les antécédents des individus d'une même population sont identiques ou très similaires, ce qui constitue la base de la question de recherche.
Variation : les différences individuelles existant dans une population homogène sont la prémisse des problèmes de recherche
Relation : décrire l'homogénéité d'une même population dans un contexte de variation et révéler l'hétérogénéité de différentes populations
Paramètres et statistiques
Paramètre : mesure numérique récapitulative utilisée pour décrire une caractéristique globale.
Statistiques : un indicateur statistique calculé à partir d’échantillons d’observations
Relation : les paramètres sont généralement inconnus et les statistiques fixes sont calculées à partir de données d'échantillon et changeront à mesure que l'échantillon change.
type de données
Variable : Un indicateur obtenu en observant et en mesurant une certaine caractéristique de variation
Données de mesure : Données obtenues en mesurant la taille d'un indicateur pour chaque unité d'observation. ① Les valeurs observées ont des unités de mesure ; ② Il existe des différences quantitatives entre chaque valeur observée ;
Données catégorielles : données qualitatives
Données catégorielles non ordonnées : données obtenues en regroupant les observations selon certains attributs ou catégories (deux catégories et plusieurs catégories), puis en comptant et en résumant les fréquences de chaque groupe. Les variables correspondant à des données catégorielles non ordonnées sont appelées variables nominales.
Données catégorielles ordonnées : données obtenues en regroupant les unités d'observation selon différents degrés de certains attributs, puis en comptant et en résumant les fréquences de chaque groupe.
erreur
Erreur : la différence entre la valeur réelle observée et la valeur vraie globale (paramètre). L'exactitude et la fiabilité des données obtenues doivent être prises en compte
erreur aléatoire
Les erreurs non constantes et changeantes de manière aléatoire sont affectées par divers facteurs incertains. L’ampleur et la direction du changement de l’erreur sont incertaines
existence objective et inévitable
Erreur d'échantillonnage : il s'agit d'une sorte d'erreur aléatoire. La différence possible entre les statistiques de l'échantillon et les paramètres de la population causée par l'échantillonnage est le contenu principal de la recherche par inférence statistique. Sous un grand nombre de répétitions, l'erreur d'échantillonnage change de manière aléatoire.
Erreur systématique : erreur causée par l'influence de certains facteurs au cours du processus d'observation réel. Elle a une taille fixe et un écart systématique directionnel par rapport à la valeur réelle. Il ne peut pas être complètement éliminé, mais il peut être réduit au minimum grâce à une conception expérimentale et des mesures techniques rigoureuses.
Erreurs non systématiques - erreurs grossières : erreurs causées par des erreurs accidentelles commises par les chercheurs lors d'expériences, qui peuvent être éliminées par inspection.
1.3 Étapes de base des statistiques dans la recherche médicale
Le processus d'analyse statistique est l'induction (construction d'un modèle basé sur des données) et la déduction (utilisation de modèles pour faire des inférences). Son essence est un processus scientifique consistant à répondre à des questions réelles en trouvant des modèles de distribution dans des phénomènes aléatoires.
Conception statistique : fondement important
Collecte de données : la collecte de données représentatives est une condition préalable pour tirer des conclusions correctes.
Analyse statistique : description statistique et modélisation statistique, explorant pleinement les informations inconnues cachées dans les données et les affichant avec des graphiques statistiques appropriés
inférence statistique