Galerie de cartes mentales traitement d'images numériques de vision par ordinateur
Introduction détaillée aux méthodes traditionnelles de vision par ordinateur, y compris des connaissances de base en traitement d'images numériques, restauration d'images, La compression d'image, la segmentation d'image, etc. sont souvent utilisées pour le prétraitement des images. J'espère que cela t'aides!
Modifié à 2024-02-04 00:54:17Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Traitement d'image numérique
Connaissance de base en traitement d'images numériques
Introduction
« Image » est la distribution de la lumière réfléchie ou transmise par un objet. « Image » est l'impression ou la compréhension formée dans le cerveau humain par l'image acceptée par le système visuel humain.
Les images sont toutes des images comportant des effets visuels et constituent un terme général désignant divers graphiques et images.
La quantité d’informations contenues dans les images est énorme, et « voir vaut la peine d’être entendu cent fois » et « clairement compris d’un seul coup d’œil ».
Une image peut être décrite mathématiquement comme
je = f (x, y, z, λ, t)
Où x, y, z sont les coordonnées spatiales, λ est la longueur d'onde, t est le temps et I est l'intensité lumineuse.
Pour les images statiques, t est une constante. Pour les images monochromes, λ est une constante. Pour les images planes, z est constant.
Ondes lumineuses : la perception humaine est limitée à la bande visuelle du spectre électromagnétique, tandis que les machines d'imagerie peuvent couvrir la quasi-totalité du spectre électromagnétique.
Numérisation d'images
Image digitale
L'image analogique est représentée par des nombres et l'image représentée par des nombres est une image numérique.
Le processus de discrétisation d’une image analogique pour obtenir une image numérique est appelé numérisation d’image.
processus
échantillonnage
Divisez spatialement l'image en petites zones (pixels), chaque pixel a une coordonnée bidimensionnelle (entier)
Influence
Quantifier
La luminosité ou la valeur de gris de chaque pixel est mappée au niveau de gris correspondant, et chaque niveau de gris est généralement représenté par un nombre entier.
Si le nombre de niveaux de gris quantifiés L = 256, la plage de valeurs est un nombre entier compris entre 0 et 255, et 8 bits peuvent être utilisés pour représenter la valeur en niveaux de gris du pixel de l'image en niveaux de gris, appelée quantification sur 8 bits.
représentation d'images numériques
représentation mathématique
Image binaire
Image en niveaux de gris
Image RVB
Format de stockage des images
Format BMP : fichier bitmap pour les systèmes Windows
Format GIF : peut stocker plusieurs images (animations)
Format TIF(F) : indépendant de l'OS et du FS, facile à échanger
Format JPEG : norme de compression
Propriétés de base des images
Nombre de pixels de l'image
Le nombre de pixels de l'image fait référence au nombre de pixels contenus dans l'image bitmap horizontalement et verticalement. La simple augmentation du nombre de pixels ne peut pas améliorer l'effet d'affichage de l'image. L'effet d'affichage de l'image est déterminé par le nombre de pixels et la résolution de l'affichage.
Résolution de l'image
La résolution de l'image fait référence au nombre de pixels répartis dans l'image par unité de longueur d'impression. Elle est principalement utilisée pour caractériser la densité des informations sur l'image numérique, qui détermine la clarté de l'image. Sur une zone de taille unitaire, plus la résolution de l'image est élevée, plus le nombre de pixels qu'elle contient est grand, plus les pixels sont denses et plus la clarté de l'image numérique est élevée.
taille de l'image
La taille de l'image détermine l'espace de stockage requis pour stocker le fichier image, qui est généralement mesuré en octets (B). La formule de calcul est la suivante : nombre d'octets = (hauteur du bitmap × largeur du bitmap × profondeur de l'image) / 8. Il ressort de la formule de calcul que la taille de stockage du fichier image est directement liée au nombre de pixels.
couleur de l'image
La couleur de l’image fait référence au plus grand nombre de types de couleurs possibles dans une image numérique. En modifiant les proportions des trois couleurs primaires que sont le rouge, le vert et le bleu, elle peut être facilement mélangée à n’importe quelle couleur.
profondeur de l'image
La profondeur de l'image, également appelée profondeur de bits de l'image, fait référence au nombre de bits occupés par chaque pixel de l'image. Les données correspondant à chaque pixel de l'image peuvent généralement être représentées par 1 ou plusieurs octets. Plus la profondeur des données est profonde, plus il faut de bits et plus la représentation des couleurs correspondante est riche.
ton de l'image
La teinte de l'image fait référence à la luminosité et à l'obscurité des différentes couleurs de l'image correspondant aux couleurs primaires (par exemple, les couleurs primaires des images numériques au format RVB incluent le rouge, le vert et le bleu. Le réglage de la teinte dans la vie quotidienne est le réglage de). la luminosité des couleurs primaires. La teinte va de 0 à 255, comprenant un total de 256 teintes. Par exemple, l'image en niveaux de gris la plus simple divise la teinte en 256 teintes du blanc au noir. Dans les images RVB, il est nécessaire de caractériser la luminosité et l'obscurité des trois couleurs rouge, vert et bleu. Par exemple, si le ton rouge est approfondi, l'image aura tendance à être rouge foncé, et si le ton vert l'est. approfondi, l’image aura tendance à être vert foncé.
saturation des images
La saturation de l'image indique la pureté des couleurs de l'image. La saturation d'une photo de scène naturelle dépend des propriétés réfléchissantes ou projetées de l'objet. En traitement d'images numériques, la saturation est généralement mesurée par la proportion de lumière blanche mélangée à une couleur unie, plus la lumière blanche est mélangée à une couleur unie, plus la saturation est faible et, inversement, plus la saturation est élevée.
Luminosité de l'image
La luminosité de l'image fait référence à la luminosité et à l'obscurité des couleurs contenues dans les images numériques. Il s'agit de la perception par l'œil humain de la luminosité et de l'obscurité de l'objet lui-même. La plage de valeurs est généralement comprise entre 0 % et 100 %.
contraste des images
Le contraste de l'image fait référence au contraste entre les différentes couleurs ou au contraste entre la lumière et l'obscurité dans une image. Plus le contraste est élevé, plus la différence de luminosité entre les couleurs est grande ou plus la différence entre le noir et le blanc est grande. Par exemple, augmenter le contraste d'une image en niveaux de gris rendra la différence entre le noir et le blanc dans l'image plus nette, ce qui rendra l'image plus nette. Lorsque le contraste est augmenté à l’extrême, l’image en niveaux de gris devient une image en noir et blanc.
hiérarchie des images
Dans les systèmes de conception informatique, afin de traiter les matériaux d'image de manière plus pratique et efficace, ils sont généralement placés dans différentes couches, et l'image peut être considérée comme composée de plusieurs couches d'images superposées. Grâce à un logiciel de traitement d'image, chaque couche peut être traitée indépendamment sans affecter le contenu de l'image des autres couches. Lorsque vous créez un nouveau fichier image, le système crée automatiquement un calque d'arrière-plan, qui équivaut à un canevas sur lequel d'autres travaux de traitement d'image peuvent être effectués. Si une image comporte plusieurs calques, chaque calque aura le même nombre de pixels, de canaux et de format.
Relation de base entre les pixels
relation de base
Une image f(x,y) est composée de pixels unitaires de base. Il existe certaines connexions entre les pixels, notamment les voisinages, les contiguïtés et les connexions des pixels, ainsi que la distance entre les pixels. Généralement, une lettre minuscule (telle que p) est utilisée lors de la spécification d'un pixel spécifique.
Zone
Les pixels voisins du pixel p forment le voisinage de ce pixel
4 zones
8 zones
champ diagonal
proximité
Pour deux pixels quelconques, si un pixel est à proximité d'un autre pixel et que leurs valeurs d'échelle de gris répondent à des critères de similarité spécifiques (comme l'appartenance à un certain ensemble de valeurs d'échelle de gris), alors les deux pixels sont dits adjacents.
4 contiguïtés
8 contiguïtés
m adjacent
Si l'une des deux conditions suivantes est remplie
q est dans le 4-voisinage de p
q est dans le domaine diagonal de p, et aucune valeur de gris dans le pixel à l'intersection du voisinage à 4 domaines de q et du domaine à 4 domaines de p n'appartient à V.
Alors les deux points p et q sont dits m adjacents.
connecté
4-Connecté
8-Connecté
m-connecté
distance
Distance euclidienne
distance urbaine
distance de la planche
Applications de traitement d'images numériques
Applications industrielles
Contrôles non destructifs des produits et composants fabriqués dans la chaîne de production, tels que les tests de bouteilles en verre
applications de sécurité publique
L'identification par empreintes digitales est sûre, fiable et efficace et présente un large éventail d'applications dans les domaines de la sécurité publique, de la sécurité de l'information, du commerce électronique et d'autres domaines.
L'authentification de l'identité personnelle inclut également des images telles que le visage, l'iris, l'empreinte palmaire et la signature.
applications médicales
Numération globulaire, contenu principal de l'examen sanguin de routine, données importantes sur la présence ou l'absence de maladie et la gravité de la maladie.
applications géologiques
La technologie des caméras de forage peut obtenir une vue panoramique à grande échelle de la paroi du trou pour observer directement la structure géologique interne.
Applications d'essais environnementaux
Identification et localisation des incendies : faites correspondre les images de lumière visible et les images infrarouges pour identifier les incendies et déterminer leur emplacement.
Applications marines
Détection d'Enteromorpha Enteromorpha : en utilisant des images de télédétection comme source de données, une détection rapide d'Enteromorpha Enteromorpha est obtenue.
Détection et suivi des poissons marins.
applications militaires
Positionnement des cibles de reconnaissance aérienne.
applications de divertissement
Changer de visage
Ingénierie des images
Traitement d'image
Image -> Image
Effets visuels améliorés
Prétraitement d'image pour la réduction du bruit, l'amélioration du contraste et la netteté de l'image
Collecte, acquisition et stockage d'images, amélioration d'images, restauration d'images, compression (encodage) d'images (vidéo)
l'analyse d'image
Image -> Données
extraire des informations utiles
Segmentation d'image et description de la cible, le résultat est constitué de données de caractéristiques cibles
Détection des contours, segmentation d'image (séparation de l'arrière-plan de la cible), expression de la cible, description, mesure, analyse de la couleur, de la forme, de la texture et du mouvement de la cible, détection de la cible, extraction, suivi, identification et classification, reconnaissance faciale.
Compréhension des images
Image -> Explication
Compréhension des objets cibles et de leurs relations, le résultat est des données plus abstraites
Enregistrement d'images, correspondance, fusion, représentation 3D, modélisation, reconstruction, récupération de scène, compréhension d'images, raisonnement, récupération d'images basées sur le contenu
Transformation mathématique des images
Coordonner la transformation de l'espace
concept de base
Les transformations géométriques sont souvent appelées transformations de film de caoutchouc, en supposant qu'une image est imprimée sur un film de caoutchouc, puis que le film de caoutchouc est étiré selon un ensemble de règles prédéterminées.
Les transformations géométriques modifient les relations spatiales entre les pixels d'une image. Il se compose de deux opérations de base : la transformation spatiale des coordonnées (transformation des coordonnées) et la valeur en niveaux de gris du pixel de coordonnées transformé (interpolation en niveaux de gris).
Transformation de coordonnées
Réduisez l'image originale de moitié dans les deux sens
Transformation affine
La transformation de coordonnées couramment utilisée dans le traitement d'images est la transformation affine.
transformation de l'identité
transformation de la traduction
transformation de rotation
transformation d'échelle
transformation de cisaillement
Couper le long de l'axe X
Couper le long de l'axe Y
Mappage avant et mappage arrière
Cartographie directe : si les coordonnées d'un pixel de l'image sont fournies, la position des coordonnées du pixel après transformation géométrique est obtenue grâce à la relation de mappage correspondante.
Cartographie arrière : calculez la position des coordonnées du pixel dans l'image source à partir des coordonnées des pixels de l'image de sortie.
Interpolation en niveaux de gris
concept de base
Pour repositionner les pixels d'une image vers une nouvelle position, ces nouvelles positions doivent également se voir attribuer des valeurs en niveaux de gris, c'est-à-dire une interpolation en niveaux de gris.
taper
interpolation du voisin le plus proche
La valeur de gris du pixel d'entrée le plus proche de la position à laquelle il est mappé est sélectionnée comme résultat de l'interpolation.
Inconvénients : Lorsque la valeur de gris des pixels adjacents change de manière significative, sa structure fine devient rugueuse.
interpolation bilinéaire
Selon la valeur de gris de quatre points adjacents, l'interpolation est effectuée deux fois dans les directions x et y. La fonction d'interpolation est l'équation du paraboloïde hyperbolique
Il s'agit d'une amélioration par rapport à la méthode du plus proche voisin, dans laquelle un paraboloïde hyperbolique est ajusté à quatre points adjacents connus.
Inconvénients : La méthode de calcul d'interpolation bilinéaire permet généralement d'obtenir des résultats satisfaisants car l'influence de quatre points adjacents a été prise en compte. Cependant, cette méthode possède des propriétés de filtrage passe-bas, ce qui entraîne la perte des composantes haute fréquence et brouille le contour de l’image. Si vous souhaitez obtenir un effet d'interpolation en niveaux de gris plus précis, vous pouvez utiliser une correction d'interpolation d'ordre élevé.
interpolation bicubique
Interpoler en fonction de la valeur de gris de 16 points adjacents
Transformée de Fourier
Étapes de base du traitement d'image dans le domaine fréquentiel
Transformée de Fourier
Fourier transforme l'image. Plutôt que d'obtenir une onde, cela convertit l'image du domaine spatial (c'est-à-dire la représentation originale en pixels) vers le domaine fréquentiel. Dans le domaine fréquentiel, une image est représentée comme une série de combinaisons d’ondes de fréquences différentes. Cette transformation nous permet de voir la distribution des différentes composantes de fréquence dans l'image, y compris les composantes basse fréquence (représentant des parties de l'image qui changent lentement, telles que les zones lisses) et les composantes haute fréquence (représentant des parties qui changent rapidement, telles que les bords). et détails).
Filtrage du domaine fréquentiel
Dans le domaine fréquentiel, vous pouvez choisir d'appliquer un filtre haute fréquence ou un filtre basse fréquence à l'image.
Pour plus de détails, voir Filtrage du domaine fréquentiel pour l'amélioration de l'image.
Transformée de Fourier inverse
Les données filtrées du domaine fréquentiel sont ensuite reconverties dans le domaine spatial via la transformée de Fourier inverse. Le résultat de cette transformation inverse est une image modifiée qui reflète l’effet du filtrage du domaine fréquentiel.
Série de Fourier et transformée de Fourier
Répondant à certaines conditions mathématiques, toute fonction périodique peut être exprimée comme une somme de sinusoïdes de fréquences différentes.
Si certaines conditions mathématiques sont remplies, la fonction non périodique peut également être exprimée comme l'intégrale du sinus multiplié par la fonction pondérée, c'est-à-dire la transformée de Fourier.
Les caractéristiques fonctionnelles représentées par la série de Fourier ou la transformée de Fourier peuvent être entièrement reconstruites par transformée de Fourier inverse sans perdre aucune information.
Transformée de Fourier discrète unidimensionnelle
Transformée de Fourier discrète bidimensionnelle
Dans le spectrogramme d'une image en niveaux de gris après transformation de Fourier bidimensionnelle, la partie la plus brillante correspond à la composante basse fréquence de l'image originale.
Composants basse fréquence : ces composants représentent des parties de l'image qui évoluent lentement, telles que des changements globaux de niveau de gris ou des zones lisses. Dans un spectrogramme de Fourier, les composantes basses fréquences sont généralement concentrées dans la zone centrale de l'image.
Composants haute fréquence : ces composants représentent des parties de l'image qui changent rapidement, telles que les bords et les détails. Dans un spectrogramme, les composantes haute fréquence sont généralement situées loin du point central.
Propriétés de base de la transformée de Fourier discrète
séparabilité
traductionnel
cyclique
symétrie conjuguée
invariance de rotation
Proportionnalité
valeur moyenne
théorème de convolution
amélioration d'images
Concepts de base de l'amélioration de l'image
Propriétés d'amélioration de l'image
Sans approfondir les raisons de la dégradation de l'image, des corrections sont apportées en fonction des caractéristiques de l'image et des objectifs de traitement pour obtenir des images meilleures, « meilleures » ou plus « utiles ».
L'amélioration de l'image consiste à améliorer la qualité de l'image dans un certain but d'application, et les résultats du traitement sont plus adaptés aux caractéristiques visuelles humaines ou aux systèmes de reconnaissance automatique.
Méthode de traitement qui met en évidence certaines informations dans une image en fonction de besoins spécifiques, et en même temps affaiblit ou supprime certaines informations inutiles.
Le traitement d'amélioration ne peut pas augmenter les informations de l'image originale, mais peut uniquement améliorer la capacité de reconnaissance de certaines informations, et ce traitement peut entraîner une perte partielle d'autres informations.
méthode de base
fonctionner
méthode du domaine spatial
La méthode du domaine spatial fait référence à l'exécution directe d'opérations sur les valeurs d'échelle de gris des pixels dans le domaine spatial de l'image. Les méthodes couramment utilisées incluent la transformation des niveaux de gris, la correction de l'histogramme, la convolution de modèle, le traitement des pseudo-couleurs, etc.
méthode du domaine fréquentiel
La méthode du domaine fréquentiel consiste à améliorer la valeur de transformation de l'image dans un certain domaine de transformation de l'image, puis à obtenir l'image améliorée par transformation inverse.
But
lisse
Le lissage a un effet de flou sur l'image, rendant la transition de l'image naturelle et douce et supprimant le bruit ;
Compris du point de vue de la fréquence en fonction des caractéristiques fréquentielles de l'image, le lissage consiste à maintenir ou à améliorer les composantes basse fréquence de l'image et à affaiblir ou éliminer les composantes haute fréquence de l'image.
aiguiser
La netteté peut être considérée comme l’opération inverse du lissage. L’effet et le but sont de mettre en évidence les détails et de rendre le contour de l’image clair et contrasté ;
Du point de vue du traitement du domaine fréquentiel, la netteté est l’amélioration des composantes haute fréquence d’une image.
Effet
Selon l'analyse des caractéristiques fréquentielles de l'image, on pense généralement que le contraste et la plage dynamique de l'image entière dépendent de la partie basse fréquence des informations de l'image (se référant à l'image globale), tandis que les contours des bords et les détails locaux de l'image dépendent de la partie haute fréquence.
Par conséquent, des méthodes de filtrage numérique bidimensionnel sont utilisées pour le traitement de l'image. Par exemple, l'utilisation d'un filtre passe-haut peut aider à mettre en évidence les contours des bords et les détails de l'image, tandis que l'utilisation d'un filtre passe-bas peut lisser l'image et réduire le bruit.
Examens des candidatures
Assez subjectif
Dans les applications pratiques, plusieurs algorithmes d'amélioration peuvent être sélectionnés pour être testés en même temps, et l'algorithme présentant de meilleurs effets visuels, une complexité de calcul relativement faible et une conformité aux exigences de l'application peut être sélectionné.
Transformation en niveaux de gris
Principe de cartographie en niveaux de gris
Le mappage en niveaux de gris est une opération ponctuelle basée sur les pixels de l'image
Concevoir une certaine règle de mappage en fonction de l'objectif d'amélioration et l'exprimer avec la fonction de mappage correspondante
La fonction de mappage peut être utilisée pour mapper l'échelle de gris de chaque pixel de l'image d'origine sur une nouvelle échelle de gris.
t=T(s)
taper
Inversion d'images
Les valeurs des niveaux de gris sont inversées, le noir devient blanc
Les opérations d'inversion d'image sont souvent utilisées pour améliorer les zones à faible gris dans une image, les rendant plus lumineuses ou plus visibles.
Si le corps principal de l'image est plus clair en niveaux de gris, l'opération d'inversion peut rendre le corps principal plus sombre.
Pour améliorer les sujets d'image avec des niveaux de gris plus clairs, il est souvent nécessaire d'utiliser d'autres techniques d'amélioration de l'image, telles que l'égalisation de l'histogramme ou l'amélioration du contraste. L'opération d'inversion est plus adaptée pour améliorer les détails sombres de l'image.
Améliorer le contraste
Améliorez le contraste de chaque partie de l'image et augmentez réellement la plage dynamique entre deux valeurs de gris dans l'image.
compression de plage dynamique
Au contraire, parfois la plage dynamique de l'image originale est trop grande et dépasse la plage dynamique autorisée de certains dispositifs d'affichage. Dans ce cas, si l'image originale est utilisée directement, certains détails peuvent être perdus.
Modifier la distribution des niveaux de gris via la transformation de fonction
Ajuste la valeur en niveaux de gris de chaque pixel de l'image en appliquant une fonction mathématique
transformation linéaire
transformation non linéaire
s=cr^γ
Le coin supérieur gauche est l'image originale : c=1, Y est respectivement 3,0, 4,0 et 5,0.
Histogramme
Définition de l'histogramme
Un histogramme en niveaux de gris est un graphique statistique qui représente la distribution des niveaux de gris d'une image.
L'abscisse est le niveau de gris, généralement représenté par r, et l'ordonnée est le nombre de pixels avec ce niveau de gris ou la probabilité d'apparition de ce niveau de gris.
Propriétés des histogrammes
Une image correspond à un histogramme, mais l'histogramme ne correspond pas forcément à une seule image.
L'histogramme ne peut compter que la probabilité d'apparition de pixels en niveaux de gris et ne peut pas refléter la position du pixel dans l'image.
L'égalisation de l'histogramme est principalement utilisée pour améliorer le contraste global de l'image, tandis que le lissage et la netteté sont utilisés respectivement pour réduire et augmenter le contraste local et les détails de l'image.
Dans certains cas particuliers, l'égalisation de l'histogramme peut ne pas modifier le contraste de manière significative, voire le diminuer légèrement.
Histogramme déjà uniforme : si l'histogramme d'une image est déjà distribué uniformément ou si la distribution de la luminosité est très proche d'une distribution uniforme, l'égalisation de l'histogramme peut ne pas modifier son contraste.
Répartition spéciale de la luminosité : dans certaines situations particulières de répartition de la luminosité, l'égalisation de l'histogramme peut entraîner une perte de détails dans certaines zones, ce qui peut réduire le contraste dans ces zones.
Concentrations extrêmes de valeurs de luminance : si une grande proportion de pixels dans une image est concentrée aux extrémités de la plage de luminance (très claire ou très sombre), l'égalisation de l'histogramme peut entraîner une réduction du contraste dans ces zones.
Histogramme et distribution des niveaux de gris de l'image
Égalisation d'histogramme
La distribution des niveaux de gris de l'image doit utiliser pleinement toute la plage des niveaux de gris et le nombre de pixels à chaque niveau de gris doit être réparti à peu près uniformément.
Ceci est obtenu en ajustant l'histogramme de l'image de sorte que l'histogramme de l'image de sortie soit réparti aussi uniformément que possible, rendant ainsi la répartition de la luminosité dans l'image plus uniforme.
Pas de lissage ni d'affûtage
Spécification de l'histogramme
Le gris égalise l'histogramme d'origine
Spécifiez l'histogramme requis et calculez une transformation qui égalise l'histogramme spécifié.
Mapper l'histogramme d'origine à l'histogramme spécifié
Par rapport
Opérations entre images
opérations arithmétiques
opération d'addition
C(x,y)=A(x,y) B(x,y)
La moyenne de M images est définie comme
g(x,y)=1/M(g0(x,y) g1(x,y) … gM(x,y))
application
Supprimer le bruit aléatoire "additif"
Générer des effets de superposition d'images
Soustraction
C(x,y) = A(x,y) - B(x,y)
application
Élimine les effets de fond
méthode d'ombre de différence
Soustrayez les images de la même scène prises à des moments différents ou les images de la même scène dans différentes bandes d'ondes pour détecter les changements entre deux images de la même scène.
Il peut être utilisé pour guider la surveillance dynamique, la détection et le suivi de cibles mobiles, l'élimination de l'arrière-plan de l'image et la reconnaissance de cibles, etc.
Multiplication
C(x,y) = A(x,y) * B(x,y)
application
Affichage partiel de l'image
opération de division
C(x,y) = A(x,y)/B(x,y)
application
Couramment utilisé dans le traitement d’images de télédétection
opération logique
Uniquement disponible pour les images binaires (0 et 1)
Classification
AND (AND) : écrit p AND q (peut également s'écrire p·q ou pq)
Ou (OR) : écrit p OR q (peut également s'écrire p q)
COMPLÉMENT (COMPLÉMENT, aussi souvent appelé négation ou non) : écrit NOT q (peut aussi s'écrire )
filtrage spatial
Le filtrage dans le domaine spatial opère directement sur les pixels, tandis que le filtrage dans le domaine fréquentiel implique d'opérer sur les composantes fréquentielles de l'image.
Opérations de quartier à l'aide de modèles dans l'espace image
Catégorie 1
Linéaire : méthode de moyenne de quartier
Fondamental
L'algorithme de lissage d'image le plus basique
Le lissage peut être effectué dans le domaine spatial ou dans le domaine fréquentiel
En prenant chaque pixel de l'image comme centre, prenez son domaine R et calculez la moyenne pondérée en niveaux de gris de tous les pixels du voisinage comme sortie du pixel central.
Effet principal
Éliminez ou réduisez le bruit et améliorez la qualité de l’image
Flou les images pour leur donner un aspect doux et naturel
Processus de mise en œuvre
Généralement implémenté à l'aide d'une opération de convolution de modèle
Étapes spécifiques
Faites glisser le modèle de gauche à droite et de haut en bas dans l'image, et chaque point de position dans le modèle coïncide avec un certain pixel dans l'image ;
Multipliez le coefficient à chaque position du modèle par la valeur de gris du pixel avec lequel il coïncide ;
Additionner tous les produits ;
Attribuez le résultat de la sommation au pixel correspondant au centre du modèle.
formulaire de modèle
Caractéristiques
La répartition des coefficients est généralement importante au centre et faible dans les zones environnantes.
La somme des coefficients est égale à 1 pour garantir que le niveau de gris global reste inchangé avant et après le traitement de l'image.
Afin de mieux maintenir le bord, vous pouvez également utiliser des gabarits en forme de croix, de forme droite et autres.
Non-linéarité : filtrage médian
Principe de l'algorithme
Utilisez une fenêtre contenant un nombre impair de pixels pour glisser dans l'image et remplacez la valeur de gris du point central de la fenêtre par la valeur de gris médiane de chaque point de la fenêtre.
Caractéristiques de l'algorithme
C'est une technologie de traitement non linéaire
Par rapport à la méthode de moyenne de voisinage, le filtrage médian peut surmonter dans une certaine mesure le flou des détails de l'image provoqué par les filtres linéaires, et est particulièrement efficace pour les interférences d'impulsions et le bruit de balayage d'image. Tout en supprimant le bruit, la netteté des bords et des détails de l'image peut être mieux conservée.
Pour les bords de l'image, le niveau de gris change souvent par incréments ou pentes, et le filtre médian peut bien le maintenir sans flou.
D'une manière générale, le filtrage médian peut bien maintenir les bords de l'image tout en filtrant le bruit, ce qui est difficile à réaliser avec un filtrage moyen linéaire.
De plus, l'effet de filtrage est lié à la taille de la fenêtre. Un choix raisonnable de la taille de la fenêtre est la clé pour faire bon usage du filtrage médian.
N'améliore pas le contraste de l'image
Catégorie 2
lisse
Méthode de moyenne de quartier
filtre médian
aiguiser
concept de base
Objectif : Améliorer les bords et les contours détaillés de la scène dans l'image.
Fonction : Améliore le contraste des niveaux de gris.
Notions de base : étant donné que les bords et les contours sont situés là où se produisent les mutations de la valeur de gris, l'opération différentielle consiste à trouver le taux de changement de la valeur de gris. L'algorithme de netteté est donc basé sur une opération différentielle (différence).
Opérateur : est un concept largement utilisé en mathématiques et en physique pour décrire une règle ou une fonction qui mappe un élément (ou un ensemble d'éléments) à un autre élément (ou un ensemble d'éléments). Les opérateurs peuvent être des opérations mathématiques simples, telles que l'addition ou la multiplication, ou des opérations plus complexes, telles que la différenciation, l'intégration ou les transformations linéaires.
Courbe différentielle
méthode
méthode du dégradé
Méthode laplacienne
Filtrage directionnel
Filtre de netteté linéaire
Appartient à la transformation linéaire
Idées d'algorithmes
La netteté de l’image peut être considérée comme l’opération inverse du lissage. Le but est d’améliorer les détails et les bords de l’image et d’avoir un effet de flou sur l’image.
Pour atteindre l'objectif de netteté, vous pouvez essayer d'extraire les informations détaillées de l'image qui doit être améliorée, puis de l'améliorer.
L'essence du lissage spatial est d'effectuer une moyenne locale sur l'image, ce qui est une opération intégrale ; par conséquent, la netteté de l'image peut être obtenue en utilisant l'opération inverse de l'intégrale - « différentielle ».
L'opération différentielle consiste à trouver le taux de changement du signal. Les endroits où les changements sont rapides sont les détails et les bords de l'image. L'ajout du résultat différentiel à l'image originale selon une certaine proportion peut rendre le contour de l'image clair et les détails visibles.
Opérateur différentiel du premier ordre
Opérateur différentiel du premier ordre
Opérateur différentiel bidimensionnel du premier ordre
Deux opérations de différence pour trouver des dégradés
différence verticale horizontale
différence croisée
Algorithme différentiel unidirectionnel du premier ordre
concept
L'algorithme différentiel unidirectionnel du premier ordre consiste à fournir des informations de bord dans une direction spécifique.
L'image est composée de deux directions : horizontale et verticale. Par conséquent, l’algorithme différentiel unidirectionnel s’accentue en fait dans la direction horizontale ou verticale.
Classification
Algorithme de netteté horizontale
La netteté horizontale est très simple et est obtenue grâce à un modèle capable de détecter les changements dans les valeurs des pixels dans la direction horizontale.
Algorithme de netteté verticale
Ceci est réalisé grâce à un modèle capable de détecter les changements dans les valeurs des pixels dans la direction verticale.
Algorithme de différenciation croisée
Une valeur de pixel inférieure à zéro apparaît dans le résultat du calcul.
Solution : Vous pouvez créer un mappage simple
[gmin,gmax]→[0,255]
opérateur différentiel du second ordre
formule
opérateur
Opérateur laplacien
Opérateur de déformation laplacien
opérateur de journal
opérateur de chien
Comparaison des effets d'extraction de bord entre la différentielle du premier ordre et la différentielle du second ordre
La frontière obtenue par l'opérateur Sobel est une frontière relativement approximative, avec moins d'informations sur les limites, mais relativement claire ;
La frontière obtenue par l'opérateur laplacien est une frontière relativement détaillée. Les limites incluent beaucoup de détails, mais ne sont pas très claires.
Filtrage du domaine fréquentiel
filtre passe bas
principe
haute fréquence et basse fréquence
Composantes basse fréquence : les composantes basse fréquence représentent des changements spatiaux lents dans l'image, c'est-à-dire que dans ces zones de l'image, les valeurs des pixels (luminosité ou couleur) changent lentement. Cela correspond généralement à de grandes zones uniformes de l'image, telles que des ciels calmes, des murs ou d'autres parties sans beaucoup de texture ni de bords. La composante basse fréquence est liée aux informations globales de l'image, telles que la luminosité de l'arrière-plan, le dégradé de couleurs, etc.
Composantes haute fréquence : les composantes haute fréquence représentent des changements spatiaux rapides dans l'image, c'est-à-dire que dans ces zones de l'image, les valeurs des pixels changent rapidement. Cela correspond généralement à des parties détaillées de l'image telles que les bords, les textures, les motifs et le bruit. Les composantes haute fréquence révèlent des caractéristiques locales de l'image, telles que les contours des objets, les détails des textures, etc.
Le filtrage du domaine fréquentiel peut être utilisé pour améliorer ou supprimer sélectivement certains contenus d'une image. Le filtrage passe-bas peut être utilisé pour réduire les composantes haute fréquence afin d’obtenir un lissage de l’image.
appartient à lisse
filtre passe bas
Filtre passe-bas idéal (ILPF)
D0 est la fréquence de coupure du filtre, qui est une grandeur non négative
D(u,v) est la distance du point (u,v) sur le plan des fréquences à l'origine
Le filtrage passe-bas réduit les composantes haute fréquence, le bruit et les bords de l'image sont atténués et l'image est floue.
Le filtre passe-bas idéal a un effet de sonnerie
Filtre passe-bas Butterworth (BLPF)
Par rapport au filtre passe-bas idéal, il n'y a pas de saut évident entre la bande passante et la bande d'arrêt du filtre Butterworth, et la transition entre les hautes et basses fréquences est relativement douce, de sorte que l'image de sortie obtenue n'a pas de sonnerie évidente.
Il ressort de la courbe caractéristique de la fonction de transfert qu'une certaine haute fréquence est conservée à la queue, de sorte que l'effet de filtrage du bruit n'est pas aussi bon que celui du filtre passe-bas idéal.
Filtre passe-bas exponentiel (ELPF)
Filtre passe-bas en échelle (TLPF)
Comparaison des effets de filtre
Les résultats du filtrage passe-bas présentent différents degrés de flou. À mesure que la fréquence de coupure augmente, le flou de l'image devient plus clair.
À la même fréquence de coupure, le résultat du traitement ELPF présente le flou le plus léger, suivi de BLPF, et ILPF présente le flou le plus important.
Lorsque la fréquence de coupure est basse, les effets de filtrage de plusieurs filtres sont très différents. À mesure que la fréquence de coupure augmente, les résultats du filtrage convergent progressivement.
ILPF et TLPF présentent des phénomènes de « sonnerie » évidents, et la fréquence d'oscillation augmente avec l'augmentation de la fréquence de coupure. BLPF et ELPF n'ont pas de phénomènes de « sonnerie » évidents.
filtre passe-haut
principe
Les bords de l'image correspondent aux composantes haute fréquence du spectre, des filtres passe-haut peuvent donc être utilisés pour extraire les bords de l'image.
La superposer à l'image originale peut rendre les bords plus clairs, accentuant ainsi la netteté de l'image.
Appartient à l'affûtage
algorithme
Pour le filtre passe-bas correspondant à la partie lisse de l'image, le filtre passe-haut correspondant peut être obtenu.
Un filtre passe-haut peut être exprimé par (1 filtre passe-bas)
Filtrage homomorphe
Le filtrage homomorphe est une technologie spéciale de traitement d'image qui contient à la fois des propriétés de lissage et de netteté de l'image, mais son objectif principal n'est pas seulement de lisser ou de rendre les images plus nettes. Le filtrage homomorphe est principalement utilisé pour améliorer les conditions d'éclairage de l'image et améliorer la qualité de l'image en améliorant simultanément le contraste de l'image et en compressant la plage dynamique de l'image.
Modèle de réflexion de l'éclairage
La technologie de filtrage homomorphe est une méthode de filtrage basée sur le principe d'imagerie par réflexion d'éclairage de l'image.
Dans le domaine fréquentiel, il est possible de compresser simultanément la plage de luminosité de l'image et d'améliorer le contraste, ce qui est particulièrement adapté à l'imagerie provoquée par un éclairage inégal.
L'image obtenue par l'observateur ou le système d'imagerie dépend généralement de la lumière réfléchie sur la cible, qui est divisée en ① la quantité de lumière visible incidente sur la scène ② la quantité de lumière réfléchie par la cible dans la scène ;
La quantité de lumière incidente est liée à l'éclairage externe, tandis que le coefficient de réflexion dépend des caractéristiques de l'objet.
Les surfaces claires et lisses ont des coefficients de réflexion élevés
Les surfaces rugueuses de couleur foncée ont de faibles coefficients de réflexion
Principe de l'algorithme
L'image est représentée comme le produit de la composante d'éclairage et de la composante de réflexion
La composante d'éclairage change lentement dans l'espace et est dominée par les composantes basse fréquence.
La composante de réflexion change radicalement à l'intersection de différents objets dans l'espace, reflétant les changements et les détails de la surface, et contient de nombreuses composantes haute fréquence.
La composante d'éclairage et la composante de réflexion sont dans des bandes de fréquences différentes. Vous pouvez utiliser la méthode logarithmique pour transformer leur multiplication en addition, puis utiliser des traitements différents pour ces deux parties.
La composante d'éclairage est à basse fréquence, et la basse fréquence peut être supprimée pour éliminer un éclairage inégal. Dans le même temps, les composants haute fréquence peuvent être améliorés pour mettre en valeur les détails de l’image.
Gérer l'instance
En même temps, il réduit les basses fréquences et améliore les hautes fréquences, compresse la plage dynamique de l'image et améliore le contraste entre les différentes parties.
Restauration d'images
Récupération d'image sans contrainte
Le processus de dégradation de l'image peut être considéré comme une transformation
Trouver f(x,y) à partir de g(x,y) est le processus de recherche de sa transformation inverse
En pratique, T(-1) a de nombreuses situations
T(-1) n'existe pas, c'est-à-dire singulier
T(-1) existe, mais n'est pas unique
T(-1) existe et est unique, mais de petites perturbations dans g(x, y) provoqueront de grands changements dans f(x, y)
T(-1) existe et est unique, mais sa solution est trop compliquée ou presque insoluble
T(-1) existe, est unique, n'a pas de problèmes mal posés et peut être résolu
Dans le cas de systèmes invariants à déplacement linéaire, à partir de l'expression matricielle du modèle dégénéré
Le bruit ici est généralisé. En l’absence de connaissances préalables, nous devons trouver une estimation de f et minimiser la formule suivante au sens des moindres carrés.
Méthode de filtrage inverse pour restaurer l'image
Méthode de filtre Wiener
Compression d'images
encodage sans perte
codage à longueur variable
Codage de Huffman
codage arithmétique
Codage de longueur fixe
codage de la longueur de course
codage du plan de bits
Encodage LZW
codage avec perte
Codage prédictif
transformer le codage
Segmentation d'images
Présentation de la segmentation d'images
Pourquoi diviser
La segmentation consiste à diviser l'image en zones qui ne se chevauchent pas et à extraire les zones d'intérêt.
statut
La segmentation d’images est une étape clé dans la transition du traitement d’images à l’analyse et à la compréhension des images, et constitue également une technologie de base en vision par ordinateur.
concept
La somme (union) de toutes les sous-régions doit inclure tous les pixels de l'image, ou la segmentation doit diviser chaque pixel de l'image en une certaine sous-région.
Chaque sous-région ne se chevauche pas, ou un pixel ne peut pas appartenir à deux régions en même temps.
Les pixels appartenant à la même zone doivent avoir les mêmes caractéristiques et les limites de la zone doivent être claires.
Les pixels appartenant à différentes régions doivent avoir des caractéristiques différentes.
Il est nécessaire que les pixels de la même sous-région soient connectés.
nature
Au sein d’une région : similarité
Méthode : en fonction de la similarité de la valeur de gris des pixels de l'image, en sélectionnant un seuil, recherchez la zone avec une valeur de gris similaire. Le contour extérieur de la zone est le bord de l'objet cible.
Entre régions : discontinuités
Méthode : en fonction de la discontinuité de la valeur de gris du pixel de l'image, recherchez d'abord les points, les lignes et les bords, puis déterminez la zone.
Idées
1) Du simple au difficile, divisez progressivement :
2) Contrôler l'environnement d'arrière-plan et réduire la difficulté de segmentation ;
3) Concentrez-vous sur l'amélioration de l'objet d'intérêt et la réduction de l'interférence des parties non pertinentes.
méthode
Une classe de méthodes de segmentation basée sur la similitude des valeurs de gris au sein de la région. Déterminez la zone à laquelle appartient chaque pixel pour former une carte de zone
méthode de segmentation par seuil
croissance régionale
fusion fractionnée
Segmentation morphologique
Une classe de méthodes de segmentation basées sur la discontinuité des valeurs de gris entre les régions. La méthode de segmentation basée sur les bords extrait d'abord la limite de la zone, puis détermine la zone délimitée par la limite.
méthode de segmentation par détection de bord
Transformation difficile
Exiger
efficacité
Intégrité
Précision
la stabilité
segmentation de seuil
Présentation de la segmentation des seuils
principe
L'image contient : une cible et un arrière-plan ; il existe des différences dans les caractéristiques d'échelle de gris entre les deux ; la sélection d'un seuil approprié ; la détermination de la propriété de chaque pixel dans l'image et enfin la segmentation pour générer une image binaire ;
étape
Déterminer les seuils de segmentation appropriés
Comparez chaque valeur de pixel à un seuil pour attribuer la propriété du pixel
Classification des seuils
Caractéristiques
Le calcul est simple
Particulièrement efficace pour la segmentation d'images avec un fort contraste entre la cible et l'arrière-plan.
Les régions qui ne se chevauchent pas peuvent toujours être définies avec des limites fermées et connectées
Peut être généralisé à d’autres caractéristiques, telles que la texture, la couleur, etc.
Seuil d'histogramme
Idée basique
Les valeurs des niveaux de gris des pixels à l'intérieur de la cible et de l'arrière-plan sont très similaires, tandis que les niveaux de gris des pixels des deux côtés de leur jonction sont très différents. L'histogramme de l'image peut essentiellement être considéré comme la superposition de deux histogrammes unimodaux de la cible et. l'arrière-plan. Si la différence d'échelle de gris entre la cible et l'arrière-plan est relativement importante, l'histogramme de l'image doit être bimodal.
Sélection du seuil
Prenez la valeur de gris en bas (valeur minimale) de l'histogramme comme seuil T.
Problèmes existants et améliorations
Sensible aux interférences sonores, la valeur minimale n'est pas le seuil souhaité.
Améliorer
Prenez une position fixe entre les deux sommets, comme la position médiane. Étant donné que la valeur maximale représente la valeur typique à l'intérieur et à l'extérieur de la zone, elle est généralement plus fiable que la sélection de la vallée et peut éliminer les interférences de bruit.
Renforcer le traitement du bruit, comme le lissage des histogrammes, etc.
seuil optimal
question
L'histogramme de l'image ne présente pas de phénomène de double pic et de vallée, ou même si le seuil présente un phénomène de double pic et de vallée, le point de vallée n'est pas un point de seuil précis ;
Pensée
Minimisez la probabilité d’erreur de segmentation, également connue sous le nom de seuil minimum de probabilité d’erreur.
méthodes spécifiques
Définissez la probabilité de la cible et de l'arrière-plan ainsi que leur fonction de densité de probabilité de distribution des gris ;
Étant donné un seuil t, trouvez la probabilité d'erreur de segmentation de chaque classe ;
Trouvez la probabilité d'erreur de segmentation totale e(t) en dessous de ce seuil ;
Le seuil optimal T est calculé à partir de la valeur minimale de la probabilité totale d'erreur de segmentation e(t).
Seuil maximal de variance interclasse
Idée basique
Le seuil sélectionné, etc., maximise la différence globale entre la cible de segmentation et la zone d'arrière-plan. Dans une certaine mesure, le résultat de segmentation peut être considéré comme ayant atteint le niveau optimal. Cette différence entre les régions est souvent décrite par la variance.
La variance est fonction du seuil k. Lorsque k change, la variance entre les régions change également. Sélectionnez le k qui maximise la variance, également appelé seuil de variance inter-classes maximal.
Le processus de résolution du seuil maximal de variance inter-classes ne nécessite pas de réglage manuel d'autres paramètres et est entièrement sélectionné automatiquement par l'ordinateur. Elle s’applique non seulement à la segmentation de deux régions, mais peut également être étendue à la situation de plusieurs régions.
méthodes spécifiques
passer
segmentation de détection de bord
Le principe de la segmentation par détection de contour
définition du bord
La collection de pixels dans une image qui présentent une marche ou un toit en niveaux de gris.
Classification des bords
Le principe de la segmentation par détection de contour
La segmentation de l'image est obtenue en trouvant les limites des différentes zones de l'image. Il s'agit d'une large classe de méthodes de segmentation d'images basées sur des frontières.
Opérateur de détection de bord de premier ordre
Un bon opérateur de détection doit répondre à trois indicateurs :
Haute précision : contient plus de vrais bords et moins de faux bords ;
Haute précision : les bords détectés doivent être sur les véritables limites ;
Largeur d’un seul pixel : hautement sélectif et particulièrement réactif aux contours.
Habituellement, la valeur maximale du différentiel de premier ordre est utilisée pour détecter les fronts.
opérateur de dégradé
Identique à « Algorithme de différenciation croisée »
Autres opérateurs de direction
Les opérateurs tels que Roberts, Prewitt et Sobel contiennent uniquement des modèles dans deux directions et peuvent détecter peu de directions de bord. Plus le modèle différentiel a de directions, plus il est possible de détecter d'arêtes dans davantage de directions.
Opérateur Kirsch
8 directions forment un angle inclus de 45°
Comment utiliser : 8 modèles sont respectivement convolués avec l'image pour détecter les changements d'échelle de gris dans 8 directions. La direction avec le changement le plus important est la direction du bord. Les quatre premiers modèles de direction de l’opérateur Kirsch 5×5 sont les suivants :
Opérateur avisé
Caractéristiques
Il y a des problèmes : position inexacte ; largeur de pixel non unique, etc.
Étapes de l'opérateur pour détecter les bords
Lissez l'image avec un modèle de filtre gaussien ;
Calculer l'ampleur et la direction du dégradé de l'image lissée ;
Appliquer une suppression maximale à l'amplitude du gradient ;
Assurez-vous qu'il s'agit de la valeur maximale dans la direction du dégradé.
Détection et liaison des contours avec un algorithme à double seuil.
Utilisez le dégradé de quartier pour juger les parties incertaines.
Opérateur de détection de bord de second ordre
Habituellement, le point de passage à zéro du différentiel du second ordre est utilisé pour le prépositionnement des bords.
Laplacien
Caractéristiques
C'est la dérivée seconde et elle est très sensible au bruit.
La magnitude du Laplacien produit des doubles arêtes (minimum négatif et maximum positif) ;
Impossible de détecter la direction des bords (pas de modèle de direction) ;
effet
Utiliser ses propriétés de passage à zéro pour le prépositionnement des bords ;
Détermine si un pixel se trouve du côté sombre ou du côté clair d'un bord.
modèle
Opérateur LOG
L'image est d'abord lissée, puis les bords sont détectés à l'aide de l'opérateur de Laplace pour surmonter le problème de la sensibilité de l'opérateur différentiel du second ordre au bruit.
Poursuite et fermeture du bord
Le but de la continuation des bords
Le but de la jonction des bords est de relier des bords discontinus pour former une limite fermée.
Le principe du traitement de continuation partielle
Analysez les caractéristiques de chaque point (x, y) dans les résultats de détection de contour ; connectez tous les points similaires dans un petit voisinage (3x3 ou 5x5) pour former la limite d'une région avec des caractéristiques communes.
Transformation difficile
énoncé du problème
principe
En utilisant la relation double entre un espace et un autre espace, le problème dans l'espace d'origine est converti en son espace double à résoudre, et le problème devient relativement simple dans l'espace double.
Détecter les lignes droites
étape
Phase de préparation
Étape d'opération
étape de recherche de pic
Problèmes existants et améliorations
question
Lorsque la ligne droite est proche de la verticale, la pente q est proche de l'infini, la plage de recherche est très large et la quantité de calcul est importante.
Améliorer
L'espace image XY est transformé en espace de coordonnées polaires.
Caractéristiques
Il a une forte capacité anti-interférence et le comptage cumulatif dans l'espace des paramètres est un processus intégral.
Il a une bonne robustesse et présente un pic très évident au point paramètre que l'on retrouve vraiment.
Fermeture automatique : La courbe entière peut être obtenue à partir des paramètres de la courbe limite.
Par conséquent, la transformée de Hough peut être utilisée pour éliminer les interférences et compléter la supplémentation et la connexion des courbes.
Développement d'applications
Pour la détection de cercle
Pour la détection des ellipses
Segmentation régionale
croissance régionale
Introduction du problème
Certaines méthodes de segmentation ne prennent pas en compte certaines conditions.
L'idée de base de la croissance régionale
La croissance régionale est une méthode de segmentation ascendante.
Déterminez d'abord le nombre de régions et leurs caractéristiques ; puis trouvez une graine représentative pour chaque région ; utilisez la graine comme centre de regroupement pour fusionner en continu les pixels adjacents ayant les mêmes caractéristiques dans l'image dans la région. Répétez le processus de fusion jusqu'à ce qu'il ne soit plus possible ; être fusionnées et former finalement des régions aux caractéristiques différentes. Cette méthode de segmentation est également appelée expansion de région.
Étapes et processus de l'algorithme
Trouvez d’abord un pixel de départ pour la zone à segmenter comme point de départ de la croissance ;
Déterminer un critère de similarité (pour déterminer si les conditions de fusion sont remplies) ;
Selon le critère de similarité, les pixels situés à proximité du pixel de départ qui ont des propriétés identiques ou similaires à celles du pixel de départ sont fusionnés dans la zone de départ ;
Traitez le nouveau pixel comme un nouveau pixel de départ et continuez le processus ci-dessus jusqu'à ce qu'aucun pixel répondant aux conditions ne puisse être inclus, complétant ainsi la croissance d'une région ;
Suivez cette méthode pour terminer la croissance des autres zones jusqu'à ce que l'image entière soit complètement segmentée.
La question clé
Sélection du point de départ
le pixel le plus brillant ;
Valeur maximale de l'histogramme ;
Pixel au centre du cluster ;
Détermination du critère de similarité (critère de croissance)
Différence régionale en niveaux de gris ;
Caractéristiques de distribution en niveaux de gris dans la région ;
Couleur, texture, taille et forme, etc. ;
Détermination des conditions d'arrêt de croissance
Critère de croissance de région : la différence absolue de valeur de gris entre n'importe quel pixel et la graine est inférieure à 65.
fusion fractionnée
énoncé du problème
La culture régionale est fortement influencée par les semences, les critères de similarité, etc.
L'idée de scinder et de fusionner
La fusion-fusion est une méthode de segmentation descendante.
À partir de l'image entière, elle est continuellement divisée étape par étape, et en même temps, les zones adjacentes ayant les mêmes caractéristiques sont fusionnées jusqu'à ce qu'elle ne puisse plus être divisée, et finalement chaque sous-région est obtenue.
approche de fusion-fusion
approche qui divise
Quadruple étape par étape jusqu'à ce que la zone à diviser soit divisée en pixels individuels.
La pratique de la fusion
Fusionnez les zones adjacentes ayant les mêmes caractéristiques en une seule zone.
Opérations spécifiques
effectuer un fractionnement ;
Vérifiez si toutes les zones adjacentes peuvent être fusionnées et si c'est le cas, fusionnez-les une par une ;
Répétez les deux premières étapes jusqu'à ce que le fractionnement et la fusion ne puissent plus être effectués ;
Remarque : lors de la fusion, les quatre zones sous le même nœud parent sont généralement prises en compte en premier, puis étendues aux zones du même niveau sous d'autres nœuds parents.
description de l'image
Concepts de base de la description d'image
Les principales caractéristiques qui caractérisent l'image
L'image est segmentée pour obtenir plusieurs régions et limites. Pour que l'ordinateur puisse identifier efficacement la cible, les principaux attributs de la cible et la relation entre la cible et la cible et l'arrière-plan doivent être exprimés en valeurs numériques plus concises et claires. , symboles, etc.
Ces valeurs, symboles, etc. générés à partir de l’image originale ou de l’image segmentée sont appelés caractéristiques de l’image. Les caractéristiques de l'image contiennent des informations importantes sur la cible et reflètent les principales caractéristiques de la cible.
Fonctionnalités internes : fonctionnalités d'échelle de gris, fonctionnalités de couleur, fonctionnalités de texture,...
Caractéristiques externes : superficie, périmètre, circularité, etc...
Définition de la description de l'image
L'utilisation de caractéristiques d'image pour représenter une image est appelée description d'image, c'est-à-dire l'utilisation de nombres ou de symboles pour représenter les caractéristiques pertinentes de chaque cible dans l'image ou la scène, ou même la relation entre les cibles. Le résultat final est une expression abstraite de la cible. les caractéristiques cibles et la relation entre elles.
Objectif de la description de l'image
Obtenez des informations utiles sur la cible, décrivez et mesurez avec précision la cible et jetez les bases de l'analyse et de la compréhension de la cible.
Méthodes de base de description d'image
La méthode de description simple fait référence à une méthode de description basée sur les caractéristiques de forme géométrique de l'image. Les méthodes couramment utilisées incluent le périmètre, la surface, la position, la direction, la rectangleité, etc.
Méthode de description des limites : une fois l'image segmentée ou l'algorithme de détection des contours utilisé pour obtenir l'ensemble de points limites de la zone cible, ces points limites doivent être organisés pour former une ligne limite et décrits. Cette méthode comprend principalement la méthode du code en chaîne. et la méthode de description de Fourier attendez.
La méthode de description régionale est une méthode de description d'une image basée sur l'échelle de gris, la couleur, la texture et d'autres caractéristiques de l'image, telle que la méthode de description des moments invariants.
description simple
description de la circonférence
Définition du périmètre : la longueur des limites d'une région.
Le rôle du périmètre : Un objet de forme simple peut utiliser un périmètre relativement court pour entourer la zone qu'il occupe, le périmètre peut donc être utilisé pour distinguer des objets de formes simples ou complexes.
Manières couramment utilisées pour décrire le périmètre
La longueur de la ligne de démarcation (espace) entre la zone et l'arrière-plan
Les pixels sont considérés comme de petits carrés par unité de surface, et la zone ainsi que l'arrière-plan sont composés de petits carrés. Le périmètre est la longueur de l'espace (ligne de jonction) entre la zone et l'arrière-plan.
Soit : périmètre p = longueur de la ligne d'intersection
nombre de points limites
Exprimé par le nombre de pixels limites, c'est-à-dire le nombre de points limites
Soit : périmètre p = nombre de points limites
Descriptif de la zone
Définition de la description de la zone : le nombre de pixels dans la zone.
Le rôle de la zone : C'est la caractéristique la plus fondamentale de la zone, qui décrit la taille de la zone.
Supposons que la taille de l'image f(x,y) soit M×N. Pour une image binaire, 1 représente la cible et 0 représente l'arrière-plan. Trouver la zone cible consiste à compter le nombre de pixels avec f(x,y. )=1, alors l’aire est :
Description de l'emplacement cible
Puisque la cible a une certaine zone, il est nécessaire de définir la position de la cible dans l'image. Généralement, le point central de la zone est défini comme la position cible.
Le centre de la zone fait référence au centroïde du graphique. Si la qualité de l'image est uniformément répartie, le centroïde est le centroïde.
Pour une image binaire f(x,y) de taille M×N, si 1 représente la cible et 0 représente l'arrière-plan, alors les coordonnées du centre de gravité de la cible sont :
Description de la direction cible
Après avoir déterminé l'emplacement de la cible dans l'image, vous devez également déterminer la direction de la cible.
La direction cible peut être déterminée en trouvant la plus petite somme des carrés des distances entre tous les points de la cible et une ligne droite, qui est la direction cible.
Description de la rectangle cible
La rectangularité reflète le degré avec lequel la cible remplit son rectangle circonscrit et peut être décrite par le rapport entre l'aire de la cible et l'aire de son plus petit rectangle circonscrit.
Ao est l'aire de la cible et AMER est l'aire du plus petit rectangle englobant. La valeur R est comprise entre 0 et 1.
Lorsque la cible est un rectangle, R prend une valeur maximale de 1 ; lorsque la cible est un cercle, la valeur de R est ; pour les cibles minces et courbes, la valeur R devient plus petite et est proche de 0.
Méthode de description du code de chaîne
Définition du code de chaîne
Le code de chaîne est une méthode de représentation du codage des limites, qui utilise la direction de la limite comme base du codage. Par souci de simplicité, un ensemble de points limites est généralement décrit.
Méthode de code de chaîne
Il existe deux méthodes de codage : le code à 4 chaînes et le code à 8 chaînes. Méthode spécifique : partir du point de départ, coder le long de la limite, jusqu'à revenir au point de départ, terminer le codage.
Donnez à chaque segment de limite un code de direction
Sélectionnez le point de départ, commencez à partir du point de départ et encodez le long de la limite jusqu'à ce que vous reveniez au point de départ et terminez l'encodage.
Point de départ : point rouge
Sens : dans le sens des aiguilles d'une montre
Code à 4 chaînes : 000033333322222211110011.
Exemple 2
Soit les coordonnées du point de départ s (5,5) et utilisez des codes de chaîne à 4 directions et des codes de chaîne à 8 directions dans le sens inverse des aiguilles d'une montre pour représenter les limites de la zone.
Code chaîne à 4 voies : (5,5)111232323000
Code chaîne 8 directions : (5,5)2224556000
Il ya un problème
Différents points de départ conduisent à un codage différent
La rotation provoque des différences d'encodage
façons d'améliorer
La normalisation résout le problème du point de départ : si le code de chaîne est connecté du début à la fin, on peut voir que le code de chaîne est en fait une séquence cyclique de codage de direction. Par conséquent, le point de départ peut être sélectionné pour minimiser la valeur entière de la séquence de codage résultante afin d'obtenir une normalisation du code de chaîne.
La différence du premier ordre résout le problème de rotation : en utilisant la différence du premier ordre du code de chaîne pour remplacer le code d'origine, il a une invariance de rotation. Autrement dit, pour des zones de même forme tournées sous des angles différents, leurs codes de chaîne sont différents, mais les codes de différence de premier ordre de chaque code de chaîne sont les mêmes. Cette propriété est particulièrement efficace pour la reconnaissance d'images.
La différence de premier ordre et la normalisation du code de chaîne peuvent avoir une invariance de point de départ et de rotation.
Méthode de description de Fourier
Idée basique
Une fois la limite composée d'ensembles de points confirmée, la forme de la cible peut être identifiée à l'aide de la limite.
processus
La relation entre la sélection de M et le descripteur
Valeur d'usage
Avec moins de descripteurs de Fourier, les grandes lignes de l’essence de la frontière peuvent être obtenues.
Ces descripteurs contenant des informations sur les limites peuvent être utilisés pour distinguer des limites très différentes.
Caractéristiques
Un problème bidimensionnel devient unidimensionnel
Amélioré et ajusté pour être invariant aux transformations géométriques
Il ressort de la définition que la sélection du point de départ, la translation, la rotation et la mise à l'échelle affecteront toutes la séquence limite d'origine, affectant ainsi le résultat après transformation de Fourier.
Le descripteur de Fourier peut être amélioré et ajusté pour le rendre invariant aux transformations géométriques. Les méthodes spécifiques sont les suivantes : 1) Le changement et la rotation du point de départ n'affectent que la phase de F(u), pas l'amplitude, et peuvent être ignorés ; 2) La traduction affectera la composante DC de F(u), qui peut être éliminée en supprimant DC ; 3) Les changements d'échelle entraîneront un élargissement ou une réduction globale de F(u), qui peut être éliminé en normalisant en divisant par le coefficient maximum. Après le traitement ci-dessus, la feuille de Fourier finale présente l'invariance de la transformation géométrique.
méthode de description du moment
Idée basique
Dans certains cas, lorsque la répartition des gris de la zone cible dans l'image est connue, la description du moment peut être utilisée pour caractériser la cible.
Caractéristiques de description du moment
Il n'est pas nécessaire de connaître les limites, seulement les conditions d'échelle de gris des pixels à l'intérieur de la zone segmentée.
moment
Distance du centre
moment invariant