Galerie de cartes mentales Ingénieur en gestion de projet en intégration de systèmes 3e éditionChapitre 4 Architecture des systèmes d'information
Ingénieur de gestion de projet d'intégration de systèmes 3e édition/Chapitre 4 Architecture du système d'information, l'architecture du système d'information fait référence aux concepts ou caractéristiques de base qui reflètent les composants, les relations et les principes de conception et d'évolution du système liés aux systèmes d'information.
Modifié à 2024-03-17 11:39:10Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
architecture du système d'information
一、 Bases de l'architecture
I. résumé
L'Institut des ingénieurs électriciens et électroniciens (IEEE) estime que l'architecture système est la structure organisationnelle de base qui constitue un système, y compris la composition des composants du système, la relation entre les composants, la relation entre le système et son environnement et les lignes directrices. pour la conception et l’évolution architecturale. Si la catégorie système inclut l'ensemble des systèmes de l'organisation, l'architecture définit l'orientation, la structure, les relations, les principes et les normes de l'architecture du système d'information de l'organisation.
L'architecture du système d'information fait référence aux concepts ou caractéristiques de base qui incarnent les composants, les relations et les principes de conception et d'évolution du système d'information.
Les architectures impliquées dans les projets d'intégration de systèmes d'information comprennent généralement l'architecture de système, l'architecture de données, l'architecture technologique, l'architecture d'application, l'architecture de réseau, l'architecture de sécurité, etc. L'architecture d'intégration de systèmes d'information au niveau organisationnel porte la stratégie de développement et l'architecture d'entreprise de l'organisation vers le haut et guide vers le bas. Avec la mise en œuvre de plans spécifiques au système d'information, il joue un rôle d'épine dorsale dans la connexion de l'ancien et du suivant.
Cette structure hiérarchique doit être déterminée en fonction des objectifs stratégiques, du modèle opérationnel et du niveau d'informatisation de l'organisation, et soutient étroitement la réalisation de la valeur commerciale.
L’essence de l’architecture est la prise de décision, qui est prise après avoir pesé divers facteurs tels que l’orientation, la structure, les relations et les principes. Les projets de systèmes d'information peuvent réaliser la conception de diverses architectures basées sur l'idéologie directrice, les principes de conception et les objectifs de construction du projet.
II. idéologie directrice
L'idéologie directrice correspond aux principes généraux, aux exigences et aux lignes directrices qui doivent être suivis pour mener à bien un certain travail. Elle guide et guide la progression du travail dans une perspective macro et à un niveau global élevé. favorise les multiples participants du projet pour maintenir les points clés de l'intégration une compréhension cohérente des valeurs, réduisant ainsi les contradictions et les conflits inutiles.
Par exemple : L'idéologie directrice pour la construction d'un centre de gouvernance intelligente de l'assurance sociale dans une certaine ville est définie comme : guidée par la pensée de Xi Jinping sur le socialisme à la chinoise pour une nouvelle ère, mettant pleinement en œuvre l'esprit du 20e Congrès national du Parti communiste chinois, adhérant à l'idée de développement centré sur le peuple et adhérant à tout pour Le peuple, s'appuyant sur le peuple en tout, place toujours le peuple à la position la plus élevée dans nos cœurs, prend comme aspiration du peuple à une vie meilleure l'objectif de nos efforts, s'adapter aux besoins de la réforme et du développement de l'assurance sociale dans la nouvelle ère, se concentrer sur les domaines importants et les liens clés du travail de l'assurance sociale, coordonner la planification, Poussé par l'innovation et habilité par les données, mener à bien le construction d'un centre de gouvernance humaine et sociale intelligent d'une ville, promouvoir le système d'assurance sociale intelligent, le système d'innovation et le renforcement des capacités dans la nouvelle ère, améliorer continuellement les capacités de gouvernance et les niveaux de service de l'assurance sociale, et fournir des entreprises d'assurance sociale de haute qualité dans la nouvelle ère Le développement fournit un solide support d'information et favorise la modernisation du système de gouvernance et des capacités de gouvernance d'une certaine ville.
III. Principes de conception
Les principes de conception fournissent une base solide pour les décisions en matière d'architecture et de planification, l'élaboration de politiques, de procédures et de normes et la résolution de situations conflictuelles.
Il n’est pas nécessaire que les principes soient nombreux, ils doivent être orientés vers l’avenir et doivent être reconnus, soutenus et respectés par les cadres supérieurs des parties concernées. Trop de principes réduisent la flexibilité de l'architecture et de nombreuses organisations ont tendance à définir uniquement des principes de niveau supérieur, en limitant souvent leur nombre entre 4 et 10.
Les principes de conception pour la construction d’un centre de gouvernance intelligente des assurances sociales d’une ville comprennent :
1. Adhérer à une approche axée sur les personnes
Adhérez à l'idée de développement centré sur les personnes, suivez de près les besoins de service et l'expérience de service des gens, et prenez la satisfaction, l'insatisfaction, l'insatisfaction et l'insatisfaction des gens comme objectifs de travail grâce à la construction d'un centre de gouvernance intelligente de l'assurance sociale dans une certaine ville. , nous soutenons la construction d'un système de service public d'assurance sociale de masse satisfaisant dans une certaine ville.
2. Adhérer au leadership en matière d’innovation
Utilisation complète des technologies dominantes telles que l'Internet, le big data, l'intelligence, l'Internet des objets, la 5G, l'IA et le SIG, et motivée par la réforme des mécanismes, l'innovation des modèles, la transmission des données et l'autonomisation technologique, construire un centre de gouvernance intelligente de l'assurance sociale et promouvoir la modernisation de l'assurance sociale dans une certaine ville Modernisation des systèmes de gouvernance et des capacités de gouvernance.
3. Adhérer à l’orientation du problème
Nous nous concentrerons sur la résolution des points clés, difficiles et douloureux qui limitent le développement de l'assurance sociale dans une certaine ville, en mettant l'accent sur la construction d'un centre de gouvernance intelligent de l'assurance sociale dans une certaine ville, identifierons les avancées, améliorerons la pertinence, mettrons en évidence la situation globale. , et améliorer la standardisation, la spécialisation et la collaboration des services. Le niveau de gestion et de gestion doit être intelligent, précis et scientifique.
4. Adhérer à la coordination globale
La construction d'un centre de gouvernance intelligente de l'assurance sociale d'une ville doit se concentrer sur le travail global du système d'assurance sociale d'une ville, en commençant par les multiples dimensions de la connexion du système, du soutien politique, des liens entre les services, de la collaboration commerciale et du partage de données, pour créer des activités et des technologies. interne, externe et horizontal Un nouveau système de gouvernance intelligent pour l'assurance sociale qui s'intègre verticalement, en ligne et hors ligne a formé une nouvelle force motrice pour soutenir le développement de haute qualité de l'assurance sociale dans la nouvelle ère.
5. Adhérer à la sécurité et à la contrôlabilité
La construction d'un centre de gouvernance intelligente de l'assurance sociale dans une certaine ville doit gérer correctement la relation entre le développement innovant et la sécurité, renforcer la sécurité de l'information et la protection de la vie privée, améliorer le système de prévention et de contrôle des risques d'assurance sociale à plusieurs niveaux et consolider des systèmes fiables et disponibles. et une capacité de support d'information durable.
6. Adhérer à la mise en œuvre scientifique
Selon le plan global de planification et de construction du centre intelligent d'assurance sociale d'une certaine ville, clarifier les limites, les relations et les priorités entre la construction du centre de gouvernance intelligente de l'assurance sociale et la construction globale du projet d'assurance financière, utiliser pleinement l'existant L'infrastructure d'information et les systèmes d'application, coordonner la planification et la mise en œuvre minutieuse doivent se concentrer sur la mise en œuvre, l'exploitation et l'évaluation afin de garantir que l'efficacité de la construction d'un centre de gouvernance intelligente de l'assurance sociale dans une certaine ville puisse être pleinement libérée.
IV. Le but de construire
L'objectif de construction fait référence à l'objectif ultime de la construction intégrée, à l'effet obtenu et à la raison pour laquelle il est atteint. Il s'agit généralement d'une politique conceptuelle. Les idées et les visions proposées par les hauts dirigeants des parties concernées constituent les objectifs de construction.
L'objectif de construction d'un centre de gouvernance intelligente de l'assurance sociale d'une ville est défini comme : basé sur la mission fonctionnelle et l'orientation de développement du secteur de l'assurance sociale dans la nouvelle ère, conformément aux exigences de la réforme de « délégation, réglementation et service » et conformément avec la nouvelle théorie de la gestion publique, l'utilisation globale d'Internet, du big data, de l'intelligence, de la pensée moderne et des technologies grand public telles que l'Internet des objets, la 5G, l'IA et les SIG, l'accent est mis sur la gouvernance d'entreprise, la gouvernance globale et la gouvernance du big data. D'ici une certaine année, un centre de gouvernance intelligente de l'assurance sociale d'une ville, panconnecté, ouvert, intégré, lié, intelligent, en ligne, visible et sécurisé, sera initialement construit pour améliorer de manière globale les capacités de service, les capacités de supervision intelligente et la gestion des risques. du système d'assurance sociale d'une ville. Les capacités de prévention et de contrôle, les capacités d'analyse de prise de décision et les capacités de liaison mondiale favorisent la construction du premier système de gouvernance intelligent d'assurance sociale du pays, d'un système intelligent de contrôle des risques, d'un système d'entreprise connecté intelligent et d'un système intelligent de prestations de masse. , établir une nouvelle référence pour le secteur de la gouvernance urbaine et créer un nouveau paradigme national pour la gouvernance de l'assurance sociale, donner un nouvel élan pour promouvoir le développement de haute qualité de l'assurance sociale dans une certaine ville dans la nouvelle ère et contribuer à améliorer les connaissances scientifiques, niveau raffiné et intelligent de la gouvernance d'une certaine ville.
V. cadre global
Un framework est une structure conceptuelle utilisée pour planifier, développer, mettre en œuvre, gérer et maintenir une architecture. Le framework est essentiel à la conception de l'architecture. Le cadre sépare raisonnablement l'attention du contenu métier de l'organisation et utilise les rôles comme point de départ pour afficher le contenu des activités de l'organisation sous différentes perspectives. Le cadre fournit une feuille de route pour la conception architecturale, guidant et aidant la conception architecturale à atteindre l’objectif de construire une architecture avancée, efficace et applicable.
Le cadre de référence global de l’architecture des systèmes d’information se compose de quatre parties :
1. système stratégique
Le système stratégique fait référence aux activités de gestion et aux systèmes assistés par ordinateur liés à la formulation de stratégies et à la prise de décision de haut niveau dans une organisation.
Dans l'architecture du système d'information (ISA), le système stratégique se compose de deux parties
1||| L'un est un système d'aide à la décision de haut niveau basé sur les technologies de l'information.
2||| Le second est le système de planification stratégique de l'organisation
L'établissement d'un système stratégique en ISA a deux significations :
1||| Premièrement, il représente la capacité d'aide à la décision du système d'information auprès des dirigeants de l'organisation ;
2||| Deuxièmement, il représente l'impact et les exigences de la planification stratégique organisationnelle sur la construction du système d'information.
La planification stratégique organisationnelle est généralement divisée en deux types : la planification à long terme et la planification à court terme sont relativement stables, comme l'ajustement de la structure des produits, etc.; -planification à terme, et est relativement facile à adapter à l'environnement et aux opérations organisationnelles et aux changements, tels que la décision sur le type de nouveau produit, etc.
2. Système d'affaires
Le système d'entreprise fait référence au système composé de diverses parties (matérielles, énergie, informations et personnes) de l'organisation qui remplissent certaines fonctions commerciales.
Il existe de nombreux systèmes commerciaux dans une organisation, tels que les systèmes de production, les systèmes de vente, les systèmes d'achat, les systèmes de gestion du personnel, les systèmes comptables, etc. Chaque système commercial comprend certains processus commerciaux pour remplir les fonctions du système commercial, par exemple les systèmes comptables. incluent souvent les comptes créditeurs, les comptes créditeurs et les systèmes de collecte des comptes, de facturation, d'audit et d'autres processus commerciaux.
Les processus métier peuvent être décomposés en une série d'activités commerciales logiquement interdépendantes. Les activités commerciales sont réalisées en séquence. Chaque activité commerciale a un rôle à jouer et traite les données associées. Lorsque les organisations ajustent leurs stratégies de développement pour mieux s'adapter aux environnements de développement internes et externes (comme le déploiement et l'utilisation de systèmes d'information), elles procèdent souvent à une réorganisation des processus métier. La réorganisation des processus métier est centrée sur les processus métier, brisant la division du travail entre les départements fonctionnels de l'organisation et améliorant ou réorganisant les processus métier existants afin d'obtenir des améliorations significatives de l'efficacité de la production, des coûts, de la qualité, des délais de livraison, etc., et d'améliorer la compétitivité de l’organisation.
Le rôle du système métier dans ISA est :
Modéliser les systèmes d'affaires, les processus d'affaires et les activités d'affaires existants de l'organisation et, sous la direction de la stratégie de l'organisation, utiliser les principes et les méthodes de réingénierie des processus d'affaires (BPR) pour optimiser et réorganiser les processus d'affaires et exécuter les domaines d'affaires restructurés, les activités commerciales. les processus et les activités commerciales sont modélisés pour déterminer des données relativement stables. Sur la base de ces données relativement stables, le développement de systèmes d'application organisationnels et la construction d'une infrastructure d'information sont effectués.
3. système opérateur
Le système d'application est le système logiciel d'application, qui fait référence à la partie logicielle d'application du système d'information.
Pour les logiciels d'application (systèmes d'application) dans les systèmes d'information organisationnels, les fonctions réalisées peuvent généralement inclure :
(1) Système de traitement des transactions (TPS)
(2) Système d'information de gestion (SIG)
1||| Sous-système de gestion des ventes
2||| Sous-système de gestion des achats
3||| Sous-système de gestion des stocks
4||| sous-système de gestion des transports
5||| Sous-système de gestion financière
6||| Sous-système de gestion du personnel, etc.
(3) Système d'aide à la décision (DSS)
(4) Système expert (ES)
(5) Système de bureautique (OAS)
(6) Conception assistée par ordinateur/conception de processus assistée par ordinateur/fabrication assistée par ordinateur, système d'exécution de fabrication (MES), etc.
Quel que soit le niveau auquel se trouve le système d'application, d'un point de vue architectural, il contient deux composants de base : la partie implémentation des fonctions internes et la partie interface externe. Ces deux parties de base sont constituées de composants plus spécifiques et des relations entre eux. La partie interface est la partie du système d'application qui change relativement fréquemment, principalement en raison de changements dans les exigences des utilisateurs en matière de forme d'interface. Dans la partie mise en œuvre des fonctions, relativement parlant, les données traitées changent moins, tandis que l'algorithme et la structure de contrôle du programme changent davantage, principalement en raison de changements dans les exigences fonctionnelles de l'utilisateur pour le système d'application et de changements dans les exigences de forme d'interface.
4. infrastructure d'information
L'infrastructure d'information organisationnelle fait référence à la construction d'un environnement composé d'équipements d'information, de réseaux de communication, de bases de données, de logiciels système et de logiciels de support basés sur les activités actuelles de l'organisation et les tendances et exigences de développement prévisibles en matière de collecte, de traitement, de stockage et de circulation de l'information.
L'infrastructure d'information organisationnelle est divisée en trois parties :
1||| infrastructure technique
Il comprend l'équipement informatique, le réseau, les logiciels système, les logiciels de support, les protocoles d'échange de données, etc.
2||| installations de ressources d'information
Il se compose des données et des informations elles-mêmes, des formulaires et normes d'échange de données, des méthodes de traitement de l'information, etc.
3||| Infrastructure de gestion
Il fait référence à la structure organisationnelle du département des systèmes d'information de l'organisation, à la division du travail entre les gestionnaires des installations de ressources informationnelles, aux méthodes de gestion et aux règles et réglementations de l'infrastructure d'information de l'organisation, etc.
En raison du développement de la technologie et des changements dans les exigences des systèmes organisationnels, l'infrastructure technique est confrontée à de nombreux facteurs changeants dans la conception, le développement et la maintenance des systèmes d'information, et en raison de la diversité des technologies de mise en œuvre, il existe de multiples façons d'atteindre la même fonction. Les installations de ressources d'information changent relativement peu dans la construction du système. Quelles que soient les fonctions remplies par l'organisation ou la manière dont les processus métier changent, les données et les informations doivent être traitées, et la plupart d'entre elles ne changent pas avec les changements métier. Il y a relativement de nombreux changements dans l'infrastructure de gestion, car les organisations doivent s'adapter aux changements de l'environnement et répondre aux besoins de la concurrence, en particulier au stade de la transformation de la Chine et de sa transition vers une économie de marché, ainsi que de l'introduction ou des changements de politique économique. , les réformes du modèle d'entreprise, etc. auront un grand impact sur Cela conduit à des changements dans les règles et réglementations organisationnelles, les méthodes de gestion, la division du travail du personnel et la structure organisationnelle. Ce qui précède n'est qu'une description globale de la stabilité relative et du changement relatif des trois composants de base de l'infrastructure de l'information. Il existe des parties relativement stables et des parties relativement volatiles dans l'infrastructure technique, les installations de ressources d'information et l'infrastructure de gestion.
5. Le système stratégique se situe au premier niveau et ses fonctions sont similaires à celles du niveau de gestion stratégique. D'une part, il met en avant les exigences d'innovation, de reconstruction et de réingénierie des systèmes d'entreprise, et d'autre part, il met en avant l'intégration. exigences pour les systèmes d’application. Le système commercial et le système d'application se trouvent sur la deuxième couche et appartiennent à la couche de gestion tactique. Le système commercial gère et contrôle l'organisation grâce à l'optimisation des processus de traitement commercial, et le système d'application fournit les moyens d'utiliser efficacement les informations et les données. ce contrôle, et améliorer l’efficacité opérationnelle de l’organisation. L'infrastructure de l'information se situe au troisième niveau et constitue l'élément de base permettant à l'organisation de réaliser l'informatisation et la numérisation. Elle équivaut à la couche de gestion des opérations. Elle fournit le calcul, la transmission, les données et autres supports pour les systèmes d'application et les systèmes stratégiques. Dans le même temps, il fournit également une plate-forme de soutien technique et de gestion efficace, flexible et réactive pour la réorganisation du système commercial de l'organisation.
二、 structure du système
I. Définition de l'architecture
i. Les définitions courantes incluent principalement :
①L'architecture du système d'information d'un logiciel ou d'un système informatique est une (ou plusieurs) structures du système, et la structure se compose d'éléments logiciels, d'attributs visibles de l'extérieur des éléments et des relations entre eux.
②L'architecture du système d'information fournit une abstraction de haut niveau de la structure, du comportement et des propriétés du système logiciel, consistant en une description des éléments qui constituent le système, l'interaction de ces éléments, les modèles qui guident l'intégration des éléments, et les contraintes de ces modèles.
③L'architecture du système d'information fait référence à l'organisation de base d'un système, qui s'incarne dans les composants du système, la relation entre les composants et la relation entre les composants et l'environnement, ainsi que les principes qui guident sa conception et son évolution.
Les deux premières définitions sont décrites selon le niveau abstrait « élément-structure-architecture », et leurs significations fondamentales sont les mêmes. "Élément logiciel" dans cette définition fait référence à une abstraction plus générale que "composant", et les "propriétés visibles de l'extérieur" d'un élément font référence aux hypothèses faites par d'autres éléments sur l'élément, telles que les services qu'il fournit, les caractéristiques de performance, etc.
ii. Cela peut être compris sous les 6 aspects suivants :
1. L'architecture est une abstraction d'un système qui reflète cette abstraction en décrivant les éléments, leurs propriétés visibles de l'extérieur et les relations entre les éléments. Par conséquent, les détails liés uniquement à la mise en œuvre interne du béton ne font pas partie de l'architecture, c'est-à-dire que la définition met l'accent sur les propriétés « visibles de l'extérieur » de l'élément.
2. L'architecture est composée de plusieurs structures. La structure décrit la relation entre les éléments d'un point de vue fonctionnel. La structure spécifique transmet des informations sur certains aspects de l'architecture, mais les structures individuelles ne peuvent généralement pas représenter une architecture de système d'information à grande échelle.
3. Tout logiciel a une architecture, mais il n’existe pas nécessairement de document spécifique décrivant l’architecture. Autrement dit, l’architecture peut exister indépendamment de la description de l’architecture. Si un document est obsolète, il ne reflète pas le schéma.
4. L'ensemble des éléments et leurs comportements constituent le contenu de l'architecture. De quels éléments le système est-il constitué, quelles fonctions ont ces éléments (visibles de l’extérieur) et comment ces éléments se connectent-ils et interagissent-ils les uns avec les autres ? Autrement dit, l'abstraction est réalisée sous deux aspects : dans l'aspect statique, en se concentrant sur la structure globale (macro) à grande granularité du système (telle que la superposition) ; dans l'aspect dynamique, en se concentrant sur les caractéristiques communes des comportements clés au sein du système ; système.
5. L'architecture est « fondamentale » : elle implique généralement des solutions communes à divers problèmes répétitifs clés (réutilisabilité), ainsi que des décisions importantes ayant des conséquences considérables (sensibles à l'architecture) dans la conception du système (une fois mises en œuvre, les modifications coûtent cher).
6. L'architecture implique une « prise de décision », c'est-à-dire que l'architecture est le résultat d'une conception et d'une prise de décision par les architectes sur la base d'exigences fonctionnelles et non fonctionnelles clés (attributs de qualité et contraintes liées au projet).
iii. L’architecture du système d’information est très importante pour les organisations, cela se reflète principalement dans :
① Facteurs affectant l'architecture.
Les parties prenantes du projet du système logiciel (clients, utilisateurs, chefs de projet, programmeurs, testeurs, spécialistes du marketing, etc.) ont des exigences différentes pour le système logiciel, l'organisation de développement (équipe de projet) a des structures de connaissances du personnel différentes et la qualité du concepteurs d'architecture Des aspects tels que l'expérience et l'environnement technique actuel sont autant de facteurs qui affectent l'architecture. Ces facteurs affectent l'architecture en influençant les décisions de l'architecte à travers des exigences fonctionnelles, des exigences non fonctionnelles, des contraintes et des exigences contradictoires.
② L'architecture a un effet contre-productif sur les facteurs ci-dessus, par exemple en affectant la structure de l'organisation de développement.
L'architecture décrit la structure globale (macro) globale du système, de sorte que le travail peut être divisé en fonction de l'architecture, et le groupe de projet est divisé en plusieurs groupes de travail, rendant ainsi le développement ordonné et affectant les objectifs de l'organisation de développement ; c'est-à-dire qu'une architecture réussie offre à l'organisation de développement De nouvelles opportunités commerciales ont été créées, grâce à la démontrabilité du système, à la réutilisabilité de l'architecture et à l'amélioration de l'expérience de développement de l'équipe. influencer les exigences des clients pour le prochain système.
II. Classement architectural
i. Classification
1. architecture physique
L'architecture physique ne consiste pas à considérer le travail réel et l'architecture fonctionnelle de chaque partie du système, mais seulement à examiner de manière abstraite la distribution spatiale de son système matériel.
Selon la relation topologique des systèmes d'information dans l'espace, ils sont généralement divisés en
(1) Architecture centralisée
L'architecture centralisée fait référence à l'allocation centralisée des ressources physiques dans l'espace.
Le premier système autonome était l'architecture centralisée la plus typique, qui concentrait les logiciels, les données et les principaux périphériques externes dans un système informatique. Un système multi-utilisateurs composé de plusieurs utilisateurs répartis dans différents emplacements partageant des ressources via des terminaux est également une architecture centralisée. Les avantages d'une architecture centralisée sont des ressources centralisées, une gestion facile et une utilisation élevée des ressources. Cependant, à mesure que l'échelle du système s'étend et que le système devient de plus en plus complexe, il devient de plus en plus difficile de maintenir et de gérer l'architecture centralisée, qui n'est souvent pas propice à mobiliser l'enthousiasme, l'initiative et le sentiment de participation des utilisateurs dans le processus de construction du système d'information. De plus, une trop grande concentration des ressources fragilise le système. Une fois les ressources de base anormales, il est facile de paralyser l'ensemble du système.
(2) Architecture distribuée
Les systèmes distribués font référence à la connexion de matériel informatique, de logiciels, de données et d'autres ressources situées à différents endroits via des réseaux informatiques pour parvenir au partage de ressources à différents endroits.
Les principales caractéristiques de l'architecture distribuée sont les suivantes : les ressources peuvent être configurées en fonction des exigences de l'application, améliorant ainsi l'adaptabilité du système d'information aux besoins des utilisateurs et aux changements de l'environnement externe. Le système est facile à étendre et offre une bonne sécurité. n’affecte pas l’ensemble du système. Cependant, comme les ressources sont dispersées et appartiennent à divers sous-systèmes, les normes de gestion du système sont difficiles à unifier et la coordination est difficile, ce qui n'est pas propice à la planification et à la gestion de l'ensemble des ressources.
L'architecture distribuée peut être divisée en
1||| Systèmes distribués généraux
Le serveur fournit uniquement des logiciels, des services informatiques et de données, et chaque système informatique accède aux données et aux fichiers de programme sur le serveur selon les autorisations spécifiées.
2||| architecture client/serveur
Divisé en deux catégories : client et serveur. Les serveurs incluent les serveurs de fichiers, les serveurs de bases de données, les serveurs d'impression, etc. ; les autres systèmes informatiques sur les nœuds du réseau sont appelés clients. L'utilisateur adresse une demande de service au serveur via le client, et le serveur fournit des informations traitées à l'utilisateur en fonction de la demande.
2. architecture logique
L'architecture logique fait référence à la synthèse de divers sous-systèmes fonctionnels d'un système d'information.
L'architecture logique d'un système d'information est son cadre fonctionnel complexe et conceptuel.
Pour le système d'information de gestion d'une organisation de production, il est divisé du point de vue des fonctions de gestion, y compris les sous-systèmes de gestion de l'information avec des fonctions principales telles que les achats, la production, les ventes, les ressources humaines et les finances. Un système d'information complet prend en charge divers sous-systèmes fonctionnels d'une organisation, permettant à chaque sous-système de remplir des fonctions à différents niveaux tels que le traitement des transactions, la gestion des opérations, le contrôle de gestion et la planification stratégique. Chaque sous-système peut avoir ses propres fichiers dédiés, tout en partageant différents types de données dans le système d'information et en réalisant la connexion entre les sous-systèmes via des interfaces standardisées telles que le réseau et les données. De même, chaque sous-système possède son propre programme d'application et peut également appeler des programmes publics qui remplissent diverses fonctions et modèles dans la bibliothèque de modèles du système.
ii. Systeme d'intégration
1. intégration horizontale
L'intégration horizontale fait référence à l'intégration de diverses fonctions et besoins au même niveau, par exemple, l'intégration des sous-systèmes de personnel et de paie de la couche de contrôle des opérations pour intégrer le traitement commercial de base.
2. intégration verticale
L'intégration verticale fait référence à l'organisation des entreprises à tous les niveaux avec certaines fonctions et exigences. Cette intégration communique les connexions entre les supérieurs et les subordonnés. Par exemple, le système comptable d'une branche de l'organisation et le système comptable de l'organisation globale sont tous intégrés. en commun où un processus de traitement intégré peut être formé.
3. Intégration verticale et horizontale
L'intégration verticale et horizontale fait référence à la synthèse principalement des deux aspects du modèle d'information et du modèle de traitement pour parvenir à un partage centralisé des informations, rendre le programme aussi modulaire que possible, prêter attention à l'extraction des parties communes et établir un système de données commun et des informations intégrées. système de traitement.
III. Principes généraux
L'architecture du système d'information fait référence à l'établissement d'un système ouvert multidimensionnel, hiérarchique, intégré et ouvert, basé sur une prise en compte globale de la stratégie, des activités, de l'organisation, de la gestion et de la technologie de l'organisation, en se concentrant sur les composants. et les relations entre les composants du système d'information de l'organisation. Il adopte une architecture systématique et offre aux organisations un certain degré de flexibilité dans les systèmes d'information et des méthodes de mise en œuvre flexibles et efficaces.
L'architecture se compose de deux parties fondamentales : les composants et les relations entre les composants.
Dans le système d'information, des composants et des relations relativement stables sont extraits, et avec le soutien des parties relativement stables, les parties relativement changeantes sont réorganisées pour répondre aux exigences changeantes, afin que le système d'information puisse répondre aux changements de l'environnement. Le degré d'adaptabilité, c'est-à-dire un certain degré de flexibilité, est le principe de base de l'architecture du système d'information.
IV. Modèles architecturaux courants
i. Mode d'application autonome
Le système autonome est la structure logicielle la plus simple, qui fait référence à une exécution sur une machine physique. application autonome. Bien entendu, l’application peut être multi-processus ou multi-thread.
Un grand système logiciel doit avoir de nombreux sous-systèmes intégrés et exécutés sur une interface graphique et peut fonctionner sur plusieurs plates-formes, telles que Linux, UNIX, Windows, etc. Des produits dans le domaine professionnel, tels que CATIA, Pro/Engineer, AutoCAD dans le domaine de la conception assistée par ordinateur, ainsi que Photoshop, CorelDRAW, etc., bien connus de tous dans le domaine du traitement et de l'édition d'images.
Un domaine d'application plus important de la conception d'architecture logicielle est le domaine des systèmes d'information, c'est-à-dire les systèmes logiciels dont le traitement des données (stockage, transmission, sécurité, requête, affichage, etc.) constitue le noyau.
ii. mode client/serveur
Le modèle Client/Serveur est le plus répandu dans les systèmes d’information. Il peut être compris comme la structure du programme « envoi » et « réflexion » de la programmation IPC de communication inter-processus basée sur le protocole TCP/IP, c'est-à-dire que le client envoie un paquet TCP ou UDP au serveur, puis le serveur envoie un paquet TCP au client en fonction de la demande reçue ou du paquet UDP.
Quatre architectures communes
1. C/S à deux couches
Le C/S à deux couches est essentiellement l'incarnation du système d'application de la structure client/serveur IPC. C'est le mode "gros client". Dans la conception actuelle du système, ce type de structure fait principalement référence au client frontal et au système de gestion de base de données back-end.
L'interface frontale et le modèle de service de base de données back-end sont les plus typiques. Les outils de développement front-end de base de données (tels que PowerBuilder, Delphi, VB), etc. sont tous des outils logiciels utilisés pour créer spécifiquement cette structure.
2. Structure C/S et B/S à trois couches
En plus des opérations d'accès à la base de données, l'interface frontale envoie des requêtes au back-end, et de nombreuses autres logiques métier doivent être traitées. L'interface front-end du C/S à trois couches et le service back-end doivent communiquer (y compris les requêtes, les réponses, les appels de fonction à distance, etc.) via un protocole (auto-développé ou utilisant un protocole standard)
Incluez généralement les éléments suivants :
1||| Basé sur le protocole TCP/IP, il est développé directement sur la base de l'API Socket sous-jacente. Cela ne convient généralement qu'aux petits systèmes avec des exigences et des fonctions simples.
2||| Tout d'abord, un mécanisme de message personnalisé est établi (encapsulant la programmation TCP/IP et Socket), puis la communication entre le premier plan et l'arrière-plan est réalisée via ce mécanisme de message. Le mécanisme de message peut être basé sur une définition XML ou de flux d'octets (Stream). Bien qu'il s'agisse d'une communication personnalisée, elle peut créer des systèmes distribués à grande échelle sur cette base.
3||| Basé sur la programmation RPC.
4||| Basé sur le protocole CORBA/IOP.
5||| Basé sur Java RMI.
6||| Basé sur JMS J2EE.
7||| Basé sur le protocole HTTP, tel que l'échange d'informations entre le navigateur et le serveur Web. Ce qu'il faut souligner ici, c'est que HTTP n'est pas une structure orientée objet. Les données d'application orientées objet seront d'abord aplaties puis transmises.
Le modèle d'application le plus typique basé sur la structure C/S à trois niveaux est le modèle B/S (Navigateur/Serveur, navigateur/serveur).
Un navigateur Web est une application client utilisée pour la récupération et l'affichage de documents et est connectée au serveur Web via le protocole de transfert hypertexte HTTP (Hyper Text Transfer Protocol). Dans ce mode, le navigateur universel et peu coûteux permet d'économiser les coûts de développement et de maintenance du logiciel client en mode C/S à structure à deux couches. Ces navigateurs sont familiers à tout le monde, notamment MSInternet Explorer, Mozilla FireFox, etc.
Un serveur Web fait référence à un programme qui réside sur un certain type d'ordinateur sur Internet. Lorsqu'un navigateur Web (client) se connecte au serveur et demande un fichier ou des données, le serveur traitera la demande et enverra le fichier ou les données au navigateur, et les informations qui l'accompagnent indiqueront au navigateur comment afficher le fichier (c'est-à-dire le fichier taper). Le serveur utilise HTTP pour l'échange d'informations et peut être appelé serveur HTTP.
Les utilisateurs effectuent quotidiennement diverses opérations sur le navigateur Web. La plupart de ces opérations sont en réalité effectuées sur le serveur Web. Le navigateur Web envoie simplement les requêtes des utilisateurs au serveur Web au format du protocole HTTP ou renvoie les résultats de la requête. Bien entendu, les périphériques matériels hébergeant le navigateur Web et le serveur peuvent être deux ordinateurs situés à des milliers de kilomètres l'un de l'autre sur le réseau Web.
Il convient de souligner que la communication entre le navigateur en mode B/S et le serveur Web est toujours TCP/IP, mais le format du protocole est standardisé au niveau de la couche application. En fait, B/S est une structure C/S à trois couches qui adopte une interface client universelle.
3. Structure C/S multicouche
La structure C/S multicouche fait généralement référence à une structure comportant plus de trois couches. En pratique, il s'agit principalement de quatre couches, à savoir l'interface frontale (comme le navigateur), le serveur Web, le middleware (ou serveur d'applications) et le serveur de base de données. .
La couche middleware complète principalement les aspects de travail suivants :
1||| Améliorez l’évolutivité du système et augmentez les performances de simultanéité.
2||| La couche middleware/application est spécialisée dans le transfert de requêtes ou dans certains traitements liés à la logique d'application. Le middleware doté de cette fonction peut généralement être utilisé comme proxy de requête ou comme serveur d'applications. Ce rôle de middleware est couramment utilisé dans la structure multicouche de J2EE. Par exemple, les conteneurs EJB fournis par BEA WebLogic, IBM WebSphere, etc. sont des composants de technologie middleware spécialement conçus pour gérer une logique organisationnelle complexe.
3||| Augmentez la sécurité des données.
4. Modèle Modèle-Vue-Contrôleur
Model-View-Controller (MVC) est en fait un modèle standardisé couramment utilisé de la structure C/S multicouche mentionnée ci-dessus.
Dans l'architecture J2EE, la couche de présentation View fait référence à la couche navigateur, qui est utilisée pour afficher graphiquement les résultats de la requête ; le contrôleur fait référence à la couche serveur Web, et la couche modèle Model fait référence à la partie implémentation de la logique d'application et persistance des données. Les frameworks de développement J2EE actuellement populaires, tels que JSF, Struts, Spring, Hibernate, etc., et leurs combinaisons, telles que Struts Spring Hibernate (SSH), JSP Spring Hibernate, etc., sont tous orientés vers l'architecture MVC. De plus, des langages tels que PHP, Perl et MFC ont tous des modèles d'implémentation MVC.
MVC nécessite principalement que le code de la couche de présentation (vue) et de la couche de données (modèle) soit séparé, et que le contrôleur puisse être utilisé pour la connexion Différents modèles et vues pour répondre aux besoins des utilisateurs. Du point de vue d'un système en couches, la structure hiérarchique de MVC, ses contrôleurs et ses vues se situent généralement au niveau du serveur Web. Selon que le « modèle » sépare le traitement de la logique métier en un traitement de service distinct, MVC peut être divisé en trois ou quatre couches. système de niveaux.
iii. Modèle d'architecture orientée services (SOA)
1. architecture orientée services
Si deux systèmes d’application à structure C/S multicouche doivent communiquer entre eux, alors une architecture orientée services sera produite. (Architecture Orientée Services,SOA)
Un système d'application indépendant signifie que quel que soit le nombre de couches de services qui composent le système d'application, si une couche est supprimée, il ne fonctionnera pas correctement. Il peut s'agir d'une application indépendante qui fournit des fonctions complètes au monde extérieur.
Utilisez un middleware pour répondre aux exigences SOA, telles que le middleware de messages, le middleware de transactions, etc.
En pratique, l'architecture orientée services peut être spécifiquement divisée en intégration de systèmes hétérogènes, agrégation de systèmes homogènes, architecture fédérée, etc.
2. Service Web
L'architecture orientée services se reflète entre les applications Web et devient un service Web, c'est-à-dire que deux applications Internet peuvent s'ouvrir mutuellement certains « services » internes (ces services peuvent être compris comme des modules fonctionnels, des fonctions, des processus, etc.). Actuellement, les protocoles utilisés par les applications Web pour ouvrir leurs services internes au monde extérieur incluent principalement SOAP et WSDL. Pour des informations spécifiques, veuillez vous référer aux standards concernés.
Le service Web est l'un des modèles d'application les plus typiques et les plus populaires de l'architecture orientée services.
3. L'essence de l'architecture orientée services
L'essence est le mécanisme de message ou l'appel de procédure à distance (RPC).
iv. Bus d’échange de données organisationnelles
C'est-à-dire un canal commun pour l'échange d'informations entre différentes applications organisationnelles.
Cette structure est couramment utilisée dans l'échange d'informations entre différents systèmes d'application dans les grandes organisations. En Chine, cette structure est principalement utilisée par les organisations ayant un degré élevé d'informatisation et de numérisation.
En ce qui concerne le bus de données lui-même, son essence doit être un système logiciel appelé connecteur (Connector). Il peut être construit sur la base d'un middleware (tel qu'un middleware de messages ou un middleware de transactions), ou peut être développé principalement sur la base du protocole CORBA/IOP. La fonction consiste à recevoir et distribuer des données, des demandes ou des réponses selon des configurations prédéfinies ou des définitions d'en-tête de message.
Le bus d'échange de données au niveau de l'organisation peut avoir simultanément les fonctions de transactions en temps réel et de transmission de gros volumes de données. Cependant, dans la pratique, les bus d'échange de données d'entreprise matures sont principalement conçus pour les transactions en temps réel et la demande de fiabilité. La transmission de gros volumes de données nécessite souvent une conception individuelle. Si CORBA est utilisé comme protocole de communication, le bus de commutation est l'Object Request Broker (ORB), également appelé « Système d'agent ».
V. planification et conception
i. Évolution de l'architecture intégrée
1. Basé sur la fonction d'application comme architecture de ligne principale
Pour les petites et moyennes entreprises industrielles ou les entreprises industrielles au stade initial de l'informatisation et de la numérisation, l'objectif principal de la construction de l'intégration des systèmes d'information est d'améliorer l'efficacité du travail et de réduire les risques commerciaux. Dans le même temps, en raison des lacunes de leurs propres équipes et talents d'informatisation, ainsi que du manque de compréhension approfondie de l'informatisation et de la numérisation dans leurs systèmes d'entreprise, les entreprises adoptent souvent la « doctrine de l'emprunt » pour construire leurs systèmes d'information. c'est-à-dire acheter directement des ensembles complets de logiciels d'application matures et créer une infrastructure pertinente basée sur les exigences opérationnelles du logiciel d'application.
À ce stade du développement de l’entreprise, l’accent est mis sur la division détaillée des fonctions organisationnelles et sur l’introduction des meilleures pratiques du secteur. Par conséquent, la construction de l'information d'une organisation repose souvent sur des départements ou des fonctions. L'accent est mis sur les fonctions logicielles du système d'information, telles que la gestion financière, la gestion des équipements, la gestion des actifs, etc., afin de réaliser le système d'information. planification, conception, déploiement et exploitation. Dans le même temps, grâce au déploiement d’ensembles complets de logiciels, elle peut renforcer son propre niveau de gestion ou de processus. L’intégration et la fusion entre logiciels d’application ou modules s’effectuent principalement via l’interface logicielle du système. Les entreprises adoptent souvent une planification unifiée et une mise en œuvre étape par étape, c'est-à-dire quelles fonctions sont nécessaires et quelles fonctions sont déployées en ligne.
2. Basé sur les capacités de la plate-forme comme architecture principale
L'architecture d'intégration de systèmes avec les capacités de plate-forme comme ligne principale est issue du développement de la technologie du cloud computing et de la maturité progressive des services cloud. Son concept principal est de transformer chaque composant du système d'information « de style silo » en une méthode de construction « aplatie », comprenant la collecte de données aplatie, la transmission réseau aplatie, le middleware d'application aplati et le développement d'applications aplatis, etc., et via des interfaces standardisées. et les nouvelles technologies de l'information, l'élasticité et l'agilité des systèmes d'information peuvent être renforcées. Les applications du système d'information prises en charge par l'architecture de la plate-forme peuvent être combinées avec une construction spéciale ou une configuration indépendante (ou un développement à petite échelle) pour obtenir rapidement les fonctions du système d'application requises par l'entreprise, comblant ainsi les lacunes des éditeurs de logiciels complets en matière de personnalisation logicielle personnalisée.
Dans la pratique spécifique, la transformation architecturale des entreprises est un processus continu. Les entreprises continueront à utiliser le modèle de déploiement logiciel complet pour les applications à haute maturité et peu de changements, et à adopter une architecture de plate-forme pour les applications nouvelles et changeantes, et à terme maintenir la coexistence des deux architectures (également connue sous le nom d'informatique à double état, c'est-à-dire état sensible et intégration en régime permanent) ou le tout converti en architecture de plateforme.
3. Internet comme architecture principale
Lorsqu'une entreprise passe au stade de la chaîne industrielle ou de la chaîne écologique, ou devient une entreprise de groupe complexe et diversifiée, elle commence à rechercher un transfert ou une transition vers une architecture d'intégration de systèmes avec Internet comme ligne principale.
Une architecture d'intégration système avec Internet comme axe principal, privilégiant l'application maximale (microservices) de chaque fonction du système d'information
L'architecture d'intégration de systèmes avec Internet comme ligne principale intègre et applique davantage de technologies de l'information de nouvelle génération et leurs innovations d'application.
4. L'adoption de différentes architectures principales dépend essentiellement du degré de développement commercial de l'entreprise, qui se reflète dans la maturité de la transformation numérique de l'entreprise.
ii. Méthode de développement d'architecture TOGAF
TOGAF (The Open Group Architecture Framework) est une norme de cadre d'architecture d'entreprise ouverte qui fournit des garanties de cohérence pour les normes, les méthodologies et la communication entre les professionnels de l'architecture d'entreprise.
Les bases de TOGAF
TOGAF est développé par l'organisation internationale The Open Group.
L'organisation a commencé à développer des normes d'architecture système en 1993 en réponse aux exigences des clients et a publié le cadre d'architecture TOGAF en 1995. Le fondement de TOGAF est l'architecture technique pour la gestion de l'information (TAFIM) du département américain de la Défense. Il est basé sur un modèle de processus itératif qui prend en charge les meilleures pratiques et un ensemble réutilisable d'actifs architecturaux existants. Il peut être utilisé pour concevoir, évaluer et établir une architecture d’entreprise appropriée. À l’échelle internationale, TOGAF s’est avéré capable de construire une architecture informatique d’entreprise de manière flexible et efficace.
Le cadre est conçu pour aider les entreprises à organiser et à répondre à tous leurs besoins commerciaux critiques à travers les quatre objectifs suivants :
1||| Assurez-vous que tous les utilisateurs, des parties prenantes clés aux membres de l'équipe, parlent la même langue. Cela aide tout le monde à comprendre le cadre, le contenu et les objectifs de la même manière et permet à l'ensemble de l'entreprise d'être sur la même longueur d'onde, en éliminant toutes les barrières de communication.
2||| Évitez d’être « enfermé » dans des solutions propriétaires pour l’architecture d’entreprise. Tant que l'entreprise utilise TOGAF en interne et non à des fins commerciales, le framework est gratuit.
3||| Économisez du temps et de l’argent et utilisez les ressources plus efficacement.
4||| Obtenez un retour sur investissement (ROI) significatif.
TOGAF reflète la structure et le contenu des capacités de l'architecture interne d'une entreprise. La version TOGAF9 comprend six composants :
1||| Méthodes de développement d'architecture
Cette partie est au cœur de TOGAF. Elle décrit la méthode de développement d'architecture TOGAF (ADM) qui est une méthode étape par étape pour développer une architecture d'entreprise.
2||| Lignes directrices et technologies d'ADM
Cette section contient une série de directives et de techniques qui peuvent être utilisées pour appliquer l'ADM.
3||| Cadre de contenu architectural
Cette section décrit le cadre de contenu TOGAF, y compris un méta-modèle structuré d'artefacts d'architecture, l'utilisation de blocs de construction d'architecture (ABB) réutilisables et un aperçu des livrables d'architecture typiques.
4||| Continuum et outils d'entreprise
Cette section traite des taxonomies et des outils permettant de classer et de stocker les résultats des activités d'architecture au sein d'une entreprise.
5||| Modèle de référence TOGAF
Cette partie fournit deux modèles de référence architecturaux, à savoir le modèle de référence technologique (TRM) TOGAF et le modèle de référence d'infrastructure d'information intégrée (II-RM).
6||| Cadre de capacités d'architecture
Cette section traite de l'organisation, des processus, des compétences, des rôles et des responsabilités requis pour établir et exploiter une pratique d'architecture au sein d'une entreprise.
L'idée centrale du framework TOGAF est :
1||| Architecture modulaire
La norme TOGAF adopte une structure modulaire.
2||| cadre de contenu
La norme TOGAF comprend un cadre de contenu qui produit des résultats plus cohérents suivant la méthode de développement d'architecture (ADM). Le cadre de contenu TOGAF fournit un modèle détaillé pour l'architecture des produits.
3||| Guide étendu
L'ensemble de concepts et de spécifications étendus de la norme TOGAF permet aux équipes internes des grandes organisations de développer des architectures d'intégration à plusieurs niveaux qui fonctionnent au sein d'un modèle de gouvernance architectural global.
4||| style architectural
La norme TOGAF est conçue pour être flexible et peut être utilisée dans différents styles architecturaux.
5||| La clé de TOGAF est la méthode de développement d'architecture, qui est une méthode fiable et efficace pouvant répondre à la structure organisationnelle des besoins de l'entreprise.
Méthode ADM
La méthode de développement d'architecture (ADM) décrit les différentes étapes nécessaires au développement d'une architecture d'entreprise et les relations entre elles. Définition détaillée, c'est aussi le contenu central de la spécification TOGAF.
L'approche ADM consiste en un ensemble de phases disposées en anneau dans l'ordre de développement de l'architecture dans le domaine de l'architecture.
Ce modèle divise le cycle de vie complet d'ADM en dix phases, notamment la phase de préparation, la gestion de la demande, la vision architecturale, l'architecture métier, l'architecture du système d'information (applications et données), l'architecture technique, les opportunités et solutions, la planification de la migration, la gouvernance de la mise en œuvre et la gouvernance du changement d'architecture. . Étapes, ces dix étapes sont un processus itératif.
L'approche ADM est appliquée de manière itérative tout au long du processus de développement de l'architecture, entre les phases et au sein de chaque phase. Dans le cycle de vie complet d'ADM, chaque étape doit confirmer les résultats de conception en fonction des exigences métier d'origine, qui incluent également certaines étapes propres au processus métier. La validation nécessite une révision de la couverture, du calendrier, du niveau de détail, des plans et des jalons de l'entreprise. Chaque phase doit permettre la réutilisation des actifs architecturaux.
ADM a formé un concept d'itération à trois niveaux :
1||| Itération basée sur l'ADM global
L’application circulaire de l’approche ADM indique que l’achèvement d’une phase de développement architectural mène directement à la phase suivante.
2||| Itérations sur plusieurs phases de développement
Après avoir terminé les travaux de développement dans la phase d'architecture technique, il est revenu à la phase de développement de l'architecture métier.
3||| Itération au sein d'une étape
TOGAF prend en charge le développement itératif de contenu architectural complexe basé sur plusieurs activités de développement au sein d'une étape.
Principales activités à chaque étape de développement d’ADM
VI. architecture axée sur la valeur
i. Aperçu du modèle
Le but d’un système est de créer de la valeur pour ses parties prenantes.
Les principales caractéristiques du modèle de valeur :
(1) valeur attendue
Les attentes en matière de valeur représentent la demande pour une fonctionnalité spécifique, notamment le contenu (fonction), la satisfaction (qualité) et l'aspect pratique à différents niveaux de qualité.
Par exemple, un automobiliste a des attentes en matière de vitesse et de sécurité en cas de freinage brusque de sa voiture à une vitesse de 60 kilomètres par heure.
(2) force de réaction
Dans l'environnement réel de déploiement du système, il est difficile d'atteindre une certaine valeur attendue. Habituellement, plus les attentes sont élevées, plus la difficulté est grande, c'est-à-dire la force de réaction.
Par exemple, le résultat d'un freinage d'urgence d'une voiture à une vitesse de 60 kilomètres par heure dépend du type de revêtement routier, de la pente de la chaussée et du poids de la voiture.
(3) catalyseur du changement
Un catalyseur de changement représente un événement dans l'environnement qui provoque un changement dans les attentes en matière de valeur ou constitue une contrainte qui conduit à un résultat différent.
Les forces contraires et les catalyseurs du changement sont appelés contraintes, et ces trois éléments sont collectivement appelés moteurs de valeur. Si un système est conçu pour répondre efficacement aux exigences du modèle de valeur de ses parties prenantes, il doit alors être capable d'identifier et d'analyser les modèles de valeur.
Les approches générales, telles que les scénarios de cas d'utilisation et les exigences commerciales/marketing, commencent par se concentrer sur les types d'acteurs qui interagissent avec le système. Cette approche présente quatre limites importantes.
(1) Accordez plus d'attention aux modèles comportementaux des participants et moins aux objectifs qu'ils visent.
(2) Les participants sont souvent divisés de manière rigide en plusieurs rôles, les individus occupant chaque rôle étant essentiellement les mêmes (par exemple, hommes d'affaires, gestionnaires de placements ou administrateurs système).
(3) Les différences dans les facteurs limitants sont souvent ignorées (par exemple, si les négociants en valeurs mobilières à New York sont les mêmes qu'à Londres, si le marché est ouvert à la négociation ou non à la négociation quotidienne).
(4) Le résultat est simple. Les exigences sont remplies ou non, les cas d'utilisation sont terminés avec succès ou non.
Il y a une raison pratique très logique à cette approche : elle utilise un raisonnement séquentiel et une logique catégorielle, elle est donc facile à enseigner et à expliquer, et elle produit un ensemble de résultats faciles à vérifier.
ii. défis structurels
Un défi architectural survient parce qu’une ou plusieurs contraintes rendent plus difficile la satisfaction d’une ou plusieurs attentes.
Dans n’importe quel environnement, l’identification des défis architecturaux implique une évaluation.
(1) Quelles contraintes affectent une ou plusieurs valeurs souhaitées.
(2) Si les impacts sont connus, serait-il plus facile (impacts positifs) ou plus difficile (impacts négatifs) pour eux de répondre aux attentes.
(3) Quelle est la gravité des différents effets, auquel cas de simples niveaux de faible, moyen et élevé suffisent généralement.
L'évaluation doit considérer l'architecture dans le contexte de ses propres défis. Bien qu’il soit possible de faire la moyenne des courbes d’utilité selon les contextes, le même traitement ne peut pas être appliqué aux effets des contraintes sur les valeurs attendues. Par exemple, supposons que le serveur Web fournisse des pages dans deux situations : l'une accède à des informations statiques, telles que des références, qui nécessitent un temps de réponse de 1 à 3 secondes ; l'autre accède à des informations dynamiques, telles que des informations sur des événements sportifs en cours. Le temps de réponse de la feuille de score personnelle est de 3 à 6 secondes.
Les deux cas présentent des limitations en matière de processeur, de mémoire, de disque et de réseau. Cependant, lorsque le volume de requêtes augmente de 10 ou 100 fois, ces deux cas peuvent rencontrer des barrières d'évolutivité très différentes. Pour le contenu dynamique, la synchronisation des mises à jour et des accès devient un facteur limitant sous forte charge. Pour le contenu statique, une charge importante peut être surmontée en mettant fréquemment en cache les pages lues.
L'élaboration d'une stratégie architecturale d'un système commence par :
(1) Identifiez et priorisez les contextes de valeur appropriés.
(2) Définir des courbes d'utilité et des valeurs attendues priorisées dans chaque contexte.
(3) Identifier et analyser les contre-forces et les catalyseurs du changement dans chaque contexte.
(4) Détectez les zones où les contraintes rendent difficile la satisfaction des attentes.
Il est logique que les premières décisions architecturales produisent la plus grande valeur. Il existe plusieurs critères de priorisation des architectures, suggérant des compromis tels que l'importance, le degré, les conséquences et l'isolement.
(1) importance
Dans quelle mesure les attentes sont-elles affectées par le défi, et si ces attentes sont spécifiques à un petit nombre de contextes, quelles sont les priorités relatives de ces contextes.
(2) degré
Quel est l'impact des contraintes sur la valeur attendue.
(3) en conséquence de
Combien d’options environ sont disponibles et si leur difficulté ou leur efficacité varient considérablement.
(4) isolement
Qu’en est-il de l’isolement du scénario le plus réaliste.
Lignes directrices pour la stratégie architecturale
(1) organiser
Comment les sous-systèmes et les composants sont-ils organisés de manière systématique ? Quelle est leur composition et leurs responsabilités ? Comment le système est-il déployé sur le réseau ? Quels sont les types d'utilisateurs et de systèmes externes ? Où sont-ils situés et comment sont-ils connectés ?
(2) fonctionner
Comment les composants interagissent-ils ? Dans quels cas la communication est-elle synchrone et dans quels cas est-elle asynchrone ? Comment les différentes opérations des composants peuvent-elles être configurées ou les diagnostics peuvent-ils être exécutés ? Comment les erreurs sont-elles détectées, diagnostiquées et corrigées ?
(3) variabilité
Quelles fonctionnalités importantes du système peuvent changer à mesure que l'environnement de déploiement change ? Pour chaque fonctionnalité, quelles options sont prises en charge ? Quand le choix peut-il être fait (par exemple, compiler, lier, installer, lancer ou au moment de l'exécution) ? de divergence ? Quelle est la corrélation entre eux ?
(4) évolution
Comment le système est-il conçu pour accompagner le changement tout en maintenant sa stabilité ? Quels types spécifiques de changements majeurs sont attendus ? Quelles sont les manières souhaitables de gérer ces changements ?
La stratégie architecturale est comme le gouvernail et la quille d’un voilier, déterminant la direction et la stabilité. Il doit s'agir d'une déclaration d'orientation courte et de haut niveau qui doit être compréhensible par toutes les parties prenantes et qui doit rester relativement stable tout au long de la vie du système.
iii. Le lien entre modèle et structure
Le lien entre le modèle de valeur et l'architecture logicielle est clair et logique et peut être exprimé dans les 9 points suivants.
(1) Des produits et des systèmes à forte intensité logicielle existent pour apporter de la valeur.
(2) La valeur est une quantité scalaire qui combine une compréhension de l’utilité marginale avec l’importance relative de nombreux objectifs différents. Le compromis entre objectifs est une question extrêmement importante.
(3) La valeur existe à plusieurs niveaux, dont certains incluent le système cible comme fournisseur de valeur. Les modèles de valeur utilisés dans ces domaines englobent les principaux moteurs de l'architecture logicielle.
(4) Les modèles de valeur situés aux niveaux supérieurs de la hiérarchie peuvent entraîner des modifications des modèles de valeur situés en dessous d'eux. Il s’agit d’une base importante pour formuler les principes d’évolution du système.
(5) Pour chaque groupe de valeurs, le modèle de valeur est homogène. Les contextes de valeur exposés à différentes conditions environnementales ont des valeurs attendues différentes.
(6) Les sponsors du développement de systèmes ont des priorités différentes pour répondre aux besoins de différents contextes de valeur.
(7) Les défis architecturaux découlent de l'impact des facteurs environnementaux sur les attentes dans un contexte.
(8) Une approche architecturale tente de maximiser la valeur en surmontant d'abord les défis architecturaux les plus prioritaires.
(9) La stratégie architecturale est synthétisée à partir de l'approche architecturale la plus prioritaire en résumant les règles, politiques et principes organisationnels communs, les opérations, les changements et l'évolution.
三、 Architecture des applications
I. résumé
Le contenu principal de l'architecture d'application est de planifier l'architecture du domaine hiérarchique de l'application cible, de planifier le domaine d'application cible, le groupe d'applications et les composants d'application cible en fonction de l'architecture métier, et de former une vue logique et une vue système de l'architecture d'application cible.
D'un point de vue fonctionnel, il explique comment chaque composant applicatif et l'architecture applicative dans son ensemble peuvent répondre aux besoins informatiques de haut niveau de l'organisation, et décrit l'interaction entre les principaux composants applicatifs cibles.
II. Le principe de base
1. Principe d'adaptabilité de l'entreprise
L'architecture d'application doit servir et améliorer les capacités commerciales et être capable de soutenir les objectifs stratégiques de développement commercial ou technologique de l'organisation. Dans le même temps, l'architecture d'application doit avoir un certain degré de flexibilité et d'évolutivité pour s'adapter aux changements apportés par l'architecture commerciale future. développement.
2. Appliquer le principe d'agrégation
Sur la base des fonctions système existantes, en intégrant des applications au niveau du département, nous pouvons résoudre les problèmes de systèmes d'application multiples, de fonctions dispersées, de chevauchements et de limites floues, et promouvoir la construction d'un système d'application « au niveau de l'organisation » centralisé sur le plan organisationnel.
3. principe de spécialisation fonctionnelle
Réaliser la planification des applications en fonction de l'agrégation des fonctions métiers et construire des systèmes applicatifs correspondant aux composants applicatifs. système pour répondre aux besoins des différents secteurs d’activité et parvenir à un développement professionnel.
4. principe de minimisation des risques
Réduisez le couplage entre les systèmes, améliorez l'indépendance d'un système d'application unique, réduisez l'interdépendance entre les systèmes d'application, maintenez un couplage lâche entre les niveaux de système et les groupes de systèmes, évitez les risques ponctuels, réduisez les risques de fonctionnement du système et assurez la fiabilité des systèmes d'application. sûr et stable.
5. Principe de réutilisation des actifs
Encourager et promouvoir le raffinement et la réutilisation des actifs architecturaux pour répondre aux exigences d'un développement rapide et de coûts de développement et de maintenance réduits. Planifiez les applications partagées au niveau de l'organisation pour qu'elles deviennent des services de base, établissez un système standardisé, puis réutilisez-les et partagez-les au sein de l'organisation. Dans le même temps, en réutilisant ou en combinant les services, l'architecture est suffisamment flexible pour répondre aux besoins métiers différenciés des différents secteurs d'activité et soutenir le développement durable des activités de l'organisation.
III. regroupement hiérarchique
L'objectif de la superposition de l'architecture d'application est de parvenir à une séparation entre l'activité et la technologie, de réduire le couplage entre chaque couche, d'améliorer la flexibilité de chaque couche, de faciliter l'isolation des pannes et d'obtenir un couplage lâche de l'architecture.
La superposition d'applications peut refléter des services système et des modèles d'interaction centrés sur le client, et fournir une vue d'architecture d'application orientée service client.
Le but du regroupement d'applications est de refléter la classification et l'agrégation des fonctions métier, et de regrouper des applications ou des fonctions étroitement liées dans un groupe, qui peut guider la construction de systèmes d'application, atteindre une cohésion élevée au sein du système, un faible couplage entre les systèmes et réduire la duplication de la construction.
Schéma de principe de l’architecture applicative du centre de gestion intelligent des assurances sociales d’une ville
La planification est divisée en quatre catégories
(1) Canaux de gouvernance
1||| Application mobile
Il fournit principalement aux gestionnaires de tous niveaux des vues visuelles de divers sujets importants, sujets populaires, sujets commerciaux et sujets Big Data, surveillance des indicateurs importants, analyse d'index, évaluation des performances, analyse des tendances, commande et répartition et autres fonctions d'application pour réaliser différents scénarios d'application. du centre de gouvernance. Examen simultané des données sur le développement de la sécurité sociale, de l’indice de l’environnement des affaires et des rapports associés.
2||| Application de bureau
Pour les gestionnaires de divers domaines d'activité et les services d'information de l'assurance sociale d'une certaine ville, il propose des sujets complets dans le domaine de l'assurance sociale, des sujets commerciaux dans chaque domaine d'activité et des services humanistes sur des sujets liés au Big Data, à la supervision visuelle, à la supervision intelligente, à la science. prise de décision et en ligne Il peut réaliser une gouvernance intelligente dans différents scénarios d'application tels que le commandement et l'expédition, la consultation de conférence, la répartition des tâches, l'enquête et la coordination assistées et la rectification spéciale.
3||| Applications grand écran
Pour les responsables de l'assurance sociale et les chefs de service à tous les niveaux d'une ville, il fournit des présentations visuelles du suivi des indicateurs importants, de l'analyse des décisions, de l'évaluation des performances, de l'analyse des tendances, etc. sur divers sujets importants, sujets d'actualité, sujets commerciaux et sujets liés au Big Data.
(2) Système de centre de gouvernance
Concentrez-vous principalement sur l'affichage de trois grandes catégories de thèmes interactifs
1||| sujet d'affaires
Y compris l'emploi et l'entrepreneuriat, l'assurance sociale, la protection des droits du travail, la gestion du personnel, les services de talents, les examens du personnel et professionnels, l'approbation administrative, les services de consultation téléphonique, les cartes de sécurité sociale, etc.
2||| sujets complets
Y compris la prise de décision macro, le commandement et l'expédition, l'intégrité et le contrôle des risques, la gestion des fonds, le développement de carrière, l'environnement des affaires, le suivi de la réduction de la pauvreté, la surveillance des services, la surveillance de l'opinion publique, la supervision du style commercial, l'évaluation des performances, la gestion des événements, les licences électroniques, la gestion des normes. , au profit des personnes et des agriculteurs qui attendent.
3||| thème du Big Data
Y compris les portraits de la sécurité sociale, les portefeuilles de sécurité sociale, les cotes de crédit de la sécurité sociale, les cartes de sécurité sociale, les atlas de la sécurité sociale, l'actuariat des fonds de sécurité sociale, l'évaluation de l'indice de sécurité sociale, l'analyse panoramique de la sécurité sociale, etc.
(3) Système de soutien à la gouvernance
Fournir quatre grands types d'applications pour le centre de gouvernance intelligente de ce projet
1||| Applications de support de données
Y compris le système d'agrégation de données, le système de gouvernance des données et le système d'application des données.
2||| Applications de services liées
Y compris un système de gestion du commandement et de l'expédition, un système de gestion précis de la réduction de la pauvreté, un système de gestion d'alerte précoce pour la protection des droits du travail, un système de certificat électronique et un système de portrait d'utilisateur.
3||| Applications de gouvernance et de supervision
Y compris un système de gestion standard, un système de supervision de style commercial, un système de gestion du crédit, un système d'analyse actuarielle de fonds et un système d'évaluation de l'efficacité des services.
4||| Afficher des applications interactives
Comprend une application de gouvernance mobile.
(4) Modifications pertinentes du système
Il s'agit principalement de la transformation du système de travail et d'emploi, du système d'assurance sociale, du système de relations de travail, du système du personnel et des talents, du système de service public, du système de prévention et de contrôle des risques, etc. liés à la collecte de données, à l'affichage et à l'interaction de sujets liés. à ce centre de gouvernance intelligente.
四、 architecture de données
I. résumé
L'architecture des données décrit la structure des actifs de données logiques et physiques d'une organisation et les ressources de gestion des données associées.
Le contenu principal de l'architecture des données implique la planification architecturale tout au long du cycle de vie des données, y compris la génération, la circulation, l'intégration, l'application, l'archivage et la destruction des données.
L'architecture des données se concentre sur les caractéristiques des données manipulées au cours du cycle de vie des données et est liée aux concepts du domaine des données tels que le type de données, le volume des données, le développement du traitement de la technologie des données et les stratégies de gestion et de contrôle des données.
II. Développement et évolution
1. L’ère de l’architecture d’application monolithique
Au début de l'informatisation (années 1980), lorsque l'informatisation était initialement en construction, les systèmes d'information étaient principalement des applications uniques. Logiciel financier actuel, logiciel bureautique OA, etc. Au cours de cette période, le concept de gestion des données en était encore à ses balbutiements et l'architecture des données était relativement simple. Elle consistait principalement en un modèle de données et une conception de base de données, suffisants pour répondre aux besoins commerciaux du système.
2. L’ère des entrepôts de données
Avec l'utilisation des systèmes d'information, les données du système s'accumulent progressivement. À cette époque, les gens ont découvert que les données étaient précieuses pour l'organisation, mais le système fragmenté a conduit à la création d'un grand nombre d'îlots d'informations, ce qui a sérieusement affecté l'utilisation des données par l'organisation. En conséquence, une nouvelle architecture intégrée et orientée sujet pour l'analyse des données est née, à savoir l'entrepôt de données.
Différent des bases de données relationnelles traditionnelles, la principale application des systèmes d'entrepôt de données est OLAP, qui prend en charge des opérations d'analyse complexes, se concentre sur l'aide à la décision et fournit des résultats de requête intuitifs et faciles à comprendre. À ce stade, l’architecture des données se concentre non seulement sur le modèle de données, mais également sur la distribution et le flux des données.
3. L'ère du Big Data
L’essor de la technologie Big Data permet aux organisations d’utiliser leurs propres données de manière plus flexible et plus efficace et d’en extraire une valeur plus importante. Dans le même temps, motivées par les besoins des applications Big Data, diverses architectures Big Data se développent et évoluent constamment, du traitement par lots au traitement par flux, du centralisé au distribué, de l'intégration par lots-flux au temps réel complet.
III. Le principe de base
Le principe de conception de l'architecture de données consiste à suivre les principes généraux de la conception d'architecture et à prendre en compte des considérations particulières pour l'architecture de données elle-même.
La conception raisonnable d'une architecture de données devrait résoudre les problèmes suivants : rationalité du positionnement des fonctions, évolutivité pour le développement futur, traitement efficace ou rentabilité raisonnable de la distribution et de la cohérence des données ;
Les principes de base comprennent
1. Principes de hiérarchisation des données
2. Principes d’efficacité du traitement des données
3. Principe de cohérence des données
4. Principes d'évolutivité de l'architecture de données
(1) Basé sur le principe de rationalité du positionnement hiérarchique.
(2) L'évolutivité de l'architecture nécessite la prise en compte du modèle de stockage des données et de la technologie de stockage des données.
5. Au service des principes commerciaux
IV. Exemple d'architecture
Représentation schématique de l’architecture des données du centre de gestion intelligente des assurances sociales d’une ville.
Les principaux référentiels de données comprennent
(1) Base de données source
La base de données source est la source des données requises par le centre de gouvernance intelligente des assurances sociales d’une ville.
(2) bibliothèque d'échange
Utilisez des outils de synchronisation tels que OGG ou synchronisez la base de données source avec la synchronisation des données, les appels de service, etc. Accédez à la base de données Exchange et utilisez la synchronisation ou la mise en miroir des données pour réduire l'impact sur la base de données source.
(3) Bibliothèque de transitions
Les données de la bibliothèque d'échange sont extraites via OGG For Bigdata pour extraire des données variables, extraction Sqoop, push, importation, etc., et stockées dans la bibliothèque de transition de la plate-forme Hadoop pour améliorer les performances du traitement des données par lots volumineux.
(4) Bibliothèque intégrée
Comparez, convertissez, nettoyez et agrégez les données dans la base de données de transition et stockez-les dans une structure de table de base de données unifiée. Dans la base de données intégrée, des sources de données incrémentielles et des sources de données complètes sont fournies pour chaque base de données thématique.
(5) Bibliothèque thématique
Autrement dit, la bibliothèque de services extrait les données requises de la bibliothèque intégrée en fonction des exigences d'application du thème de gouvernance pour assurer la gouvernance. Fournir un support pour les applications théoriques et la présentation visuelle.
五、 Architecture technologique
I. résumé
L'architecture technique est la base de l'architecture des applications et de l'architecture des données d'une organisation. Il s'agit d'un ensemble composé de plusieurs modules fonctionnels. Elle décrit le système technique ou la combinaison utilisée pour mettre en œuvre les applications métier de l'organisation, ainsi que l'infrastructure et l'environnement nécessaires à leur prise en charge. le déploiement des systèmes d’application attend.
L'architecture technique nécessite une réflexion globale et une planification unifiée. Une architecture technique informatique dépourvue de stratégies et d'idées globales entraînera un gaspillage important d'investissements et des retards dans la construction. La fonction globale sera mise à mal par le maillon le plus faible, faisant de l'informatique un goulot d'étranglement pour le développement commercial.
II. Le principe de base
1. Principes de contrôle de maturité
2. principe de cohérence technique
3. principe de remplaçabilité locale
4. Principe de couverture des compétences des talents
5. Principes axés sur l'innovation
III. Exemple d'architecture
Représentation schématique de l’architecture technique du centre de gestion intelligente des assurances sociales d’une ville.
Ce projet adopte l'architecture et les itinéraires techniques avancés et matures d'aujourd'hui pour garantir l'avancement, l'efficacité, la fiabilité et l'évolutivité du centre de gouvernance intelligente de l'assurance sociale d'une ville.
L'architecture technique est conçue selon une approche de classification et de stratification, comprenant
(1) norme technique
Suivez les normes internationales et nationales telles que J2EE, HTML5, CSS3, SQL, Shell, XML/JSON, HTTP, FTP, SM2, SM3, JavaScript, etc.
(2) soutien de base
1||| S'appuyer sur le réseau 5G et l'Internet des objets pour fournir un support réseau de base pour ce projet ;
2||| S'appuyer sur un middleware d'application pour fournir un support de déploiement d'applications pour ce projet ;
3||| S'appuyer sur le cache distribué, la base de données mémoire, la base de données MPP et la base de données de transactions pour fournir un support de stockage de données de base pour ce projet ;
4||| S'appuyer sur la plateforme Hadoop pour fournir un support de stockage distribué et d'environnement informatique pour ce projet ;
5||| S'appuyer sur les composants des moteurs de recherche et des moteurs de règles pour fournir un support technique pour les applications de gouvernance.
(3) technologie du cadre d'application
C'est une technologie qui doit être strictement suivie et adoptée dans le développement de systèmes d'application.
Le cadre d'application adopte une conception en couches, comprenant une couche d'accès, une couche de contrôle d'interaction, une couche de composants métier et une couche d'accès aux ressources.
(4) Technologie d'intégration d'applications
Y compris l'authentification unique, le bus de service (ESB), le moteur de processus, la file d'attente de messages et d'autres technologies pour prendre en charge l'intégration entre divers systèmes d'application.
(5) Technologie d'intégration de données
Comprenant des outils ETL, des outils de réplication de synchronisation de données, d'indexation de données, des procédures SQL/stockées, des moteurs informatiques MapReduce/Spark et d'autres technologies, il fournit la collecte de données, le nettoyage des données, la conversion de données, le traitement des données, l'exploration de données, etc. pour l'assurance sociale d'une ville. centre de gouvernance intelligente. Fournir un soutien technique pour le travail.
(6) technologie d'analyse de données
Y compris moteur BI, moteur de rapport, moteur SIG, composant graphique, moteur 3D, moteur de modélisation multidimensionnelle, package d'algorithmes d'IA, package d'algorithmes d'exploration de données et autres technologies Big Data, fournissant des cartes de sécurité sociale, une commande et une répartition à distance, une analyse panoramique, une macro. prise de décision, suivi et supervision Fournir un support technique pour la visualisation d'autres applications.
(7) Technologie d'exploitation et de maintenance
Y compris les traces d'opération, l'avertissement de panne, la surveillance de l'efficacité énergétique, la collecte de journaux, l'analyse des vulnérabilités, l'application Utiliser la surveillance, l'analyse de réseau et d'autres technologies pour prendre en charge le fonctionnement et la maintenance standardisés des systèmes d'application.
六、 Architecture de réseau
I. Le réseau est le fondement de l'architecture des technologies de l'information. Il s'agit non seulement d'un canal permettant aux utilisateurs de demander et d'obtenir des services de ressources d'information informatiques, mais également d'une plaque tournante pour l'intégration et la planification de diverses ressources dans l'architecture du système d'information.
II. Le principe de base
1. Grande fiabilité
En tant que plaque tournante et canal pour la planification des ressources sous-jacentes et la transmission des services, le réseau a des exigences naturelles en matière de fiabilité élevée. Il va sans dire.
2. Haute sécurité
La sécurité des systèmes d'information ne peut pas reposer uniquement sur des garanties de sécurité au niveau des applications. Le réseau doit également être capable de fournir une protection de sécurité de base, des capacités sous-jacentes d'authentification d'identité, de contrôle d'accès, de détection d'intrusion, etc. pour les candidatures.
3. haute performance
Le réseau n'est pas seulement un canal de prestation de services, mais également une plaque tournante pour la planification des ressources nécessaires à la fourniture des services. Par conséquent, les performances et l'efficacité du réseau sont la garantie d'une meilleure qualité de service.
4. Gérabilité
Cela ne fait pas seulement référence à la gestion du réseau lui-même, mais également à l'ajustement et au contrôle rapides du réseau en fonction des stratégies de déploiement commercial.
5. Plateforme et architecture
En tant que ressource de base sous-jacente, le réseau a besoin d’une vision large pour s’adapter à la future architecture applicative. En réponse aux changements, le réseau lui-même peut devenir plus flexible et s'étendre à la demande pour s'adapter aux changements et aux évolutions à différentes échelles commerciales à l'avenir.
III. Architecture du réseau local
Un réseau local fait référence à un réseau informatique local, un réseau informatique dédié appartenant à une seule organisation.
Les fonctionnalités incluent:
① La couverture géographique est petite, généralement limitée à une plage relativement indépendante, telle qu'un bâtiment ou un groupe de bâtiments concentré (généralement dans un rayon de 2,5 km) ;
②Taux de transmission de données élevé (généralement supérieur à 10 Mb/s, généralement 1 Gb/s, voire 10 Gb/s) ;
③Faible taux d'erreur sur les bits (généralement inférieur à 10°), haute fiabilité ;
④Prend en charge plusieurs supports de transmission et prend en charge les applications en temps réel. En ce qui concerne la topologie du réseau, il existe des types de bus, d'anneau, d'étoile, d'arborescence et autres.
En termes de supports de transmission, il comprend le LAN filaire et le LAN sans fil.
Un réseau local se compose généralement d’ordinateurs, de commutateurs, de routeurs et d’autres équipements.
Le LAN fournit non seulement des fonctions de commutation de couche 2, mais fournit également des réseaux complexes avec des fonctions de routage de couche 3.
Type d'architecture
1. Architecture monocœur
Un réseau local monocœur se compose généralement d'un périphérique de commutation central de couche 2 ou de couche 3 en tant que périphérique central du réseau, et les périphériques utilisateur (tels que les ordinateurs des utilisateurs, les appareils intelligents, etc.) sont connectés au réseau via plusieurs périphériques de commutation d'accès. .
Ce type de LAN peut être connecté au WAN via un équipement de routage d'interconnexion (routeurs frontaliers ou pare-feu) connectant l'équipement de commutation du réseau central et le WAN pour obtenir un accès professionnel à travers le LAN.
Le réseau monocœur présente les caractéristiques suivantes :
1||| L'équipement de commutation de base utilise généralement des commutateurs de couche 2, de couche 3 et supérieure ; si des commutateurs de couche 3 ou supérieure sont utilisés, ils peuvent être divisés en VLAN. Le transfert de liaison de données de couche 2 est utilisé au sein du VLAN, et le routage de couche 3 est utilisé pour le transfert entre les deux. VLAN ;
2||| Le dispositif de commutation d'accès utilise un commutateur de couche 2, qui implémente uniquement le transfert de liaison de données de couche 2 ;
3||| Des connexions Ethernet telles que 100M/GE/10GE (1GE=1Gb/s) peuvent être utilisées entre l'équipement de commutation principal et l'équipement d'accès.
L'avantage d'utiliser un seul cœur pour construire un réseau est que la structure du réseau est simple et que l'investissement en équipement peut être économisé. Il est plus pratique pour les sous-organisations qui doivent utiliser le réseau local pour accéder. Elles peuvent se connecter directement à l'interface inactive du dispositif de commutation principal via le dispositif de commutation d'accès. Ses inconvénients sont que la portée géographique du réseau est limitée et que les sous-organisations qui nécessitent l'utilisation du LAN sont relativement compactes ; l'équipement de commutation du réseau central a un point de défaillance unique, ce qui peut facilement conduire à une défaillance globale ou partielle du réseau. le réseau ; la capacité d'extension du réseau est limitée ; de nombreux dispositifs de commutation sont connectés au réseau local. Dans ce cas, la densité de ports des équipements de commutation de base doit être élevée.
Alternativement, pour les réseaux à plus petite échelle, les équipements utilisateur utilisant cette architecture de réseau peuvent également être directement interconnectés avec les équipements de commutation de base, réduisant ainsi davantage les coûts d'investissement.
2. Architecture double cœur
L'architecture double cœur fait généralement référence à l'équipement de commutation de base utilisant des commutateurs à trois couches et plus.
Des connexions Ethernet telles que 100M/GE/10GE peuvent être utilisées entre l'équipement de commutation principal et l'équipement d'accès. Lors de la division des VLAN au sein du réseau, l'accès entre chaque VLAN doit être effectué via deux équipements de commutation principaux. Seul l'équipement de commutation principal du réseau dispose de la fonction de routage et l'équipement d'accès fournit uniquement la fonction de transfert de couche 2.
Les dispositifs de commutation de base sont interconnectés pour assurer la protection de la passerelle ou l'équilibrage de charge. L'équipement de commutation de base dispose de capacités de protection et la topologie du réseau est fiable. La commutation à chaud peut être mise en œuvre dans le routage et le transfert de services. Pour un accès mutuel entre les réseaux locaux de différents services connectés au réseau ou pour accéder aux serveurs centraux de l'entreprise, vous avez le choix entre plusieurs chemins, avec une plus grande fiabilité.
Il est plus pratique pour les organisations spéciales qui ont besoin d'utiliser le réseau local pour accéder. Elles peuvent se connecter directement à l'interface inactive du périphérique de commutation principal via le périphérique de commutation d'accès. L'investissement en équipement est supérieur à celui d'un réseau local monocœur. Les exigences en matière de densité de ports pour les équipements de commutation de base sont relativement élevées. Tous les serveurs d'entreprise sont connectés simultanément à deux dispositifs de commutation principaux et protégés via le protocole de protection de passerelle pour fournir un accès haut débit à l'équipement des utilisateurs.
3. architecture en anneau
Un réseau local en anneau est composé de plusieurs dispositifs de commutation centraux connectés en doubles anneaux de paquets élastiques dynamiques RPR (Resilient Packet Ring) pour construire le cœur du réseau.
Les équipements de commutation de base utilisent généralement des commutateurs à trois couches ou plus pour fournir des fonctions de transfert d'entreprise.
Chaque VLAN d'un réseau LAN en anneau typique réalise un accès mutuel via l'anneau RPR. RPR dispose d'une fonction de protection d'auto-réparation pour économiser les ressources de fibre optique ; il a la capacité d'un temps d'auto-réparation de 50 ms au niveau de la couche MAC et fournit des services QoS fiables à plusieurs niveaux, un mécanisme d'équité de bande passante et un mécanisme de contrôle de la congestion. L'anneau RPR est disponible dans les deux sens. Le réseau forme une topologie en anneau grâce à deux fibres optiques inversées, et les nœuds de l'anneau peuvent atteindre un autre nœud dans deux directions. Chaque fibre peut transmettre simultanément des données et des signaux de contrôle. RPR utilise la technologie de réutilisation spatiale pour utiliser efficacement la bande passante de l'anneau.
Lors de la construction d'un réseau local à grande échelle via RPR, plusieurs anneaux ne peuvent communiquer entre eux que via des interfaces de service et ne peuvent pas établir de communication réseau directe. L'investissement dans un équipement LAN en anneau est supérieur à celui d'un LAN monocœur. La conception de redondance du routage de base est difficile à mettre en œuvre et peut facilement former des boucles. Ce réseau accède au WAN via des dispositifs de routage frontalier qui interconnectent les dispositifs de commutation sur l'anneau.
4. Architecture LAN hiérarchique
Le réseau local hiérarchique (ou réseau local multicouche) comprend un équipement de commutation de couche centrale, un équipement de commutation de couche d'agrégation, un équipement de commutation de couche d'accès et Équipement utilisateur et autres composants
L'équipement de couche centrale dans le modèle LAN hiérarchique fournit des fonctions de transfert de données à haut débit ; les interfaces suffisantes fournies par l'équipement de couche d'agrégation réalisent un contrôle d'accès mutuel avec la couche d'accès, et la couche d'agrégation peut fournir différents dispositifs d'accès sous sa juridiction (au sein du département LAN) La fonction de commutation de service réduit la pression de transfert sur l'équipement de commutation de base ; l'équipement de couche d'accès réalise l'accès à l'équipement utilisateur. La topologie du réseau LAN hiérarchique est facile à étendre. Les défauts du réseau peuvent être classés et dépannés pour faciliter la maintenance. Habituellement, le LAN hiérarchique est connecté au WAN via le dispositif de routage frontalier avec le WAN pour réaliser un accès mutuel aux services LAN et WAN.
IV. Architecture WAN
Un réseau étendu est un réseau qui connecte des équipements informatiques répartis sur une zone plus large qu'un réseau local.
Le WAN se compose d'un sous-réseau de communication et d'un sous-réseau de ressources. Des sous-réseaux de communication peuvent être construits à l'aide de réseaux publics de commutation de paquets, de réseaux de communication par satellite et de réseaux de commutation de paquets sans fil pour interconnecter des réseaux locaux ou des systèmes informatiques répartis dans différentes zones afin de réaliser le partage de sous-réseaux de ressources.
Le WAN est un réseau à plusieurs niveaux, généralement composé d'un réseau fédérateur, d'un réseau de distribution et d'un réseau d'accès. Lorsque l’échelle du réseau est petite, il ne peut être constitué que d’un réseau fédérateur et d’un réseau d’accès. Lors de la planification du WAN, il est nécessaire de sélectionner les fonctions réseau de troisième niveau en fonction du scénario commercial et de l'échelle du réseau. Par exemple, planifier le réseau étendu d'une banque provinciale et concevoir un réseau fédérateur pour prendre en charge le partage de données, de voix, d'images et d'autres informations afin de fournir des services de communication fiables et à haut débit pour l'ensemble du système bancaire ; concevoir un réseau de distribution pour assurer l'échange de données entre ; le centre de données et les succursales et sous-succursales. Assurer la réutilisation des lignes longue distance et l'accès au réseau fédérateur ; concevoir le réseau d'accès pour fournir un routage d'accès lors de l'échange de données entre les succursales et les points de vente afin de réaliser la réutilisation des lignes de sortie et l'accès aux terminaux.
Type d'architecture
1. Réseau étendu à cœur unique
Un WAN monocœur se compose généralement d'un périphérique de routage principal et de chaque réseau local, comme le montre la figure 4-13. L'équipement de routage de base utilise des commutateurs de couche 3 et supérieure. L'accès entre les réseaux locaux au sein du réseau nécessite un équipement de routage de base.
Il n'y a aucun autre périphérique de routage entre les réseaux locaux du réseau. Des lignes de diffusion sont utilisées entre chaque réseau local et l'équipement de routage principal. Les interfaces d'interconnexion entre les équipements de routage et chaque LAN appartiennent au sous-réseau LAN correspondant. L'équipement de routage principal et chaque réseau local peuvent être connectés à l'aide d'interfaces Ethernet 10 M/100 M/GE. Ce type de réseau a une structure simple et permet d'économiser des investissements en équipements. Chaque réseau local accède au réseau local principal et entre eux avec une grande efficacité. Il est plus pratique pour le nouveau réseau local du département de se connecter au WAN, à condition que l'équipement de routage principal dispose de ports. Cependant, il existe un risque qu’un seul point de défaillance dans l’équipement de routage principal puisse facilement entraîner la défaillance de l’ensemble du réseau. La capacité d'expansion du réseau est faible et la densité de ports de l'équipement de routage principal doit être élevée.
2. WAN double cœur
Un WAN double cœur se compose généralement de deux périphériques de routage principaux et de chaque réseau local, comme le montre la figure 4-14.
La principale caractéristique du modèle WAN double cœur est que l'équipement de routage principal utilise généralement des commutateurs à trois couches et plus. L'équipement de routage principal est généralement connecté à chaque réseau local via des interfaces Ethernet telles que 10M/100M/GE. L'accès entre les réseaux locaux du réseau nécessite deux périphériques de routage principaux. Il n'existe aucun autre périphérique de routage entre les réseaux locaux pour l'accès professionnel. Implémentez une protection de passerelle ou un équilibrage de charge entre les principaux périphériques de routage. Il existe plusieurs options de chemin pour que chaque réseau local puisse accéder au réseau local principal et entre eux, avec une plus grande fiabilité pouvant être obtenue au niveau du routage, offrant ainsi des capacités d'accès pour la continuité des activités. Lorsque l'interface de l'équipement de routage principal est réservée, le nouveau réseau local est facilement accessible. Cependant, l’investissement en équipement est supérieur à celui d’un WAN monocœur. La conception de redondance de routage des équipements de routage de base est difficile à mettre en œuvre et peut facilement former des boucles de routage. Le réseau a des exigences de densité de ports plus élevées pour les équipements de routage de base.
3. Réseau étendu en anneau
Un réseau étendu en anneau utilise généralement plus de trois routeurs principaux pour former une boucle de routage afin de connecter divers réseaux locaux et de réaliser un accès mutuel aux services WAN.
La principale caractéristique d'un réseau étendu en anneau est que l'équipement de routage principal utilise généralement des commutateurs à trois couches ou plus. L'équipement de routage principal et chaque réseau local sont généralement connectés via des interfaces Ethernet telles que 10M/100M/GE. L'accès entre les réseaux locaux au sein du réseau doit passer par un anneau formé de périphériques de routage principaux. Il n'existe aucun autre périphérique de routage pour un accès mutuel entre les réseaux locaux. Les dispositifs de routage principaux sont équipés de mécanismes de protection de passerelle ou d'équilibrage de charge, ainsi que de fonctions de contrôle de boucle. Chaque réseau local dispose de plusieurs chemins parmi lesquels choisir pour accéder au réseau local principal ou entre eux, avec une plus grande fiabilité pouvant être obtenue au niveau du routage pour garantir la continuité de l'accès professionnel.
Lorsque l'interface de l'équipement de routage de base est réservée, le nouveau réseau local du département est facilement accessible. Cependant, l'investissement en équipement est supérieur à celui du WAN double cœur, et la conception de redondance de routage de l'équipement de routage principal est difficile à mettre en œuvre et des boucles de routage se forment facilement. La topologie en anneau doit occuper davantage de ports et le réseau a des exigences de densité de ports plus élevées pour les équipements de routage de base.
4. WAN semi-redondant
Un WAN semi-redondant est constitué de plusieurs périphériques de routage principaux connectant différents réseaux locaux, comme le montre la figure 4-16. Parmi eux, tout périphérique de routage principal possède au moins deux liens ou plus connectés à d’autres périphériques de routage. Un cas particulier de WAN semi-redondant est un WAN entièrement redondant s'il existe une liaison entre deux périphériques de routage principaux.
Les principales caractéristiques du WAN semi-redondant sont une structure flexible et une extension facile. Certains dispositifs de routage du cœur du réseau peuvent adopter des mécanismes de protection de passerelle ou d'équilibrage de charge ou avoir des fonctions de contrôle de boucle. La structure du réseau est maillée et il existe plusieurs chemins permettant à chaque réseau local d'accéder au réseau local principal et entre eux, avec une grande fiabilité. La sélection du routage au niveau du routage est plus flexible. La structure du réseau est adaptée au déploiement de protocoles de routage à état de liens tels que OSPF. Cependant, la structure du réseau est fragmentée et difficile à gérer et à dépanner.
5. WAN de sous-domaine peer-to-peer
Le réseau de sous-domaines peer-to-peer divise l'équipement de routage du WAN en deux sous-domaines indépendants, et chaque équipement de routage de sous-domaine est interconnecté de manière semi-redondante. Les deux sous-domaines sont interconnectés via une ou plusieurs liaisons, et tout périphérique de routage du sous-domaine homologue peut accéder au réseau local, comme le montre la figure 4-17.
La principale caractéristique du WAN de sous-domaines peer-to-peer est que l'accès mutuel entre les sous-domaines peer-to-peer est dominé par les liens d'interconnexion entre les sous-domaines peer-to-peer. Un résumé de route ou une correspondance détaillée d'entrée de route peut être réalisé entre des sous-domaines homologues, et le contrôle de route est flexible. Généralement, la bande passante des liens entre sous-domaines doit être supérieure à la bande passante des liens au sein des sous-domaines. La conception de redondance de routage inter-domaines est difficile à mettre en œuvre et peut facilement former des boucles de routage ou courir le risque de publier des routes illégales. Les exigences de performances de routage des équipements de routage de frontière de domaine sont relativement élevées. Les protocoles de routage du réseau sont principalement du routage dynamique. Les sous-domaines peer-to-peer conviennent aux scénarios dans lesquels le WAN peut être clairement divisé en deux zones et l'accès au sein de ces zones est relativement indépendant.
6. réseau étendu de sous-domaines hiérarchiques
La structure hiérarchique des sous-domaines WAN divise les grands équipements de routage WAN en plusieurs sous-domaines relativement indépendants. L'équipement de routage dans chaque sous-domaine est interconnecté de manière semi-redondante entre plusieurs sous-domaines de haut niveau reliant plusieurs sous-domaines. sous-domaines de niveau. Tout périphérique de routage du sous-domaine hiérarchique peut accéder au réseau local, comme le montre la figure 4-18.
La principale caractéristique des sous-domaines hiérarchiques est que la structure hiérarchique des sous-domaines a une meilleure évolutivité. L'accès mutuel entre les sous-domaines de bas niveau doit être complété par des sous-domaines de haut niveau. La mise en œuvre d'une conception de redondance de routage inter-domaines est difficile, il est facile de former des boucles de routage et il existe un risque de publication de routes illégales. La bande passante du lien entre les sous-domaines doit être supérieure à la bande passante du lien au sein du sous-domaine. Les exigences de performances de routage et de transfert des dispositifs de routage de frontière de domaine utilisés pour l'accès mutuel de domaine sont relativement élevées. Les protocoles de routage des périphériques de routage sont principalement du routage dynamique, tel que le protocole OSPF. L'interconnexion entre les sous-domaines hiérarchiques et le réseau externe de niveau supérieur est principalement réalisée à l'aide de sous-domaines de haut niveau ; l'interconnexion avec le réseau externe de niveau inférieur est principalement réalisée à l'aide de sous-domaines de bas niveau.
V. Architecture du réseau de communication mobile
Les réseaux de communication mobile soutiennent fortement l'Internet mobile, en particulier les réseaux 5G, qui fournissent des services diversifiés aux utilisateurs individuels, aux industries verticales, etc.
Les applications professionnelles courantes de la 5G incluent :
1. Interconnexion 5GS (Système 5G) et DN (Data Network)
Lorsque la 5GS fournit des services aux utilisateurs de terminaux mobiles (équipement utilisateur, UE), elle nécessite généralement un réseau DN, tel qu'Internet, IMS (IP Media Subsystem), un réseau privé et d'autres interconnexions pour fournir les services requis à l'UE. Les éléments du réseau UPF dans 5GS servent de point d'accès du DN pour divers services Internet, vocaux, AR/VR, de contrôle industriel et sans conducteur. 5GS et DN sont interconnectés via l'interface N6 définie par 5GS, comme le montre la figure 4-19.
Le Réseau 5G appartient à la catégorie 5G et comprend plusieurs entités fonctionnelles de réseau, telles que AMF/SMF/PCF/NRF/NSSF, etc. Par souci de simplicité, seules les entités fonctionnelles réseau étroitement liées aux sessions utilisateur sont marquées sur la figure.
Lorsque 5GS et DN sont interconnectés sur la base d'IPv4/IPv6, du point de vue DN, UPF peut être considéré comme un routeur ordinaire. Au contraire, du point de vue de la 5GS, les appareils interconnectés avec UPF via l'interface N6 sont généralement des routeurs. En d’autres termes, il existe une relation de routage entre 5GS et DN. Le flux de service de l'UE accédant au DN est transmis entre eux via une configuration de routage bidirectionnel. En ce qui concerne le réseau 5G, le flux de services circulant de l'UE vers le DN est appelé flux de services de liaison montante (UL, UpLink) ; le flux de services circulant de DN vers l'UE est appelé flux de services de liaison descendante (DL, DownLink). Le flux de service UL est transmis au DN via la route configurée sur l'UPF ; le flux de service DL est transmis à l'UPF via la route configurée sur le routeur adjacent à l'UPF.
De plus, du point de vue de la manière dont l’UE accède au DN via 5GS, il existe deux modes :
(1) Mode transparent
En mode transparent, 5GS se connecte directement au réseau IP spécifique de l'opérateur via l'interface N6 de l'UPF, puis se connecte au DN (c'est-à-dire au réseau IP externe), tel qu'Internet, via un pare-feu ou un serveur proxy. L'attribution des UE est planifiée par l'opérateur Adresse IP dans l'espace d'adressage réseau. Lorsque l'UE lance une demande d'établissement de session auprès du 5GS, le 5GS ne déclenche généralement pas le processus d'authentification auprès du serveur DN-AAA externe, comme le montre la figure 4-20.
Dans ce mode, 5GS fournit au moins un service FAI de base pour l’UE. Pour la 5GS, il suffit de fournir des informations de base Le service de flux Tunnel QoS est suffisant. Lorsqu'un UE accède à un réseau intranet, la configuration au niveau de l'UE n'est effectuée qu'indépendamment entre l'UE et le réseau intranet, ce qui est transparent pour le 5GS.
(2) Mode non transparent
En mode non transparent, 5GS peut accéder directement à l'intranet/FAI ou accéder via d'autres réseaux IP (comme Internet) Intranet/FAI. Par exemple, si 5GS accède à l'Intranet/FAI via Internet, il est généralement nécessaire d'établir un tunnel dédié entre l'UPF et l'Intranet/FAI pour transférer l'accès de l'UE au service Intranet/FAI. L'UE se voit attribuer une adresse IP appartenant à l'espace d'adressage Intranet/ISP. Cette adresse est utilisée pour transférer les services UE dans UPF et Intranet/ISP, comme le montre la Figure 4-21.
En résumé, l'UE accède au serveur de service intranet/FAI via 5GS, ce qui peut être effectué sur n'importe quel réseau tel qu'Internet. Même si cela n'est pas sûr, la protection des communications de données peut être basée sur un certain protocole de sécurité. entre UPF et Intranet/FAI. Le protocole de sécurité utilisé est négocié entre l'opérateur mobile et le fournisseur d'intranet/FAI.
Dans le cadre de l'établissement de la session UE, SMF dans 5GS lance généralement l'authentification de l'UE en initiant un serveur DN-AAA externe (tel que le serveur Radius, Diameter). Une fois l'authentification réussie de l'UE, l'établissement de la session de l'UE peut être achevé, puis l'UE peut accéder aux services Internet/ISP.
2. Informatique de pointe du réseau 5G
Les réseaux 5G changent l’orientation précédente centrée sur les appareils et les entreprises et prônent un concept centré sur l’utilisateur. Si les réseaux 5G fournissent des services aux utilisateurs, ils accordent également davantage d’attention à l’expérience de service des utilisateurs, QoE (Qualité d’Expérience). Parmi elles, la fourniture de capacités informatiques de pointe du réseau 5G est l’une des mesures importantes pour responsabiliser les industries verticales et améliorer la QoE des utilisateurs.
L'architecture Mobile Edge Computing (MEC) du réseau 5G est illustrée à la Figure 4-22. Elle prend en charge le déploiement d'éléments de réseau UPF 5G à la périphérie du réseau mobile à proximité de l'UE de l'utilisateur final, combiné au déploiement d'une périphérie. (Mobile Edge Platform) à la périphérie du réseau mobile, MEP), fournit aux industries verticales des services de déchargement d'entreprises à proximité caractérisés par une bande passante élevée et sensible au temps. Par conséquent, d’une part, il offre aux utilisateurs une excellente expérience de service et, d’autre part, il réduit la pression sur le traitement back-end du réseau mobile.
L'application propre de l'opérateur ou l'application tierce AF (Application Function) déclenche la génération dynamique par le réseau 5G de politiques de déchargement locales pour les applications de périphérie via l'élément de réseau de fonction d'ouverture de capacité NEF (Network Exposure Function) fourni par 5GS, qui est contrôlé par PCF ( Fonction de facturation de politique) Configurez ces politiques sur le SMF approprié. Le SMF implémente dynamiquement l'insertion ou la suppression de l'UPF (c'est-à-dire l'UPF déployé dans le cloud périphérique mobile) dans la session utilisateur en fonction des informations d'emplacement de l'utilisateur final ou des informations de changement d'emplacement après. l'utilisateur se déplace et décharge ces UPF. La configuration dynamique des règles permet aux utilisateurs d'accéder aux services requis.
De plus, dans une perspective de continuité d'activité, le réseau 5G peut fournir le mode SSC 1 (le point d'accès IP de la session utilisateur reste inchangé pendant le mouvement de l'utilisateur), le mode SSC 2 (le réseau déclenche la libération de la session existante de l'utilisateur pendant (déplacement de l'utilisateur) et déclenche immédiatement l'établissement d'une nouvelle session), mode SSC 3 (établit une nouvelle session avant de libérer la session existante de l'utilisateur lors du déplacement de l'utilisateur) au choix du prestataire de service ASP (Application Service Provider) ou de l'opérateur.
VI. réseau défini par logiciel
Voir la section 5 du chapitre 2, section 2.1.2 de ce livre.
七、 architecture de sécurité
I. menaces à la sécurité
Actuellement, les organisations hébergent davantage d'entreprises sur des cloud hybrides, ce qui rend plus difficile la protection des données des utilisateurs et des entreprises. L'environnement complexe composé d'infrastructures locales et de plusieurs cloud publics et privés a rendu les utilisateurs plus conscients des exigences élevées en matière de sécurité du cloud hybride. Cette vulgarisation et cette application auront deux effets :
① Les opérations commerciales de tous les horizons dépendent presque entièrement des ordinateurs, des réseaux et du stockage dans le cloud. Diverses données importantes telles que les documents gouvernementaux, les archives, les comptes bancaires, les informations commerciales et personnelles dépendront toutes du stockage et de la transmission des ordinateurs et des informations personnelles. réseaux;
② Les gens ont une compréhension plus complète des ordinateurs, et de plus en plus de technologies informatiques sont utilisées illégalement par des personnes de niveau supérieur, qui utilisent divers moyens pour voler ou attaquer les ressources d'information.
À l’heure actuelle, les menaces que peuvent subir les systèmes d’information peuvent être résumées comme suit : Il est divisé en 4 aspects suivants
1. Pour les systèmes d’information, les menaces peuvent cibler l’environnement physique, les liaisons de communication, les systèmes réseau, les systèmes d’exploitation, les systèmes d’application et les systèmes de gestion.
2. Les menaces de sécurité physique font référence aux menaces pesant sur l'équipement utilisé dans le système, telles que les catastrophes naturelles, les pannes de courant, l'échec du démarrage du système d'exploitation ou la perte d'informations de base de données, le vol/la destruction d'équipement entraînant une perte de données ou une fuite d'informations ;
3. Les menaces pour la sécurité des liaisons de communication font référence à l'installation de dispositifs d'écoute clandestine sur les lignes de transmission ou à l'interférence avec les liaisons de communication ;
4. Les menaces à la sécurité des réseaux font référence au fait qu'en raison de l'ouverture et de l'internationalisation d'Internet, les utilisateurs peuvent facilement voler des informations sur Internet par des moyens techniques, ce qui constitue une menace sérieuse pour la sécurité du réseau ;
5. Les menaces de sécurité du système d'exploitation font référence aux menaces implantées dans les puces logicielles ou matérielles de la plate-forme système, telles que les « chevaux de Troie », les « trappes » et les mots de passe universels dans le BIOS ;
6. Les menaces à la sécurité des systèmes d'application font référence aux menaces contre la sécurité des services réseau ou des systèmes métier des utilisateurs, et sont également menacées par des « chevaux de Troie » et des « trappes » ;
7. Les menaces de sécurité du système de gestion font référence à des vulnérabilités de sécurité d'origine humaine causées par une négligence dans la gestion du personnel, telles que le vol d'informations informatiques par copie artificielle, prise de photos, transcription et autres moyens.
Les menaces de sécurité courantes incluent :
(1) fuite d'informations
Les informations sont divulguées ou divulguées à une entité non autorisée.
(2) Détruire l’intégrité des informations
Les données sont perdues en raison d'un ajout, d'une suppression, d'une modification ou d'une destruction non autorisée.
(3) Déni de service
L'accès légitime à l'information ou à d'autres ressources est bloqué de manière inconditionnelle.
(4) Accès illégal (accès non autorisé)
Une ressource est utilisée par une personne non autorisée ou de manière non autorisée.
(5) tapotement
Utilisez tous les moyens légaux ou illégaux possibles pour voler des ressources d’information et des informations sensibles dans le système. Par exemple, surveiller les signaux transmis dans les lignes de communication ou utiliser les fuites électromagnétiques générées par les équipements de communication pendant le fonctionnement pour intercepter des informations utiles.
(6) analyse des flux commerciaux
Grâce à la surveillance à long terme du système, des méthodes d'analyse statistique sont utilisées pour analyser des facteurs tels que la fréquence et la communication. Mener des recherches sur les changements dans le flux d’informations et le volume total de communication pour découvrir des informations et des modèles précieux.
(7) Contrefaire
En trompant le système de communication (ou l'utilisateur), le but est d'atteindre l'objectif d'utilisateurs illégaux se faisant passer pour des utilisateurs légitimes, ou d'utilisateurs dotés de faibles privilèges se faisant passer pour des utilisateurs dotés de privilèges élevés. Les pirates utilisent principalement l’usurpation d’identité pour attaquer.
(8) Contrôle de contournement
Un attaquant profite des failles de sécurité ou des vulnérabilités d'un système pour obtenir des droits ou privilèges non autorisés. Par exemple, les attaquants utilisent diverses méthodes d'attaque pour découvrir certaines « fonctionnalités » du système qui devraient rester secrètes mais qui sont exposées. Grâce à ces « fonctionnalités », les attaquants peuvent contourner les défenseurs et pénétrer dans le système.
(9) Violation de licence
Une personne autorisée à utiliser un système ou une ressource dans un certain but utilise cette autorisation à d'autres fins non autorisées, également appelées « attaque interne ».
(10) cheval de Troie
Le logiciel contient un segment de programme indétectable ou inoffensif qui, une fois exécuté, détruit Sécurité des utilisateurs. Ce type d'application s'appelle un cheval de Troie.
(11) trappe
Un « châssis » est installé dans un système ou un composant pour permettre les violations des politiques de sécurité lorsque des données d'entrée spécifiques sont fournies.
(12) refuser
Il s'agit d'une attaque de l'utilisateur, par exemple en niant un message qu'il a posté ou en falsifiant une lettre de l'autre partie.
(13) rejouer
Une sauvegarde de données de communication légitime qui a été interceptée et retransmise à des fins illégales.
(14) virus informatique
Le soi-disant virus informatique est un programme fonctionnel qui peut infecter et violer pendant le fonctionnement du système informatique. Un virus a généralement deux fonctions : l'une consiste à « infecter » d'autres programmes ; l'autre est de causer des dommages ou de permettre d'implanter une attaque.
(15) malversation du personnel
Une personne autorisée divulgue des informations à une personne non autorisée dans un but lucratif ou lucratif, ou par négligence.
(16) débris médiatiques
Les informations sont obtenues à partir de disques mis au rebut ou de supports de stockage imprimés.
(17) intrusion physique
Les intrus accèdent à un système en contournant les contrôles physiques.
(18) voler
Des éléments de sécurité importants tels que des jetons ou des cartes d'identité sont volés.
(19) tromperie commerciale
Un faux système ou composant de système qui incite les utilisateurs ou systèmes légitimes à divulguer volontairement des informations sensibles.
II. Définition et portée
L'architecture de sécurité est une subdivision qui se concentre sur la sécurité des systèmes d'information au niveau architectural.
La sécurité se reflète dans les systèmes d'information. L'architecture habituelle de sécurité du système, l'architecture technologique de sécurité et l'architecture d'audit peuvent former trois lignes de défense de sécurité.
1. Architecture de sécurité du système
L'architecture de sécurité du système fait référence aux principaux composants qui construisent les attributs de qualité de sécurité des systèmes d'information et aux relations entre eux.
L’objectif de l’architecture de sécurité des systèmes est de savoir comment construire sa propre sécurité à partir de la source sans recourir à des systèmes de défense externes.
2. Architecture technologique de sécurité
L'architecture technologique de sécurité fait référence aux principaux composants de la construction d'un système technologique de sécurité et aux relations entre eux.
La tâche de l'architecture technologique de sécurité est de construire une infrastructure technologique de sécurité générale, comprenant une infrastructure de sécurité, des outils et technologies de sécurité, des composants de sécurité et des systèmes de support, etc., afin d'améliorer systématiquement les capacités de défense de sécurité de chaque partie.
3. Architecture d'audit
La structure d'audit fait référence au service d'audit indépendant ou aux capacités de découverte des risques qu'il peut fournir. La portée de l'audit comprend principalement tous les risques, y compris les risques de sécurité.
Lorsque les gens conçoivent un système, ils doivent généralement identifier les menaces de sécurité auxquelles le système peut être confronté. En effectuant une évaluation raisonnable des menaces de sécurité auxquelles le système est confronté et en mettant en œuvre les mesures de contrôle correspondantes, des technologies de sécurité efficaces et raisonnables sont proposées pour former une sécurité. méthode qui améliore la sécurité du système d’information. La solution est l’objectif fondamental de la conception d’une architecture de sécurité. Dans les applications pratiques, la conception de l'architecture de sécurité peut être considérée du point de vue des technologies de sécurité, telles que le cryptage et le déchiffrement, la technologie de sécurité des réseaux, etc.
III. Conception architecturale globale
一、 Le cadre du système d'assurance de la sécurité de l'information doit comprendre trois parties : le système technique, le système organisationnel et le système de gestion. En d’autres termes, les personnes, la gestion et les moyens techniques sont les trois éléments majeurs de la conception de l’architecture de sécurité de l’information, et la construction d’un cadre dynamique de système d’assurance de la sécurité de l’information et des réseaux est la garantie de la sécurité du système.
二、 En réponse aux problèmes de protection de la sécurité des réseaux, divers pays ont proposé plusieurs modèles et architectures de systèmes de sécurité des réseaux, tels que PDRR. (Protection/Détection/Réaction/Récupération, Protection/Détection/Réponse/Récupération), modèle P2DR (Politique/Protection/Détection/Réponse, Politique de sécurité/Protection/Détection/Réponse).
三、 Modèle WPDRRC
WPDRRC (Waring/Protect/Detect/React/Restore/Counterattack) est un modèle de construction de système d'assurance de la sécurité des systèmes d'information proposé par le groupe d'experts en sécurité de l'information de mon pays.
WPDRRC est basé sur le modèle de système de sécurité de l’information PDRR et ajoute des fonctions d’alerte précoce et de contre-attaque.
Dans le modèle PDRR, le concept de sécurité s'est étendu de la sécurité des informations à l'assurance des informations. La connotation de l'assurance des informations a dépassé la combinaison traditionnelle de la sécurité et de la confidentialité des informations. Le modèle PDRR prend comme base la protection de la sécurité des informations, traite la protection comme un processus actif et utilise des méthodes de détection pour découvrir les vulnérabilités de sécurité et les corriger en temps opportun. Dans le même temps, des mesures d'intervention d'urgence sont utilisées pour faire face à diverses intrusions. Après une intrusion dans le système, des mesures correspondantes doivent être prises pour restaurer le système à son état normal. Ce n'est qu'ainsi que la sécurité des informations peut être pleinement garantie. Le modèle met l'accent sur la capacité de récupération automatique des pannes.
Les six liens comprennent : l'alerte précoce (W), la protection (P), la détection (D), la réponse (R), la récupération (R) et la contre-attaque (C). Ils ont un timing et une dynamique forts et peuvent mieux refléter l'alerte précoce. , capacités de protection, de détection, de réponse, de récupération et de contre-attaque du système de sécurité du système d'information.
(1) Alerte précoce (W)
Il s'agit principalement de l'utilisation de la technologie d'attaque simulée fournie par le système d'évaluation de la sécurité à distance pour vérifier les éventuelles faiblesses exploitées du système, collecter et tester les risques de sécurité du réseau et des informations, et générer des rapports de manière intuitive pour proposer des solutions.
(2) Protéger(P)
La protection adopte généralement des technologies et des méthodes matures de sécurité de l’information pour assurer la sécurité des réseaux et des informations.
Le contenu principal comprend le mécanisme de cryptage, le mécanisme de signature numérique, le mécanisme de contrôle d'accès, le mécanisme d'authentification, la masquage d'informations et la technologie de pare-feu, etc.
(3) Détection (D)
Les tests consistent à détecter et à surveiller les réseaux et les systèmes pour découvrir de nouvelles menaces et faiblesses et appliquer des politiques de sécurité.
Dans ce processus, des technologies telles que la détection des intrusions et le filtrage des codes malveillants sont utilisées pour former un système de détection dynamique et récompenser le mécanisme de coordination des rapports afin d'améliorer la nature de la détection en temps réel.
Les contenus principaux incluent la détection des intrusions, la détection des vulnérabilités du système, la détection de l'intégrité des données et la détection des attaques, etc.
(4) Réponse(R)
Cela signifie qu'après avoir détecté des vulnérabilités et des événements de sécurité, des réponses correctes doivent être apportées en temps opportun pour ajuster le système à un état sûr. À cette fin, des systèmes d’alarme, de suivi et de traitement correspondants sont nécessaires, comprenant des capacités de blocage, d’isolement, de reporting et autres.
Le contenu principal comprend les stratégies d'urgence, les mécanismes d'urgence, les moyens d'urgence, l'analyse des processus d'intrusion et l'évaluation de l'état de sécurité, etc.
(5) Récupération(R)
Il s'agit de l'utilisation des moyens techniques nécessaires pour restaurer le système à la normale dans les plus brefs délais après que le réseau, les données et les services actuels aient été attaqués par des pirates informatiques et endommagés ou affectés.
Les contenus principaux incluent la tolérance aux pannes, la redondance, la sauvegarde, le remplacement, la réparation et la récupération, etc.
(6) Contre-attaque (C)
Il s'agit d'utiliser tous les moyens de haute technologie possibles pour détecter et extraire des indices et des preuves criminelles de criminels informatiques afin de constituer de solides capacités de collecte de preuves et de méthodes d'attaque légales.
Les trois éléments majeurs sont : les personnes, la stratégie et la technologie. Les gens sont au cœur, la stratégie est le pont et la technologie est la garantie.
Après des années de développement, les modèles de systèmes de sécurité réseau ont formé des modèles tels que PDP, PPDR, PDRR, MPDRR et WPDRRC. Ces modèles ont des fonctions plus complètes en matière de prévention de la sécurité de l'information.
四、 Conception architecturale
Les exigences de sécurité des systèmes d'information ne peuvent être satisfaites par une seule technologie de sécurité. Pour concevoir une architecture de sécurité de l'information, un modèle d'architecture de sécurité approprié doit être sélectionné.
La conception de la sécurité des systèmes d’information s’articule autour de deux aspects :
1. Système de sécurité du système
Le système d'assurance de sécurité est composé de trois niveaux : service de sécurité, niveau de protocole et unité système, et chaque couche couvre le contenu de la gestion de la sécurité.
Le travail de conception du système d'assurance de la sécurité du système prend principalement en compte les points suivants :
(1) Détermination de la stratégie de zone de sécurité
Sur la base de la division des zones de sécurité, les autorités compétentes devraient formuler des stratégies de sécurité ciblées. Tels qu'une évaluation d'audit régulière, l'installation d'un système de détection d'intrusion, une autorisation unifiée, une certification, etc.
(2) Configuration et gestion unifiées des systèmes antivirus
Les autorités compétentes devraient établir une stratégie de défense globale pour parvenir à une configuration et une gestion unifiées. Les stratégies antivirus réseau doivent répondre aux exigences d’exhaustivité, de facilité d’utilisation, de performances en temps réel et d’évolutivité.
(3) Gestion de la sécurité des réseaux et de l'information
En matière de sécurité des réseaux, outre l'adoption de certaines mesures techniques, il est également nécessaire de renforcer la gestion de la sécurité des réseaux et de l'information et de formuler des règles et réglementations pertinentes. Dans une gestion pertinente, toute mesure de garantie de sécurité doit en fin de compte être mise en œuvre dans des règles et réglementations de gestion spécifiques et des responsabilités de gestion spécifiques, et être réalisée par le travail des gestionnaires.
2. Architecture de sécurité des informations
Grâce à une compréhension globale des applications du système d'information, le travail de conception de l'architecture du système de sécurité est effectué conformément aux risques de sécurité, aux résultats de l'analyse des exigences, aux politiques de sécurité et aux objectifs de sécurité des réseaux et de l'information.
Plus précisément dans le système de contrôle de sécurité, les travaux d'analyse et de conception peuvent être effectués sous cinq aspects
(1) sécurité physique
Assurer la sécurité physique des différents équipements des systèmes d’information informatiques est une condition préalable pour assurer la sécurité de l’ensemble du système réseau.
La sécurité physique est le processus de protection des équipements, installations et autres supports de réseau informatique contre les dommages causés par des accidents environnementaux tels que les tremblements de terre, les inondations et les incendies, ainsi que par les erreurs ou erreurs opérationnelles humaines et divers délits informatiques.
La sécurité physique comprend principalement : la sécurité environnementale, la sécurité des équipements, la sécurité des médias, etc.
(2) sécurité du système
La sécurité du système fait principalement référence aux exigences de sécurité de chaque composant du système d’information.
La sécurité du système est la base de la sécurité globale du système.
Il comprend principalement la sécurité de la structure du réseau, la sécurité du système d’exploitation et la sécurité du système d’application.
(3) la cyber-sécurité
La cybersécurité est la clé de la solution de sécurité globale.
Il comprend principalement le contrôle d'accès, la confidentialité des communications, la détection des intrusions, l'analyse de la sécurité du réseau et l'antivirus.
(4) Sécurité des applications
La sécurité des applications fait principalement référence aux problèmes de sécurité causés par les ressources partagées et les opérations de stockage d'informations lorsque plusieurs utilisateurs utilisent des systèmes réseau.
Il comprend principalement deux aspects : le partage de ressources et le stockage d’informations.
(5) Gestion de la sécurité
Principalement reflété dans trois aspects : formuler un système de gestion de la sécurité solide, construire une plate-forme de gestion de la sécurité plateforme pour renforcer la sensibilisation du personnel à la sécurité.
五、 Points de conception
I. Points clés de la conception de la sécurité du système
Le domaine de la sécurité de la structure du réseau se concentre sur la question de savoir si la topologie du réseau est raisonnable, si les lignes sont redondantes, si le routage est redondant et si l'on évite les points de défaillance uniques.
La sécurité du système d'exploitation se concentre sur deux aspects : ① Mesures qui peuvent être prises pour empêcher la sécurité du système d'exploitation, telles que : essayer d'utiliser un système d'exploitation réseau plus sécurisé et effectuer les configurations de sécurité nécessaires, fermer certaines applications qui ne sont pas couramment utilisées mais qui présentent des risques de sécurité. , Utilisez les autorisations pour restreindre ou renforcer l'utilisation des mots de passe, etc. ② En équipant le système d'analyse de sécurité du système d'exploitation pour effectuer des analyses de sécurité sur le système d'exploitation, découvrir les vulnérabilités et effectuer une mise à niveau en temps opportun.
En termes de sécurité du système d'application, concentrez-vous sur le serveur d'applications et essayez de ne pas ouvrir certains protocoles et ports de protocole rarement utilisés, tels que les services de fichiers, les serveurs de messagerie, etc. Vous pouvez désactiver des services tels que HTTP, FTP, Telnet, etc. sur le serveur. L'authentification de l'identité de connexion peut être renforcée pour garantir la légalité de l'utilisation des utilisateurs.
II. Éléments essentiels de la conception de la sécurité des réseaux
L'isolement et le contrôle d'accès doivent disposer d'un système de contrôle strict, et une série de mesures de gestion telles que des « règles de mise en œuvre de l'autorisation des utilisateurs », des « spécifications de gestion des mots de passe et des comptes » et une « formulation de gestion des autorisations » peuvent être formulées.
Equiper un pare-feu est la mesure de sécurité la plus élémentaire, la plus économique et la plus efficace en matière de sécurité réseau. L'isolement et le contrôle d'accès entre les réseaux internes et externes ou les différents domaines de confiance du réseau interne sont obtenus grâce à des politiques de sécurité strictes du pare-feu. Le pare-feu peut mettre en œuvre un contrôle unidirectionnel ou bidirectionnel et mettre en œuvre un contrôle d'accès plus fin pour certains niveaux élevés. protocoles de niveau supérieur.
La détection d'intrusion nécessite une surveillance et un enregistrement en temps réel de toutes les opérations entrant et sortant du segment de réseau sur la base des codes d'information des méthodes d'attaque existantes et récentes, et la mise en œuvre de réponses (blocage, alarme et envoi d'e-mails) selon les stratégies établies. Cela empêche les attaques et les crimes contre le réseau. Les systèmes de détection d'intrusion comprennent généralement une console et des détecteurs (moteurs de réseau). La console est utilisée pour formuler et gérer tous les détecteurs (moteurs de réseau). Le moteur de réseau est utilisé pour surveiller les comportements d'accès dans et hors du réseau et exécuter les comportements correspondants en fonction. les instructions de la console.
La protection antivirus est un moyen nécessaire à la sécurité du réseau, car dans l'environnement réseau, les virus informatiques présentent des menaces et un pouvoir destructeur incommensurables. Le système d'exploitation (tel que le système Windows) utilisé dans les systèmes réseau est sujet aux infections virales. Par conséquent, la prévention des virus informatiques est également l'un des aspects importants à prendre en compte dans la construction de la sécurité du réseau. La technologie antivirus comprend trois types : prévention des virus, détection des virus et antivirus.
III. Éléments essentiels de la conception de la sécurité des applications
Le partage des ressources doit contrôler strictement l'utilisation des ressources partagées du réseau par les employés internes. En règle générale, les répertoires partagés ne doivent pas être facilement ouverts dans les sous-réseaux internes, sinon des informations importantes pourraient être divulguées en raison d'une négligence lors de l'échange d'informations entre les employés. Pour les utilisateurs qui ont besoin d'échanger fréquemment des informations, un mécanisme d'authentification par mot de passe nécessaire doit être ajouté lors du partage, c'est-à-dire que seul l'authentification par mot de passe peut permettre l'accès aux données.
Le stockage des informations fait référence aux hôtes utilisateur qui impliquent des informations secrètes. Les utilisateurs doivent essayer d'ouvrir le moins de services réseau inhabituels possible pendant le processus de candidature. Effectuez une sauvegarde sécurisée de la base de données sur le serveur de données. La base de données peut être sauvegardée et stockée à distance via le système de sauvegarde réseau.
IV. Points clés de la conception de la gestion de la sécurité
L'établissement et l'amélioration d'un système de gestion de la sécurité seront une garantie importante pour la réalisation de la sécurité du réseau. Vous pouvez formuler des procédures d'opération de sécurité, des systèmes de récompense et de punition pour les incidents de sécurité en fonction de votre situation réelle, et nommer des responsables de la sécurité qui seront entièrement responsables de la supervision et du contrôle. conseils.
La création d'une plateforme de gestion de la sécurité réduira de nombreux risques causés par des facteurs humains involontaires. La création d'une plate-forme de gestion de la sécurité peut fournir une protection technique, telle que la formation d'un sous-réseau de gestion de la sécurité, l'installation d'un logiciel de gestion de la sécurité centralisé et unifié, de systèmes de gestion des équipements réseau et d'un logiciel de gestion unifié des équipements de sécurité réseau, etc., pour assurer la gestion de la sécurité de l'ensemble du réseau. via la plateforme de gestion de la sécurité.
Une formation de sensibilisation à la prévention de la sécurité des réseaux doit être dispensée fréquemment aux employés de l’unité afin d’améliorer globalement leur sensibilisation aux méthodes de sécurité globales.
六、 Exemple d'architecture
Le système de contrôle de sécurité fait ici référence à un système qui peut fournir une méthode de protection de sécurité hautement fiable, qui peut éviter au maximum l'état dangereux des équipements associés, prévenir l'apparition d'accidents violents ou réduire autant que possible les pertes après l'accident, et protéger l'appareil de production et surtout la sécurité personnelle.
L'architecture adopte une structure hiérarchique traditionnelle, divisée en couche de données, couche de fonctions et couche de présentation. La couche de données gère principalement les données organisationnelles de manière unifiée et les stocke, les isole et les protège en fonction des différentes caractéristiques de sécurité des données. La couche fonctionnelle est la fonction principale de la prévention de la sécurité du système, y compris la surveillance de la disponibilité, le support des services et la surveillance de la sécurité. La surveillance de la disponibilité met principalement en œuvre des capacités de surveillance en matière de sécurité du réseau, de sécurité du système et de sécurité des applications ; le processus métier dans le support des services comprend la conception de la gestion de la sécurité et réalise la plupart des fonctions de gestion de l'exploitation et de la maintenance dans un environnement de gestion de la sécurité. La surveillance de la sécurité se concentre principalement sur tout système dangereux ; Les phénomènes découverts seront traités en conséquence, couvrant le traçage des menaces, l'évaluation de l'audit du domaine de sécurité, l'autorisation, la certification, etc., ainsi que l'analyse et l'évaluation des risques. La couche présentation complète principalement la mise en œuvre de divers types de fonctions applicatives utilisateur incluant l'utilisation, la maintenance, la prise de décision, etc. de l'architecture de sécurité.
IV. Conception d'architecture de sécurité réseau
i. L'objectif de la mise en place d'un système de sécurité des systèmes d'information est de combiner les principes de sécurité universels avec la réalité des systèmes d'information pour former une architecture de sécurité qui répond aux besoins de sécurité des systèmes d'information. Le système de sécurité des réseaux est l'un des cœurs du système d'information.
ii. Système de sécurité du système
1. Architecture de sécurité OSI
OSI (Open System Interconnection/Reference Mode, OSI/RM) est un modèle d'interconnexion de système de communication ouvert (ISO 7498-2) formulé par une organisation de normalisation internationale la norme nationale GB/T9387.2 « Référence de base pour le système ouvert de système de traitement de l'information. Interconnexion "Modèle Partie 2 : Architecture de sécurité" est équivalent à la norme ISO 7498-2.
L’objectif de l’OSI est d’assurer l’échange sécurisé d’informations sur de longues distances entre les processus du système ouvert. Ces normes établissent certains principes directeurs et contraintes dans le cadre d'un modèle de référence, fournissant ainsi une approche cohérente pour résoudre les problèmes de sécurité dans les systèmes ouverts interconnectés.
OSI définit un protocole à 7 couches, dans lequel chaque couche, à l'exception de la couche 5 (couche session), peut fournir les services de sécurité correspondants.
Il est plus approprié de configurer les services de sécurité sur la couche physique, la couche réseau, la couche transport et la couche application. Il ne convient pas de configurer les services de sécurité sur d'autres couches.
Les cinq types de services de sécurité du système de sécurité d'interconnexion de systèmes ouverts OSI comprennent l'authentification, le contrôle d'accès, la confidentialité des données, l'intégrité des données et la non-répudiation.
OSI définit une architecture technologique de sécurité multipoint en couches, également connue sous le nom d'architecture technologique de sécurité de défense en profondeur, qui distribue les capacités de défense à l'ensemble du système d'information des trois manières suivantes.
(1) Défense technique multipoint
1||| Réseau et infrastructures :
Pour garantir la disponibilité, les réseaux locaux et étendus doivent être protégés contre les attaques telles que les attaques par déni de service. Pour garantir la confidentialité et l'intégrité, les informations transmises sur ces réseaux et les caractéristiques du trafic doivent être protégées contre toute divulgation involontaire.
2||| frontière:
Pour se protéger contre les attaques actives du réseau, le périmètre doit fournir des défenses périmétriques plus solides telles que le filtrage et le contrôle du trafic et la détection des intrusions.
3||| Environnement informatique :
Pour se protéger contre les attaques internes distribuées à faible distance, les hôtes et les postes de travail doivent fournir des contrôles d'accès adéquats.
(2) Défense technique en couches
Pour réduire la probabilité et le caractère abordable des attaques réussies de ces attaques, chaque mécanisme doit représenter une barrière unique et inclure à la fois des méthodes de protection et de détection.
Par exemple, l’utilisation de pare-feu imbriqués ainsi que la détection des intrusions aux limites externes et internes constituent un exemple de défense technologique à plusieurs niveaux.
(3) infrastructure de soutien
1||| infrastructure à clé publique
Fournit une fédération commune pour créer, distribuer et gérer en toute sécurité des certificats de clé publique et des clés symétriques traditionnelles, leur permettant de fournir des services sécurisés aux réseaux, périmètres et environnements informatiques. Ces services fournissent une vérification fiable de l’intégrité des expéditeurs et des destinataires et empêchent la divulgation et la modification non autorisées des informations. L'infrastructure à clé publique doit prendre en charge une interopérabilité contrôlée et être cohérente avec les politiques de sécurité établies par chaque communauté d'utilisateurs.
2||| Infrastructure de détection et de réponse
Capacité à détecter et répondre rapidement aux intrusions. Il propose également une fonction « résumé » qui permet d'observer facilement un événement en conjonction avec d'autres événements associés. De plus, il permet aux analystes d'identifier des modèles de comportement potentiels ou des tendances émergentes.
La sécurité des systèmes d’information ne repose pas uniquement sur la technologie, mais nécessite également des méthodes de défense non techniques. Un niveau acceptable d’assurance des informations repose sur une combinaison de personnes, de gestion, de technologie et de processus.
2. Cadre de certification
L'objectif fondamental de l'authentification est d'empêcher d'autres entités d'occuper et d'exploiter de manière indépendante l'identité de l'entité authentifiée.
L'authentification fournit l'assurance qu'une entité revendique son identité et n'a de sens que dans le contexte de la relation entre le sujet et le vérificateur.
Il existe deux contextes relationnels importants pour l’identification :
①L'entité est représentée par le demandeur et il existe une relation de communication spécifique entre le demandeur et le vérificateur (telle que l'identification de l'entité) ;
②L'entité fournit la source des éléments de données au vérificateur.
Les méthodes d'identification reposent principalement sur les cinq méthodes suivantes :
1||| Connu, comme un mot de passe secret.
2||| Possédés, tels que des cartes IC, des jetons, etc.
3||| Caractéristiques qui ne changent pas, comme les caractéristiques biologiques.
4||| Faites confiance à l'authentification établie par un tiers fiable (récursion).
5||| Environnement (tel que l'adresse de l'hôte, etc.).
Les informations d'authentification font référence aux informations générées, utilisées et échangées depuis la demande d'authentification du demandeur jusqu'à la fin du processus d'authentification.
Les types d'informations d'authentification sont l'échange d'informations d'authentification, la demande d'informations d'authentification et la vérification des informations d'authentification.
Dans certains cas, le demandeur doit interagir avec un tiers de confiance afin de générer des informations d'authentification d'échange. De même, afin de vérifier l’échange d’informations d’authentification, le vérificateur doit également interagir avec un tiers de confiance. Dans ce cas, le tiers de confiance détient l'IA de vérification de l'entité concernée et peut également utiliser le tiers de confiance pour transférer et échanger des informations d'authentification. L'entité peut également avoir besoin de détenir les informations d'authentification utilisées pour authentifier le tiers de confiance.
Le service d'authentification est divisé en les étapes suivantes :
1||| Phase d'installation
Définissez les informations d’authentification de l’application et les informations d’authentification de vérification.
2||| Étape Modifier les informations d’identification
Les entités ou les administrateurs demandent des informations d'authentification et vérifient les modifications apportées aux informations d'authentification (telles que la modification des mots de passe).
3||| Étape de distribution
Pour authentifier et échanger des informations d'authentification, distribuez les informations d'authentification à diverses entités (telles que des candidats ou des vérificateurs). témoin) pour utilisation.
4||| phase d'acquisition
Le demandeur ou le vérificateur peut obtenir les informations nécessaires pour générer des informations d'authentification d'échange spécifiques pour l'instance d'authentification, L'échange d'informations d'authentification peut être obtenu en interagissant avec un tiers de confiance ou en échangeant des informations entre entités d'authentification.
5||| phase de transmission
Transmettre et échanger des informations d’authentification entre le demandeur et le vérificateur.
6||| Phase de vérification
Les informations d'authentification d'échange sont comparées aux informations d'authentification de vérification.
7||| phase de désactivation
Un état sera établi de telle sorte que les entités précédemment authentifiées ne puissent pas être authentifiées temporairement.
8||| phase de réactivation
L'état établi pendant la phase de désactivation prendra fin.
9||| Annuler la phase d'installation
L'entité est supprimée de la collection d'entités.
3. cadre de contrôle d'accès
Le contrôle d'accès est le processus permettant de déterminer quelles ressources sont autorisées à être utilisées dans un environnement de système ouvert et où il est approprié d'empêcher tout accès non autorisé.
Dans le cas du contrôle d'accès, l'accès peut s'effectuer à un système (c'est-à-dire à une entité qui est une partie communicante d'un système) ou à l'intérieur d'un système.
La Figure 4-25 et la Figure 4-26 illustrent les fonctions de base du contrôle d'accès.
ACI (Access Control Information) désigne toute information utilisée à des fins de contrôle d’accès, y compris les informations contextuelles. ADI (Access Control Decision Information) fait partie (ou la totalité) des ACI disponibles pour ADF lors de la prise d’une décision de contrôle d’accès spécifique.
ADF (Access Control Decision Function) est une fonction spécifique qui prend des décisions de contrôle d'accès en utilisant des règles de politique de contrôle d'accès sur la demande d'accès, l'ADI et le contexte de la demande d'accès. AEF (Access Control Enforcement Function) garantit que seul l’accès autorisé à la cible est effectué par l’initiateur.
L'initiateur, l'AEF, l'ADF et la cible sont impliqués dans le contrôle d'accès. Les initiateurs représentent des personnes et des entités informatiques qui accèdent ou tentent d'accéder à une cible. La cible représente l'ordinateur ou l'entité basée sur les communications à laquelle on tente d'accéder ou à laquelle l'initiateur accède. Par exemple, la cible peut être une entité, un fichier ou un système OSI. Une demande d'accès représente les opérations et les opérandes qui font partie de la tentative d'accès.
Lorsque l'initiateur demande un accès spécial à la cible, AEF informe ADF qu'une décision est nécessaire pour prendre une décision. Pour prendre une décision, l'ADF reçoit une demande d'accès (dans le cadre de la demande de décision) et les informations de décision de contrôle d'accès (ADI) suivantes.
(1) ADI de l'initiateur (l'ADI est dérivée de l'ACI liée à l'initiateur) ;
(2) ADI cible (l'ADI est dérivée de l'ACI lié à la cible) ;
(3) ADI de la demande d'accès (l'ADI est dérivée de l'ACI liée à la demande d'accès).
Les autres entrées de l'ADF sont les règles de politique de contrôle d'accès (provenant de l'autorité du domaine de sécurité de l'ADF) et les informations contextuelles nécessaires utilisées pour interpréter l'ADI ou la politique. Les informations contextuelles incluent l'emplacement de l'expéditeur, l'heure d'accès ou les voies de communication spéciales utilisées. Sur la base de ces entrées, et éventuellement des informations ADI retenues à partir des décisions précédentes, l'ADF peut prendre une décision qui autorise ou interdit la tentative d'accès de l'initiateur à la cible. La décision est transmise à l'AEF, qui permet ensuite à la demande d'accès d'être transmise à la cible ou prend toute autre mesure appropriée.
Dans de nombreux cas, les demandes d'accès successives à la cible par l'initiateur sont liées. Un exemple typique dans une application est qu'après avoir ouvert une connexion avec la même couche cible, le processus d'application tente d'effectuer plusieurs accès avec la même ADI (réservée). Pour certaines demandes d'accès qui sont ensuite communiquées via la connexion, cela peut être nécessaire. pour fournir des demandes d'accès supplémentaires à l'ADF. ADI autorise les demandes d'accès. Dans d'autres cas, les politiques de sécurité peuvent exiger des restrictions sur certaines demandes d'accès associées entre un ou plusieurs initiateurs et une ou plusieurs cibles. les demandes d'accès sont évaluées en utilisant l'ADI retenu des décisions précédentes concernant la cible.
Si l'AEF l'autorise, la demande d'accès n'implique qu'une seule interaction entre l'initiateur et la cible. Bien que certaines demandes d'accès entre l'initiateur et la cible soient totalement indépendantes d'autres demandes d'accès, les deux entités entrent souvent dans un ensemble de demandes d'accès liées, tel que le modèle défi-réponse. Dans ce cas, l'entité modifie les rôles d'initiateur et de cible simultanément ou alternativement selon les besoins, et la fonction de contrôle d'accès peut être exécutée pour chaque demande d'accès par des composants AEF, des composants ADF et des politiques de contrôle d'accès distincts.
4. cadre de confidentialité
Le but des services de confidentialité (Confidentialité) est de garantir que les informations ne sont disponibles qu'aux personnes autorisées. Étant donné que les informations sont représentées par des données et que les données peuvent entraîner des modifications dans les relations (par exemple, les opérations sur les fichiers peuvent entraîner des modifications de répertoire ou des zones de stockage disponibles), les informations peuvent être dérivées des données de différentes manières. Par exemple, dériver en comprenant la signification des données (telles que la valeur des données) ; dériver en utilisant des attributs liés aux données (tels que l'existence, les données créées, la taille des données, la date de la dernière mise à jour, etc.) : en étudiant le contexte des données, c'est-à-dire dérivé d'autres entités de données qui y sont liées, dérivées de l'observation des changements dynamiques des expressions de données ;
La protection des informations consiste à garantir que les données sont limitées aux personnes autorisées ou obtenues en représentant les données d'une manière spécifique. La sémantique de cette méthode de protection est que les données ne sont accessibles qu'à ceux qui possèdent certaines informations clés. Une protection efficace de la confidentialité nécessite que les informations de contrôle nécessaires (telles que les clés et RCI, etc.) soient protégées. Ce mécanisme de protection est différent du mécanisme utilisé pour protéger les données (telles que les clés peuvent être protégées par des moyens physiques, etc.).
Les deux concepts d'environnement protégé et d'environnement protégé qui se chevauchent sont utilisés dans le cadre de confidentialité. Les données dans un environnement protégé peuvent être protégées grâce à l'utilisation d'un ou plusieurs mécanismes de sécurité spécifiques. Toutes les données dans un environnement protégé sont protégées de la même manière. Lorsque deux environnements ou plus se chevauchent, les données qui se chevauchent peuvent être protégées plusieurs fois. On peut en déduire que la protection continue des données déplacées d’un environnement à un autre implique nécessairement des environnements de protection qui se chevauchent.
La confidentialité des données peut dépendre du support sur lequel elles résident et sont transmises. La confidentialité des données stockées est donc garantie par l'utilisation de mécanismes qui masquent la sémantique des données (comme le cryptage) ou fragmentent les données. La confidentialité des données lors de la transmission est assurée par des mécanismes qui interdisent l'accès, masquent la sémantique des données ou dispersent les données (comme les sauts de fréquence, etc.). Ces types de mécanismes peuvent être utilisés individuellement ou en combinaison.
Type de mécanisme
(1) Assurer la confidentialité en refusant l’accès
(2) Assurer la confidentialité grâce au cryptage
Les mécanismes de chiffrement sont divisés en mécanismes de chiffrement symétriques et Mécanisme de confidentialité basé sur un cryptage asymétrique.
5. cadre d'intégrité
L'objectif du cadre d'intégrité (Intégrité) est de protéger l'intégrité des données et l'intégrité des attributs liés aux données qui peuvent être compromis de différentes manières en empêchant les menaces ou en détectant les menaces. L'intégrité fait référence à la caractéristique selon laquelle les données ne sont pas modifiées ou détruites de manière non autorisée.
Les services d'intégrité sont classés de plusieurs manières :
1||| Selon la classification des violations à éviter, les opérations de violation sont divisées en modification de données non autorisée, création de données non autorisée, suppression de données non autorisée, insertion de données non autorisée et relecture de données non autorisée.
2||| Les méthodes de protection fournies sont divisées entre la prévention des dommages à l'intégrité et la détection des dommages à l'intégrité.
3||| Selon qu'il prend en charge ou non le mécanisme de récupération, il est divisé en ceux avec mécanisme de récupération et ceux sans mécanisme de récupération.
Étant donné que la capacité à protéger les données est liée au support utilisé, les mécanismes de protection de l'intégrité des données sont différents selon les supports et peuvent être résumés comme les deux situations suivantes.
1||| Mécanisme pour bloquer l’accès aux médias. Y compris les canaux ininterrompus physiquement isolés, le contrôle de routage et le contrôle d'accès.
2||| Mécanisme permettant de détecter les modifications non autorisées des données ou des séquences d'éléments de données. Les modifications non autorisées incluent la création, la suppression et la relecture de données non autorisées. Les mécanismes d'intégrité correspondants comprennent le scellement, les signatures numériques, la duplication de données (comme moyen de lutter contre d'autres types de violations), les empreintes digitales combinées à des transformations cryptographiques et les numéros de séquence de messages.
Selon l'intensité de la protection, les mécanismes d'intégrité peuvent être divisés en :
1||| Pas de protection;
2||| Détection des modifications et créations ;
3||| Détection des modifications, créations, suppressions et duplications ;
4||| Détection des modifications et créations avec fonction de récupération ;
5||| Détection et récupération des modifications, créations, suppressions et duplications.
6. cadre de non-répudiation
Les services de non-répudiation (Non-répudiation) comprennent la génération, la vérification et l'enregistrement de preuves, ainsi que la récupération et la revérification ultérieures des preuves lors de la résolution des litiges. Le but des services de non-répudiation décrits dans le Cadre est de fournir des preuves sur des événements ou des actions spécifiques. Des entités autres que l'événement ou le comportement lui-même peuvent demander des services de non-répudiation. Des exemples de comportements pouvant être protégés par le service de non-répudiation incluent l'envoi de messages X.400, l'insertion d'enregistrements dans la base de données, la demande d'opérations à distance, etc.
Lorsqu'il s'agit de services de non-répudiation du contenu des messages, l'identité de l'auteur des données et l'intégrité des données doivent être confirmées afin de fournir la preuve de l'origine. Pour fournir une preuve de livraison, l'identité du destinataire et l'intégrité des données doivent être confirmées. Dans certains cas, des preuves impliquant des informations contextuelles (telles que la date, l’heure, le lieu de l’expéditeur/du destinataire, etc.) peuvent également être requises. Le service de non-répudiation offre les fonctionnalités suivantes qui peuvent être utilisées en cas de tentative de refus : génération de preuves, enregistrement de preuves, vérification des preuves générées, récupération et réexamen des preuves. Les différends peuvent être résolus directement entre les parties en litige par un examen des preuves, ou ils peuvent devoir être résolus par l'intermédiaire d'un arbitre, qui évaluera et déterminera si la conduite ou l'événement en question s'est produit.
La non-répudiation comprend 4 étapes indépendantes, à savoir :
1||| Génération de preuves
Dans cette phase, le demandeur de génération de preuves demande au générateur de preuves de générer des preuves pour un événement ou une action. L'entité impliquée dans un événement ou un comportement est appelée entité de preuve, et sa relation d'implication est établie par des preuves. Selon le type de service de non-répudiation, la preuve peut être générée par l'entité de preuve, conjointement avec les services d'un tiers de confiance, ou par un tiers de confiance seul.
2||| Transmission, stockage et récupération des preuves
À ce stade, les preuves sont transférées entre entités ou récupérées ou transférées vers la mémoire.
3||| Vérification des preuves
A ce stade, les preuves sont vérifiées par le vérificateur de preuves à la demande de l'utilisateur des preuves. Le but de cette étape est de convaincre l’utilisateur des preuves que les preuves fournies sont bien suffisantes en cas de litige. Des services tiers de confiance peuvent également participer pour fournir des informations vérifiant ces preuves.
4||| résoudre l'argument
Lors de la phase de résolution des différends, l'arbitre a la responsabilité de résoudre le différend entre les parties.
V. Conception de la sécurité du système de base de données
i. L'intégrité de la base de données fait référence à l'exactitude et à la cohérence des données dans la base de données. L'intégrité de la base de données est garantie par diverses contraintes d'intégrité, on peut donc dire que la conception de l'intégrité de la base de données est la conception des contraintes d'intégrité de la base de données. Les contraintes d'intégrité de la base de données peuvent être mises en œuvre via un système de gestion de base de données (SGBD) ou un programme d'application. Les contraintes d'intégrité basées sur le SGBD sont stockées dans la base de données dans le cadre du schéma.
ii. Principes de conception de l'intégrité des bases de données
1. Déterminez le niveau du système et la méthode de mise en œuvre en fonction du type de contraintes d'intégrité de la base de données et considérez à l'avance l'impact sur les performances du système. En général, les contraintes statiques doivent être incluses autant que possible dans le schéma de la base de données, tandis que les contraintes dynamiques sont implémentées par l'application.
2. Les contraintes d'intégrité d'entité et les contraintes d'intégrité référentielle sont les contraintes d'intégrité les plus importantes des bases de données relationnelles, et elles doivent être appliquées autant que possible sans affecter les performances clés du système. Cela vaut la peine de consacrer une certaine quantité de temps et d'espace en échange de la facilité d'utilisation du système.
3. Soyez prudent lorsque vous utilisez la fonction de déclenchement prise en charge par les SGBD traditionnels actuels. D'une part, la surcharge de performances des déclencheurs est importante, d'autre part, le déclenchement à plusieurs niveaux des déclencheurs est difficile à contrôler et sujet aux erreurs. nécessaire, il est préférable d’utiliser le déclencheur de niveau instruction Before Type.
4. Au cours de la phase d'analyse des exigences, une convention de dénomination pour les contraintes d'intégrité doit être formulée et essayer d'utiliser des combinaisons significatives de mots anglais, d'abréviations, de noms de tables, de noms de colonnes et de soulignements pour les rendre faciles à reconnaître et à mémoriser. Si vous utilisez les outils CASE, il existe généralement des règles par défaut, qui peuvent être modifiées et utilisées sur cette base.
5. L'intégrité de la base de données doit être soigneusement testée conformément aux règles métier afin d'éliminer le plus tôt possible les conflits entre les contraintes d'intégrité implicites et l'impact sur les performances.
6. Il doit y avoir une équipe de conception de base de données dédiée, responsable de l'analyse, de la conception, des tests, de la mise en œuvre et de la maintenance initiale de la base de données du début à la fin. Les concepteurs de bases de données sont non seulement responsables de la conception et de la mise en œuvre des contraintes d'intégrité des bases de données basées sur le SGBD, mais également responsables de l'examen des contraintes d'intégrité des bases de données mises en œuvre par les logiciels d'application.
7. Des outils CASE appropriés doivent être utilisés pour réduire la charge de travail à chaque étape de la conception de la base de données. Un bon outil CASE peut prendre en charge l'ensemble du cycle de vie de la base de données, ce qui améliorera considérablement l'efficacité du travail des concepteurs de bases de données et facilitera la communication avec les utilisateurs.
iii. Le rôle de l’intégrité des bases de données
Les contraintes d'intégrité de la base de données peuvent empêcher les utilisateurs légitimes d'ajouter du contenu de données non sémantique à la base de données lors de l'utilisation de la base de données.
L'utilisation du mécanisme de contrôle d'intégrité basé sur le SGBD pour mettre en œuvre des règles métier est facile à définir et à comprendre, et peut réduire la complexité de l'application et améliorer l'efficacité opérationnelle de l'application. Dans le même temps, étant donné que le mécanisme de contrôle d’intégrité du SGBD est géré de manière centralisée, il est plus facile d’assurer l’intégrité des bases de données que des applications.
Une conception raisonnable de l’intégrité de la base de données peut prendre en compte à la fois l’intégrité de la base de données et les performances du système. Par exemple, lors du chargement d'une grande quantité de données, tant que les contraintes d'intégrité de la base de données basées sur le SGBD sont temporairement invalidées avant le chargement puis prises en compte, l'intégrité de la base de données peut être garantie sans affecter l'efficacité du chargement des données.
Lors des tests fonctionnels des logiciels d'application, l'amélioration de l'intégrité de la base de données permet de détecter les erreurs des logiciels d'application le plus tôt possible.
Les contraintes d'intégrité de la base de données peuvent être divisées en six catégories : contraintes statiques au niveau des colonnes, contraintes statiques au niveau des tuples, contraintes statiques au niveau des relations, contraintes dynamiques au niveau des colonnes, contraintes dynamiques au niveau des tuples et contraintes dynamiques au niveau des relations. Les contraintes dynamiques sont généralement implémentées par un logiciel d'application. L'intégrité de la base de données prise en charge par les différents SGBD est fondamentalement la même. Les contraintes d'intégrité basées sur le SGBD prises en charge par un système de base de données relationnelle commun sont présentées dans le Tableau 4-3.
iv. Exemple de conception d'intégrité de base de données
Une bonne conception de l'intégrité de la base de données doit d'abord déterminer les règles métier à mettre en œuvre via les contraintes d'intégrité de la base de données pendant la phase d'analyse des exigences. Ensuite, sur la base d'une compréhension complète du mécanisme de contrôle d'intégrité fourni par un SGBD spécifique, sur la base de l'architecture et des exigences de performances de l'ensemble du système, et conformément aux méthodes de conception de bases de données et aux méthodes de conception de logiciels d'application, la méthode de mise en œuvre de chaque règle métier est raisonnablement choisi. Enfin, testez soigneusement pour éliminer les conflits de contraintes implicites et les problèmes de performances.
La conception de l'intégrité des bases de données basée sur le SGBD est généralement divisée en
(1) étape d'analyse des besoins
(2) étape de conception structurelle
L'étape de conception de la structure conceptuelle consiste à convertir les résultats de l'analyse des exigences en un modèle conceptuel indépendant du SGBD spécifique, c'est-à-dire le diagramme entité-relation (ERD).
(3) Étape de conception de la structure logique
Cette étape consiste à convertir la structure conceptuelle en un modèle de données supporté par un certain SGBD et à l'optimiser, y compris la standardisation du modèle relationnel.
VI. Analyse de cas de conception d'architecture de sécurité
i. Prenons comme exemple une conception d’architecture de sécurité industrielle basée sur un cloud hybride.
ii. L’architecture cloud hybride est souvent adoptée par les grandes entreprises. Le cloud hybride combine le cloud public et le cloud privé et constitue le principal modèle et l'orientation de développement du cloud computing ces dernières années.
iii. L'architecture d'un système de gestion de production sécurisé pour les grandes entreprises utilisant la technologie cloud hybride
iv. Lors de la conception d’un système de gestion de production sécurisé basé sur un cloud hybride, cinq aspects des problèmes de sécurité doivent être pris en compte.
(1) Sécurité des appareils
(2) la cyber-sécurité
(3) Contrôler la sécurité
(4) Sécurité des applications
(5) Sécurité des données
八、 Architecture native du cloud
I. résumé
« Cloud Native » Cloud Native signifie que ses logiciels d'application et ses services se trouvent dans le cloud plutôt que dans le centre de données traditionnel. Native représente un logiciel d'application basé sur l'environnement cloud depuis le début et spécialement conçu pour les caractéristiques du cloud. Il peut exploiter pleinement l'élasticité et les avantages distribués de l'environnement cloud et maximiser la productivité de l'environnement cloud.
II. Aperçu du développement
i. Le modèle de développement du « processus en cascade », d'une part, crée un développement de l'information en amont et en aval. L’asymétrie, en revanche, allonge le cycle de développement et rend l’ajustement difficile.
ii. Le développement agile ne résout que le problème de l'efficacité du développement logiciel et de la vitesse de mise à jour des versions, mais il n'a pas encore résolu le problème du fonctionnement et de la gestion. La maintenance et la gestion peuvent être efficacement connectées.
iii. DevOps peut être considéré comme l'intersection du développement, des opérations techniques et de l'assurance qualité, favorisant la communication, la collaboration et l'intégration entre eux, améliorant ainsi le cycle de développement et l'efficacité.
iv. Les conteneurs, microservices et autres technologies cloud natifs fournissent de bonnes conditions préalables pour DevOps et garantissent que le développement de logiciels informatiques réalise des applications clés du développement DevOps et de la livraison continue. En d’autres termes, être capable de mettre en œuvre DevOps et la livraison continue fait désormais partie intégrante de la valeur de la technologie cloud native.
v. L'intégration profonde des scénarios cloud natifs et commerciaux injecte non seulement un nouvel élan de développement et d'innovation dans diverses industries, mais favorise également le développement plus rapide de la technologie cloud native et une écologie plus mature, ce qui se reflète principalement dans les points suivants.
1. Du point de vue de la valeur qu'elle apporte aux organisations, l'architecture cloud native répond aux besoins de puissance de calcul personnalisés de différents scénarios d'application en prenant en charge plusieurs puissances de calcul, et sur la base de l'architecture collaborative logicielle et matérielle, elle fournit une puissance de calcul cloud native avec le nec plus ultra. performances pour les applications ; Basé sur la gouvernance multi-cloud et la collaboration edge-cloud, créer une plate-forme informatique distribuée omniprésente efficace et hautement fiable et créer des ressources informatiques unifiées sous diverses formes, notamment des conteneurs, du bare metal, des machines virtuelles, des fonctions, etc. ; une plate-forme efficace de planification et de gestion des ressources centrée sur les « applications » offre aux entreprises un déploiement en un clic, une planification intelligente tenant compte des applications et des capacités complètes de surveillance, d'exploitation et de maintenance.
2. Grâce au dernier modèle de développement d'applications DevSecOps, le développement agile des applications est obtenu, la vitesse d'itération des applications métier est améliorée, une réponse efficace aux besoins des utilisateurs est obtenue et la sécurité de l'ensemble du processus est assurée. Pour l'intégration des services, deux modes, intrusif et non intrusif, sont proposés pour aider à la mise à niveau de l'architecture des applications d'entreprise, tout en réalisant une collaboration organique entre les nouvelles et les anciennes applications, afin qu'elles puissent être établies sans interruption.
3. Aidez les entreprises à bien gérer les données, à créer rapidement des capacités d'exploitation des données, à réaliser l'accumulation d'actifs et l'extraction de valeur des données, et à utiliser une série de technologies d'IA pour dynamiser à nouveau les applications d'entreprise, en combinant les capacités des données et de l'IA pour aider les entreprises à réaliser des mises à niveau intelligentes dans leur entreprises.
4. Associé aux services complets de sécurité au niveau organisationnel et aux capacités de conformité en matière de sécurité de la plateforme cloud, il garantit que les applications organisationnelles sont créées en toute sécurité sur le cloud et que les entreprises fonctionnent en toute sécurité.
III. Définition de l'architecture
i. D'un point de vue technique, l'architecture cloud native est un ensemble de principes architecturaux et de modèles de conception basés sur la technologie cloud native. Elle vise à maximiser la suppression des parties de code non commerciales dans les applications cloud, permettant aux installations cloud de reprendre le code d'origine dans le cloud. application Un grand nombre de fonctionnalités non fonctionnelles (telles que l'élasticité, la résilience, la sécurité, l'observabilité, les niveaux de gris, etc.) permettent à l'entreprise de ne plus être perturbée par des interruptions d'activité non fonctionnelles, tout en étant légère, agile et hautement automatisée.
ii. La technologie cloud native repose en partie sur le concept à 3 couches du cloud computing traditionnel, à savoir l'infrastructure en tant que service (laaS), la plateforme en tant que service (PaaS) et le logiciel en tant que service (SaaS).
iii. Le code natif du cloud se compose généralement de trois parties :
1. Code d'entreprise
Fait référence au code qui implémente la logique métier
2. Logiciel tiers
Ce sont toutes les bibliothèques tierces dont dépend le code métier, y compris les bibliothèques métier et Bibliothèque de base
3. Code qui gère les fonctionnalités non fonctionnelles
Fait référence au code qui implémente des fonctionnalités non fonctionnelles telles que la haute disponibilité, la sécurité et l'observabilité.
Seul le code métier constitue le noyau et apporte une réelle valeur à l’entreprise. Les deux autres parties ne sont que des accessoires.
iv. D'énormes changements dans la structure du code
Dans un environnement cloud, « comment obtenir du stockage » devient un certain nombre de services, notamment des services de stockage d'objets, des services de stockage en bloc et des services de stockage de fichiers. Le cloud modifie non seulement l'interface permettant aux développeurs d'obtenir ces capacités de stockage, mais résout également divers défis dans les scénarios distribués, notamment les défis de haute disponibilité, les défis d'expansion et de contraction automatiques, les défis de sécurité, les défis de mise à niveau d'exploitation et de maintenance, etc., font les développeurs d'applications. ils n'ont pas besoin de résoudre le problème de la synchronisation du contenu enregistré localement avec l'extrémité distante avant que le nœud ne tombe en panne dans leur code, ni de résoudre le problème de la façon d'étendre le nœud de stockage lorsque le pic d'activité arrive, et le personnel d'exploitation et de maintenance de l'application n'a pas besoin de résoudre le problème. Lorsqu'un problème de sécurité « zeroday » est découvert, le logiciel de stockage tiers est mis à niveau de toute urgence.
v. Les fonctionnalités non fonctionnelles sont fortement déléguées
i. Toute application propose deux types de fonctionnalités :
1. Caractéristiques fonctionnelles
Du code qui apporte réellement de la valeur à l'entreprise, comme la création de profils clients, le traitement des commandes, des paiements, etc. Même certaines fonctionnalités fonctionnelles courantes de l'entreprise, telles que la gestion de l'organisation, la gestion des dictionnaires métier, la recherche, etc., sont étroitement alignées sur les besoins de l'entreprise.
2. fonctionnalités non fonctionnelles
Des fonctionnalités qui n'apportent pas de valeur commerciale directe à l'entreprise, mais qui sont généralement essentielles, telles que la haute disponibilité, la reprise après sinistre, les fonctionnalités de sécurité, l'opérabilité, la facilité d'utilisation, la testabilité, les capacités de publication en niveaux de gris, etc.
ii. Solutions de cloud computing
1. machine virtuelle
Lorsque la machine virtuelle détecte une anomalie dans le matériel sous-jacent, elle aide automatiquement l'application à effectuer une migration en direct. L'application migrée n'a pas besoin d'être redémarrée mais a toujours la capacité de fournir des services externes. L'application elle-même et ses utilisateurs n'en auront pas besoin. toute connaissance de l'ensemble du processus de migration.
2. récipient
Le conteneur détecte l'état anormal du processus grâce à la surveillance et à l'inspection, mettant ainsi en œuvre des opérations telles que la mise hors ligne du nœud anormal, la mise en ligne de nouveaux nœuds et la commutation du trafic de production. L'ensemble du processus est terminé automatiquement sans l'intervention du personnel d'exploitation et de maintenance.
3. service cloud
Si l'application confie la partie « avec état » aux services cloud (tels que le cache, la base de données, le stockage d'objets, etc.), ainsi que la miniaturisation des fonds d'objets globaux ou la possibilité de reconstruire rapidement à partir du disque, le service cloud lui-même est extrêmement puissant. Avec des capacités de haute disponibilité, l'application elle-même deviendra une application « sans état » plus légère, et les interruptions d'activité provoquées par des pannes de haute disponibilité seront réduites à une fraction. Au niveau Bell ; si l'application est un modèle d'architecture peer-to-peer de N:M (chacun des N clients peut accéder à M serveurs), alors en combinaison avec des produits d'équilibrage de charge, de fortes capacités de haute disponibilité peuvent être obtenues.
vi. Livraison de logiciels hautement automatisée
Les conteneurs regroupent les logiciels de manière standard, et les conteneurs et les technologies associées aident à masquer les différences entre les différents environnements, permettant ainsi une livraison de logiciels standardisée basée sur des conteneurs.
Pour une livraison automatisée, un outil capable de décrire différents environnements est également nécessaire, afin que le logiciel puisse « comprendre » l'environnement cible, le contenu de la livraison, la liste de configuration, identifier les différences dans l'environnement cible via le code et « s'orienter vers la fin ». état" en fonction du contenu de la livraison. Effectuer l'installation, la configuration, l'exploitation et les modifications du logiciel.
IV. Le principe de base
1. Servitisation
Lorsque la taille du code dépasse la portée de coopération d'une petite équipe, il est nécessaire d'effectuer une division orientée service, y compris une division en architecture microservice, architecture miniservice (MiniService), etc., et en séparant les modules avec différents cycles de vie à travers le service. Architecture orientée vers. Effectuez les itérations commerciales séparément pour éviter que les modules d'itération fréquents ne soient ralentis par des modules lents, accélérant ainsi la progression globale et améliorant la stabilité du système. Dans le même temps, l'architecture orientée service est basée sur une programmation orientée interface et les fonctions au sein du service sont très cohérentes. L'extraction de modules de fonctions publiques entre modules augmente le degré de réutilisation des logiciels.
La limitation et la dégradation du courant, les compartiments de disjoncteur, l'échelle de gris, la contre-pression, la sécurité Zero Trust, etc. dans un environnement distribué sont essentiellement des stratégies de contrôle basées sur le trafic de service (plutôt que sur le trafic réseau), de sorte que l'architecture cloud native met l'accent sur l'utilisation du service. -orienté L'objectif est également d'abstraire la relation entre les modules métier du niveau architectural et de standardiser la transmission du trafic de service, aidant ainsi les modules métier à effectuer un contrôle et une gouvernance des politiques basées sur le trafic de service, quelle que soit la langue dans laquelle ces services sont développés. .
2. élasticité
L'élasticité signifie que l'échelle de déploiement du système peut automatiquement s'étendre et se contracter à mesure que le volume d'activité évolue, sans qu'il soit nécessaire de préparer des ressources matérielles et logicielles fixes basées sur une planification préalable des capacités. Une bonne élasticité réduit non seulement le délai entre l'approvisionnement et la mise en ligne, mais permet également aux organisations de ne pas prêter attention au coût des ressources logicielles et matérielles supplémentaires (y compris les coûts d'inactivité) et, plus important encore, de réduire les coûts informatiques de l'organisation lorsque l'entreprise évolue. fait face à des urgences massives. Lors de l'expansion, nous n'avons plus à « dire non » en raison de réserves insuffisantes de ressources logicielles et matérielles existantes, garantissant ainsi des bénéfices organisationnels.
3. observable
L'observabilité est différente des capacités fournies par des systèmes tels que la surveillance, l'exploration commerciale et la surveillance des performances des applications (Application Performance Monitor, APM). L'observabilité est l'utilisation active des journaux, du suivi des liens et des métriques dans les systèmes distribués tels que le cloud. La méthode rend clairement visibles la consommation de temps, les valeurs de retour et les paramètres de plusieurs appels de service derrière un seul clic, et peut même explorer chaque appel de logiciel tiers, requête SQL, topologie de nœud, réponse réseau, etc. faire l'opération Le personnel de maintenance, de développement et d'affaires peut saisir l'état de fonctionnement du logiciel en temps réel et combiner des indicateurs de données de plusieurs dimensions pour obtenir des capacités d'analyse de corrélation afin de mesurer numériquement en continu et d'optimiser en permanence la santé de l'entreprise et l'expérience utilisateur.
4. dureté
La résilience représente la capacité d'un logiciel à résister lorsque diverses anomalies se produisent dans les composants logiciels et matériels dont dépend le logiciel. Ces anomalies incluent généralement des pannes matérielles, des goulots d'étranglement des ressources matérielles (tels que l'épuisement de la bande passante du processeur/de la carte réseau) et un trafic professionnel dépassant la limite. capacités de conception de logiciels. , pannes et catastrophes qui affectent le travail de la salle informatique, vulnérabilités logicielles (bugs), attaques de pirates informatiques et autres facteurs qui ont un impact fatal sur l'indisponibilité de l'entreprise.
La résilience explique la capacité du logiciel à continuer à fournir des services métiers dans de multiples dimensions. L'objectif principal est d'améliorer le temps moyen entre pannes (MTBF) du logiciel. En termes de conception architecturale, la résilience comprend les capacités asynchrones du service, les nouvelles tentatives/limitation de courant/dégradation/disjoncteur/contre-pression, le mode maître-esclave, le mode cluster, la haute disponibilité au sein de AZ (zones de disponibilité), l'unitisation et l'interrégional (zones de disponibilité). ) reprise après sinistre, reprise après sinistre multiactive à distance, etc.
5. Automatisation de tous les processus
D'une part, le processus de livraison de logiciels au sein de l'organisation est standardisé, et d'autre part, l'automatisation est réalisée sur la base de la standardisation grâce à l'auto-description des données de configuration et au processus de livraison orienté vers l'état final, que l'outil d'automatisation comprend. les objectifs de livraison et les différences environnementales, et réalise l'intégralité de la livraison et de l'exploitation du logiciel.
6. Zéro confiance
Zero Trust Security réévalue et examine la réflexion traditionnelle sur l’architecture de sécurité des frontières et propose de nouvelles suggestions d’idées d’architecture de sécurité. L'idée principale est qu'aucune personne/appareil/système à l'intérieur ou à l'extérieur du réseau ne doit être digne de confiance par défaut. La base de confiance du contrôle d'accès doit être reconstruite sur la base de l'authentification et de l'autorisation, telles que l'adresse IP, l'hôte, l'emplacement géographique, le réseau, etc. etc. Cela ne peut pas être utilisé comme preuve fiable. La confiance zéro a bouleversé le paradigme du contrôle d'accès et a guidé l'architecture de sécurité de la « centralisation du réseau » à la « centralisation des identités ». Son attrait essentiel est le contrôle d'accès centré sur l'identité.
Le premier problème central du Zero Trust est l’identité, qui donne à différentes entités des identités différentes pour résoudre le problème de savoir qui accède à une ressource spécifique dans quel environnement. Dans les scénarios de microservices tels que la R&D, les tests, l'exploitation et la maintenance, les politiques d'identité et associées constituent non seulement la base de la sécurité, mais également la base de nombreux mécanismes d'isolation (y compris les ressources, les services, les environnements, etc.) ; accéder aux applications internes de l'organisation, aux identités et à leurs politiques associées fournissent des services d'accès instantané.
7. L'architecture continue d'évoluer
L’architecture cloud native elle-même doit également être une architecture capable d’évoluer en permanence, plutôt qu’une architecture fermée. En plus des facteurs tels que l'itération incrémentielle et la sélection des cibles, il est également nécessaire de prendre en compte la gouvernance de l'architecture et le contrôle des risques au niveau organisationnel (comme le comité de contrôle de l'architecture), en particulier la relation équilibrée entre l'architecture, l'activité et la mise en œuvre dans le cas. d'itération commerciale à grande vitesse. L'architecture cloud native est relativement facile à choisir comme stratégie de contrôle architectural pour les nouvelles applications (en choisissant généralement les dimensions d'élasticité, d'agilité et de coût). Cependant, pour la migration d'applications existantes vers une architecture cloud native, le coût de migration des applications existantes doit être plus élevé. être pris en compte du point de vue architectural/risque et coût/risque de migration vers le cloud, ainsi que du contrôle techniquement précis des applications et du trafic via des microservices/passerelles d'applications, l'intégration d'applications, les adaptateurs, le maillage de services, la migration des données, les niveaux de gris en ligne, etc.
V. Modèles architecturaux courants
1. Architecture orientée services
L'architecture orientée services est un modèle architectural standard pour créer des applications cloud natives dans la nouvelle ère. Elle nécessite de diviser un logiciel en modules d'application, de définir des relations commerciales mutuelles avec des contrats d'interface (tels que IDL) et d'assurer une confiance mutuelle avec les standards. L'interopérabilité des protocoles (HTTP, gRPC, etc.), combinée au Domain Driven Design (DDD), au Test Driven Development (TDD) et au déploiement conteneurisé, améliore la qualité du code et la vitesse d'itération de chaque interface.
Les modèles typiques d'architecture orientée services sont les microservices et les modèles de petits services, où les petits services peuvent être considérés comme une combinaison d'un groupe de services très étroitement liés qui partagent des données. Le modèle de petit service convient généralement aux très grands systèmes logiciels pour éviter une perte d'appels excessive (notamment les appels interservices et le traitement de la cohérence des données) et une complexité de gouvernance causée par une granularité trop fine de l'interface.
2. Architecture maillée
L'architecture maillée (grille) consiste à séparer le cadre middleware (tel que RPC, cache, messages asynchrones, etc.) du processus métier, de sorte que le kit de développement logiciel middleware (Software Development Kit, SDK) soit davantage découplé du code métier. Par conséquent, les mises à niveau des middlewares n’ont aucun impact sur les processus métier, et même les middlewares migrés vers une autre plateforme sont transparents pour l’entreprise.
Après la séparation, seule une partie très « fine » du Client est conservée dans le processus métier. Le Client change généralement rarement et est uniquement responsable de la communication avec le processus Mesh, du contrôle de flux, de la sécurité et d'autres logiques qui devaient initialement être traitées dans le processus Mesh. Les SDK sont complétés par le processus Mesh.
Une fois l'architecture Mesh implémentée, un grand nombre de modes d'architecture distribués (tels que disjoncteur, limitation de courant, déclassement, nouvelle tentative, contre-pression, isolation, etc.) sont complétés par le processus Mesh, même si ces progiciels tiers ; ne sont pas utilisés dans les produits de code métier, obtiennent en même temps une meilleure sécurité (telle que des capacités d'architecture zéro confiance, etc.), une isolation dynamique de l'environnement basée sur le trafic, des tests de fumée/régression basés sur le trafic, etc.
3. Sans serveur
Le sans serveur (sans serveur) "supprime" l'action de "déploiement" de l'exploitation et de la maintenance, de sorte que les développeurs n'ont pas besoin de se soucier du fonctionnement des applications. Emplacement d'exécution, système d'exploitation, configuration réseau, performances du processeur, etc.
Le sans serveur ne convient à aucun type d'application. Les décideurs architecturaux doivent donc se demander si le type d'application est adapté à Informatique sans serveur. Si l'application est avec état, la planification sans serveur n'aidera pas l'application à synchroniser l'état, de sorte que le cloud peut entraîner une perte de contexte lors de la planification ; si l'application est une tâche informatique intensive qui s'exécute en arrière-plan pendant une longue période, les avantages du sans serveur seront les mêmes. ne pas être utilisé ; si l'application implique des E/S externes fréquentes (y compris le réseau ou le stockage, et les appels entre services, etc.), elle n'est pas adaptée en raison de la lourde charge d'E/S et de la latence importante. Le sans serveur est très adapté aux tâches informatiques de données basées sur des événements, aux applications de requête/réponse avec un temps de calcul court et aux tâches à cycle long sans appels mutuels complexes.
4. Séparation du stockage et de l'informatique
La difficulté du CAP (Cohérence : Disponibilité : Tolérance de partition) dans un environnement distribué concerne principalement les applications avec état, car les applications sans état n'ont pas la dimension C (cohérence), elles peuvent donc obtenir de bons résultats de A (disponibilité) et P (. tolérance de partition), obtenant ainsi une meilleure résilience. Dans un environnement cloud, il est recommandé d'utiliser les services cloud pour sauvegarder tous les types de données transitoires (telles que les sessions), les données persistantes structurées et non structurées, réalisant ainsi la séparation du stockage et de l'informatique. Cependant, il existe encore certains états qui, s'ils sont enregistrés dans le cache distant, entraîneront une diminution significative des performances de transaction. Par exemple, les données de session de transaction sont trop volumineuses et doivent être constamment réacquises en fonction du contexte actuel. Vous pouvez envisager d'utiliser des instantanés de journal de temps (ou points de contrôle). Cette méthode permet une restauration rapide et incrémentielle du service après le redémarrage et réduit l'impact de l'indisponibilité sur l'entreprise.
5. Transactions distribuées
Le mode traditionnel XA (eXtended Architecture) est utilisé, qui présente une forte cohérence mais des performances médiocres.
La cohérence éventuelle basée sur les messages présente généralement des performances élevées, mais une généralité limitée.
Le mode TCC (Try-Confirm-Cancel) contrôle complètement les transactions par la couche application, et l'isolation des transactions est contrôlable et peut être relativement efficace, cependant, elle est très intrusive pour l'entreprise et le coût de conception, de développement et de maintenance est élevé ; très haut.
Le mode SAGA (faisant référence au mode de gestion des pannes qui permet l'établissement d'applications distribuées cohérentes) présente des avantages et des inconvénients similaires au mode TCC mais ne comporte pas de phase Try. Au lieu de cela, chaque transaction forward correspond à une transaction de compensation, qui fait également. coûts de développement et de maintenance élevés.
Le mode AT du projet open source SEATA est très performant, n'a aucune charge de travail de développement de code et peut effectuer automatiquement des opérations de restauration. Il comporte également certaines restrictions de scénario d'utilisation.
6. observable
L'architecture observable comprend trois aspects : la journalisation, le traçage et les métriques. La journalisation fournit un suivi détaillé des informations à plusieurs niveaux (verbeux/débogage/avertissement/erreur/fatal), fourni de manière proactive par les développeurs d'applications. Le traçage fournit une demande du front-end au serveur ; le back-end. Le suivi complet des liens d’appel est particulièrement utile pour les scénarios distribués ; Metrics fournit des mesures multidimensionnelles de quantification du système.
Les décideurs en architecture doivent sélectionner des cadres open source appropriés qui prennent en charge l'observabilité (tels que Open Tracing, Open Telemetry, etc.) et standardiser les spécifications de données contextuelles observables (telles que les noms de méthodes, les informations utilisateur, l'emplacement géographique, les paramètres de requête, etc. ), et planifiez ces services et composants techniques dans lesquels les données observables sont diffusées, utilisez spanid/traceid dans les journaux et les informations de traçage pour garantir qu'il y a suffisamment d'informations pour une analyse de corrélation rapide lors de l'analyse des liens distribués.
Étant donné que l'objectif principal de l'établissement de l'observabilité est de mesurer le SLO (Service Level Objective) du service et ainsi d'optimiser le SLA (Service Level Agreement), la conception de l'architecture doit définir des SLO clairs pour chaque composant, y compris la concurrence, la consommation de temps, le temps disponible, capacité, etc
7. événementiel
L'architecture pilotée par événements (EDA) est essentiellement un modèle d'architecture intégré entre applications/composants. Les événements sont différents des messages traditionnels. Les événements ont un schéma, de sorte que la validité de l'événement peut être vérifiée. En même temps, EDA dispose d'un mécanisme de garantie de qualité de service et peut également répondre aux échecs de traitement des événements.
L'architecture basée sur les événements n'est pas seulement utilisée pour le découplage des (micro)services, mais peut également être appliquée aux scénarios suivants.
1||| Améliorer la résilience des services
Les services étant intégrés de manière asynchrone, toute défaillance de traitement ou même tout temps d'arrêt en aval ne sera pas perçu par l'amont, et n'aura naturellement pas d'impact sur l'amont.
2||| CQRS (Command Query Responsibility Segregation, séparation des responsabilités des requêtes de commande)
Les commandes qui ont un impact sur l'état du service sont lancées à l'aide d'événements, tandis que les requêtes qui n'ont aucun impact sur l'état du service utilisent l'interface API appelée de manière synchrone en combinaison avec le mécanisme Event Sourcing d'EDA, elle peut être utilisée pour maintenir la cohérence ; des modifications de données et lorsqu'une reconstruction est nécessaire. Dans l'état de service, il suffit de « rejouer » les événements dans EDA.
3||| Notification de changement de données
Dans l'architecture des services, souvent, lorsque les données d'un service changent, d'autres services seront intéressés. Par exemple, une fois la commande d'un utilisateur terminée, les services de points, les services de crédit, etc. doivent être informés des événements et mettre à jour les points des utilisateurs et les niveaux de crédit. .
4||| Construire des interfaces ouvertes
Sous EDA, le fournisseur d'événements n'a pas besoin de se soucier des abonnés, contrairement aux appels de service : le producteur de données doit savoir où se trouve le consommateur de données et l'appeler, maintenant ainsi l'ouverture de l'interface.
5||| traitement du flux d'événements
Appliquée aux scénarios d'analyse de données d'un grand nombre de flux d'événements (plutôt que d'événements discrets), une application typique est le traitement des journaux basé sur Kafka.
6||| Réponses déclenchées par un événement
À l'ère de l'IoT, les données générées par un grand nombre de capteurs n'ont pas besoin d'attendre le retour des résultats de traitement comme l'interaction homme-machine. Il est naturellement approprié d'utiliser l'EDA pour créer des applications de traitement de données.
VI. Cas natif du cloud
i. En tant qu'organisation logistique à la croissance la plus rapide, une entreprise de livraison express explore activement les moyens de favoriser la croissance de son entreprise grâce à l'innovation technologique afin de réduire les coûts et d'améliorer l'efficacité. À l'heure actuelle, le volume quotidien de traitement des commandes de l'entreprise a atteint des dizaines de millions et son volume de traitement des pistes logistiques a atteint des centaines de millions. Les données générées chaque jour ont atteint le niveau de la To et elle utilise 1 300 nœuds informatiques pour traiter les affaires en temps réel. . Dans le passé, les applications métier principales de l'entreprise étaient exécutées dans la salle informatique d'IDC. Le système IDC d'origine a aidé l'entreprise à survivre de manière stable à la première période de développement commercial rapide. Cependant, avec la croissance exponentielle du volume d’affaires, les formes d’entreprises sont devenues de plus en plus diversifiées. Le système d'origine présentait de nombreux problèmes. L'architecture traditionnelle de l'IOE, les irrégularités de chaque architecture système, la stabilité et l'efficacité de la R&D limitaient la possibilité d'un développement commercial rapide. Le cycle de livraison des logiciels est trop long, les besoins en ressources particulières pour les promotions à grande échelle sont difficiles à réaliser et la stabilité du système est difficile à garantir. De tels problèmes commerciaux sont progressivement révélés. Après plusieurs communications sur demande et vérifications techniques avec un fournisseur de services cloud, l'entreprise a finalement déterminé la technologie et l'architecture cloud natives pour déplacer son cœur de métier vers le cloud.
ii. solution
1. Présentation de la base de données cloud native
En introduisant les bases de données OLTP et OLAP, les données en ligne et la logique d'analyse hors ligne sont divisées en deux bases de données, modifiant ainsi le statu quo précédent qui consistait à s'appuyer entièrement sur les bases de données Oracle. Répondez aux lacunes des exigences commerciales réelles prises en charge par la base de données Oracle dans le scénario de traitement des requêtes de données historiques.
2. Conteneurisation des applications
Avec l'introduction de la technologie de conteneurisation, le problème des environnements incohérents a été résolu efficacement grâce à la conteneurisation des applications, garantissant la cohérence des applications dans les environnements de développement, de test et de production. Par rapport aux machines virtuelles, la conteneurisation offre une double amélioration en termes d'efficacité et de vitesse, rendant les applications plus adaptées aux scénarios de microservices et améliorant efficacement l'efficacité de la production et de la recherche.
3. Transformation des microservices
Étant donné que dans le passé, de nombreuses activités étaient réalisées sur la base des procédures stockées et des déclencheurs d'Oracle, les dépendances de service entre les systèmes nécessitaient également que la base de données Oracle OGG (Oracle Golden Gate) soit exécutée simultanément. Le problème que cela pose est que la maintenance du système est difficile et que la stabilité est mauvaise. En introduisant la découverte de services Kubernetes, nous pouvons créer une solution de microservices et diviser l'activité en fonction des domaines d'activité, facilitant ainsi la maintenance de l'ensemble du système.
iii. Structure établie
En tenant compte des besoins commerciaux réels et des caractéristiques techniques d'une certaine entreprise de livraison express, l'architecture cloud déterminée par l'entreprise est présentée dans la figure 4-3.
(1) Infrastructure
Toutes les ressources informatiques proviennent de serveurs nus sur un fournisseur de services cloud. Par rapport aux serveurs cloud généraux (ECS), Kubermetes peut atteindre de meilleures performances et une utilisation plus raisonnable des ressources lorsqu'il est associé à des serveurs. De plus, les ressources cloud peuvent être obtenues à la demande, ce qui est extrêmement important pour une entreprise confrontée à des scénarios commerciaux à court terme à fort trafic tels que des activités de promotion. Par rapport aux salles informatiques et aux machines debout construites hors ligne, les ressources cloud sont facilement disponibles. Une fois l'événement promotionnel terminé, les ressources cloud peuvent être libérées après utilisation, réduisant ainsi les coûts de gestion et d'approvisionnement.
(2) Accès au trafic
Les fournisseurs de services cloud fournissent deux ensembles d'accès au trafic, l'un destiné aux demandes du réseau public et l'autre aux appels de service internes. La résolution de nom de domaine utilise Cloud DNS et PrivateZone. Utilisez la fonctionnalité Ingress de Kubernetes pour obtenir un transfert de nom de domaine unifié afin d'économiser le nombre de SLB du réseau public et d'améliorer l'efficacité de la gestion de l'exploitation et de la maintenance.
(3) couche de plateforme
La plate-forme PaaS cloud native construite sur Kubernetes présente des avantages évidents, notamment :
1||| Ouvrez la boucle fermée DevOps et unifiez les environnements de test, d'intégration, de pré-version et de production ;
2||| Isolement des ressources naturelles et utilisation élevée des ressources des machines ;
3||| L'accès au trafic permet une gestion raffinée ;
4||| Journaux intégrés, diagnostic de lien et plateforme de métriques ;
5||| Unifiez les interfaces et les extensions du serveur API pour prendre en charge le déploiement multi-cloud et cloud hybride.
(4) couche de service d'application
Chaque application crée un espace de noms distinct sur Kubernetes et l'isolation des ressources est réalisée entre les applications. En définissant le modèle YAML de configuration de chaque application, lorsque l'application est déployée, modifiez directement la version de l'image qu'elle contient pour terminer rapidement la mise à niveau de la version. Lorsqu'une restauration est nécessaire, la version historique de l'image peut être directement démarrée localement pour revenir rapidement en arrière. .
(5) Gestion de l'exploitation et de la maintenance
Le cluster Kubernetes en ligne utilise la version hébergée du service de conteneur par le fournisseur de services cloud, éliminant ainsi le besoin d'exploiter et de maintenir le nœud maître. Il vous suffit de formuler les processus en ligne et hors ligne pour le nœud Worker. Dans le même temps, les systèmes d'entreprise effectuent des recherches dans les journaux d'entreprise via la plate-forme PaaS d'Alibaba Cloud et soumettent des tâches d'expansion en fonction des besoins de l'entreprise. Le système termine automatiquement l'opération d'expansion, réduisant ainsi les risques commerciaux causés par l'exploitation directe des clusters Kubernetes.
iv. Avantages de l'application
1. coût
Les produits cloud sont tous auto-hébergés dans le cloud sans opération ni maintenance, ce qui permet de réduire efficacement les coûts d'exploitation et de maintenance manuels et de permettre aux entreprises de se concentrer davantage sur leur activité principale.
2. la stabilité
Les produits cloud fournissent au moins cinq services SLA de 9 (99,999 %) pour garantir la stabilité du système, tandis que la stabilité des systèmes auto-construits est beaucoup plus élevée. En termes de sécurité des données, les données sur le cloud peuvent être facilement sauvegardées hors site. Les produits de stockage d'archives du système de stockage de données du fournisseur de services cloud présentent les caractéristiques d'une fiabilité élevée, d'un faible coût, d'une sécurité et d'un stockage illimité, ce qui permet de créer des données d'entreprise. plus sûr.
3. efficacité
Grâce à une intégration approfondie avec les produits cloud, le personnel de R&D peut effectuer des travaux de R&D, d'exploitation et de maintenance à guichet unique. De l'établissement des exigences commerciales au développement de branches d'extraction, en passant par la vérification de la régression des fonctions de l'environnement de test et enfin le déploiement jusqu'à la vérification préalable à la publication et en ligne, l'ensemble du processus d'intégration continue peut être réduit à quelques minutes. En termes de dépannage, le personnel R&D sélectionne directement l'application dont il est responsable et récupère rapidement les journaux d'exceptions du programme via la console de journalisation SLS intégrée pour localiser le problème, éliminant ainsi le besoin de se connecter à la machine pour vérifier les journaux.
4. Donner du pouvoir aux entreprises
Les fournisseurs de services cloud proposent plus de 300 types de composants cloud, couvrant l'informatique, l'IA, le Big Data et l'IoT. et bien d'autres domaines. Le personnel de R&D peut l’utiliser immédiatement, économisant ainsi les coûts techniques induits par l’innovation commerciale.