Mindmap-Galerie Systems Integration Project Management Engineer 3. AuflageKapitel 4 Informationssystemarchitektur
System Integration Project Management Engineer 3. Auflage/Kapitel 4 Informationssystemarchitektur, Informationssystemarchitektur bezieht sich auf die grundlegenden Konzepte oder Merkmale, die die Komponenten, Beziehungen sowie Systemdesign- und Entwicklungsprinzipien im Zusammenhang mit Informationssystemen widerspiegeln.
Bearbeitet um 2024-03-17 11:39:10Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
Informationssystemarchitektur
一、 Architekturgrundlagen
I. Zusammenfassung
Das Institute of Electrical and Electronics Engineers (IEEE) ist davon überzeugt, dass Systemarchitektur die grundlegende Organisationsstruktur ist, die ein System ausmacht, einschließlich der Komponentenzusammensetzung des Systems, der Beziehung zwischen Komponenten, der Beziehung zwischen dem System und seiner Umgebung sowie Richtlinien für architektonische Gestaltung und Entwicklung. Wenn die Systemkategorie die gesamten Systeme der Organisation umfasst, definiert die Architektur die Richtung, Struktur, Beziehungen, Prinzipien und Standards der Informationssystemarchitektur der Organisation.
Informationssystemarchitektur bezieht sich auf die grundlegenden Konzepte oder Merkmale, die informationssystembezogene Komponenten, Beziehungen sowie Systemdesign- und -entwicklungsprinzipien verkörpern.
Die an Informationssystem-Integrationsprojekten beteiligten Architekturen umfassen normalerweise Systemarchitektur, Datenarchitektur, Technologiearchitektur, Anwendungsarchitektur, Netzwerkarchitektur, Sicherheitsarchitektur usw. Die Informationssystem-Integrationsarchitektur auf Organisationsebene trägt die Entwicklungsstrategie und Geschäftsarchitektur der Organisation nach oben und führt nach unten Bei der Umsetzung spezifischer Informationssystempläne spielt es eine zentrale Rolle bei der Verbindung des Vorherigen mit dem Nächsten.
Diese hierarchische Struktur muss auf der Grundlage der strategischen Ziele, des Betriebsmodells und des Informationsniveaus der Organisation festgelegt werden und unterstützt eng die Realisierung des Geschäftswerts.
Das Wesen der Architektur ist die Entscheidungsfindung, die nach Abwägung aller Aspekte der Richtung, Struktur, Beziehungen und Prinzipien getroffen wird. Informationssystemprojekte können den Entwurf verschiedener Architekturen basierend auf der Leitideologie, den Entwurfsprinzipien und den Bauzielen des Projektbaus durchführen.
II. Leitideologie
Die Leitideologie besteht aus den allgemeinen Grundsätzen, Anforderungen und Richtlinien, die zur Durchführung einer bestimmten Arbeit befolgt werden müssen. Sie leitet und leitet den Fortschritt der Arbeit aus einer Makroperspektive und auf einem insgesamt hohen Niveau fördert durch die Vielfältigkeit der Projektbeteiligten die Aufrechterhaltung eines einheitlichen Werteverständnisses und die Reduzierung unnötiger Widersprüche und Konflikte.
Zum Beispiel: Die Leitideologie für den Bau eines Smart Governance-Zentrums für Sozialversicherungen in einer bestimmten Stadt ist definiert als: geleitet von Xi Jinpings Gedanken zum Sozialismus chinesischer Prägung für eine neue Ära, die den Geist des 20. Nationalkongresses der Stadt vollständig umsetzt Kommunistische Partei Chinas, die an der menschenzentrierten Entwicklungsidee festhält und an allem für das Volk festhält, sich in allem auf das Volk verlässt, das Volk immer an die höchste Stelle in unseren Herzen stellt und die Sehnsucht des Volkes nach einem besseren Leben als wahr nimmt Das Ziel unserer Bemühungen besteht darin, sich an die Bedürfnisse der Reform und Entwicklung der Sozialversicherung im neuen Zeitalter anzupassen, uns auf wichtige Bereiche und Schlüsselglieder der Sozialversicherungsarbeit zu konzentrieren, die Planung zu koordinieren, durch Innovation angetrieben und durch Daten gestärkt, die umfassend durchzuführen Bau eines intelligenten menschlichen und sozialen Governance-Zentrums einer Stadt, Förderung des intelligenten Sozialversicherungssystems, Innovationssystems und Kapazitätsaufbaus in der neuen Ära, kontinuierliche Verbesserung der Governance-Fähigkeiten und Serviceniveaus der Sozialversicherung und Bereitstellung hochwertiger Sozialversicherungsunternehmen in der neuen Ära Die Entwicklung bietet starke Informationsunterstützung und fördert die Modernisierung des Governance-Systems und der Governance-Fähigkeiten einer bestimmten Stadt.
III. Design-Prinzipien
Gestaltungsprinzipien bilden eine solide Grundlage für Architektur- und Planungsentscheidungen, die Entwicklung von Richtlinien, Verfahren und Standards sowie die Lösung von Konfliktsituationen.
Grundsätze müssen nicht zahlreich sein, sie müssen zukunftsorientiert sein und von den Führungskräften der relevanten Parteien anerkannt, unterstützt und eingehalten werden. Zu viele Prinzipien verringern die Flexibilität der Architektur, und viele Organisationen neigen dazu, nur Prinzipien auf höherer Ebene zu definieren und die Anzahl oft auf 4 bis 10 zu begrenzen.
Zu den Gestaltungsprinzipien für den Bau eines Smart-Governance-Zentrums für Sozialversicherungen einer Stadt gehören:
1. Halten Sie sich an die Menschenorientierung
Halten Sie sich an die menschenzentrierte Entwicklungsidee, verfolgen Sie die Servicebedürfnisse und Serviceerfahrungen der Menschen genau und betrachten Sie die Zufriedenheit, Unzufriedenheit, Unzufriedenheit und Unzufriedenheit der Menschen als Arbeitsziele durch den Bau eines intelligenten Governance-Zentrums für Sozialversicherungen in einer bestimmten Stadt Wir unterstützen den Aufbau eines zufriedenstellenden öffentlichen Sozialversicherungssystems in einer bestimmten Stadt.
2. Befolgen Sie die Innovationsführerschaft
Umfassender Einsatz von Mainstream-Technologien wie Internet, Big Data, Intelligenz, Internet der Dinge, 5G, KI und GIS, angetrieben durch Mechanismusreform, Modellinnovation, Datenantrieb und Technologieförderung, Aufbau eines intelligenten Governance-Zentrums für Sozialversicherungen und Förderung der Modernisierung der Sozialversicherung in einer bestimmten Stadt. Modernisierung der Governance-Systeme und Governance-Fähigkeiten.
3. Halten Sie sich an die Problemorientierung
Wir werden uns auf die Lösung der wichtigsten, schwierigen und problematischen Punkte konzentrieren, die die Entwicklung der Sozialversicherung in einer bestimmten Stadt behindern, als Schwerpunkt beim Aufbau eines intelligenten Verwaltungszentrums für Sozialversicherung in einer bestimmten Stadt, auf die Identifizierung von Durchbrüchen, die Verbesserung der Relevanz und die Hervorhebung der Gesamtsituation und Verbesserung der Servicestandardisierung, Spezialisierung und Zusammenarbeit. Die Ebene des Managements und der Verwaltung sollte intelligent, präzise und wissenschaftlich sein.
4. Halten Sie sich an die Gesamtkoordination
Der Aufbau eines Smart-Governance-Zentrums für Sozialversicherungen einer Stadt muss sich auf die Gesamtarbeit des Sozialversicherungssystems einer Stadt konzentrieren, angefangen bei mehreren Dimensionen der Systemverbindung, der Richtlinienunterstützung, der Verknüpfung von Abteilungen, der geschäftlichen Zusammenarbeit und dem Datenaustausch, um Unternehmen und Technologie zu schaffen. intern, extern und horizontal Ein neues intelligentes Governance-System für die Sozialversicherung, das vertikal, online und offline integriert, hat eine neue treibende Kraft gebildet, um die qualitativ hochwertige Entwicklung der Sozialversicherung im neuen Zeitalter zu unterstützen.
5. Achten Sie auf Sicherheit und Kontrollierbarkeit
Der Bau eines Smart-Governance-Zentrums für Sozialversicherungen in einer bestimmten Stadt muss die Beziehung zwischen innovativer Entwicklung und Sicherheit richtig handhaben, die Informationssicherheit und den Schutz der Privatsphäre stärken, das mehrstufige Risikopräventions- und Kontrollsystem der Sozialversicherung verbessern und zuverlässige, verfügbare Systeme konsolidieren und nachhaltige Informationsunterstützungsfähigkeit.
6. Halten Sie sich an die wissenschaftliche Umsetzung
Klären Sie anhand des Gesamtplanungs- und Bauplans für das Sozialversicherungs-Smart-Governance-Zentrum einer bestimmten Stadt die Grenzen, Beziehungen und Prioritäten zwischen dem Bau des Sozialversicherungs-Smart-Governance-Zentrums und dem Gesamtbau des Finanzversicherungsprojekts und nutzen Sie das Vorhandene voll aus Informationsinfrastruktur und Anwendungssysteme, koordinierte Planung und sorgfältige Umsetzung sollten sich darauf konzentrieren, umsetzbar, betriebsfähig und bewertbar zu sein, um sicherzustellen, dass die Wirksamkeit des Aufbaus eines Smart Governance-Zentrums für Sozialversicherungen in einer bestimmten Stadt vollständig freigesetzt werden kann.
IV. Das Ziel des Bauens
Das Bauziel bezieht sich auf das Endziel des integrierten Bauens, darauf, welche Wirkung erzielt wird und warum es eine konzeptionelle Politik ist. Normalerweise sind die Ideen und Visionen, die von leitenden Führungskräften relevanter Parteien vorgeschlagen werden, die Bauziele.
Das Bauziel des Smart Governance-Zentrums für Sozialversicherungen einer Stadt ist definiert als: basierend auf der funktionalen Mission und Entwicklungsrichtung der Sozialversicherungsbranche in der neuen Ära, in Übereinstimmung mit den Reformanforderungen von „Delegierung, Regulierung und Service“ und in Übereinstimmung mit Mit der neuen Theorie des öffentlichen Managements konzentrieren sich die umfassende Nutzung des Internets, Big Data, Intelligenz, modernes Denken und Mainstream-Technologien wie das Internet der Dinge, 5G, KI und GIS auf Business Governance, umfassende Governance und Big Data Governance. Bis zu einem bestimmten Jahr wird zunächst das Smart-Governance-Zentrum für Sozialversicherungen einer Stadt aufgebaut, das umfassend vernetzt, offen, integriert, vernetzt, intelligent, online, sichtbar und sicher ist, um die Servicefähigkeiten, die intelligenten Überwachungsfähigkeiten und das Risikomanagement umfassend zu verbessern des Sozialversicherungssystems einer Stadt. Präventions- und Kontrollfähigkeiten, Entscheidungsanalysefähigkeiten und globale Verknüpfungsfähigkeiten fördern den Aufbau des führenden intelligenten Sozialversicherungssystems, des intelligenten Risikokontrollsystems, des intelligenten vernetzten Geschäftssystems und des intelligenten Massenleistungssystems , einen neuen Maßstab für die Stadtverwaltungsbranche festlegen und ein neues nationales Paradigma für die Sozialversicherungsverwaltung schaffen, neue Impulse geben, um die qualitativ hochwertige Entwicklung der Sozialversicherung in einer bestimmten Stadt im neuen Zeitalter zu fördern, und zur Verbesserung der wissenschaftlichen, raffiniertes und intelligentes Niveau der Regierungsführung einer bestimmten Stadt.
V. Gesamtrahmen
Ein Framework ist eine konzeptionelle Struktur, die zum Planen, Entwickeln, Implementieren, Verwalten und Warten einer Architektur verwendet wird. Das Framework ist für den Architekturentwurf von entscheidender Bedeutung. Das Framework trennt die Aufmerksamkeit sinnvoll von den Geschäftsinhalten der Organisation und verwendet Rollen als Ausgangspunkt, um die Geschäftsinhalte der Organisation aus verschiedenen Perspektiven anzuzeigen. Das Framework bietet einen Fahrplan für den Architekturentwurf und leitet und unterstützt den Architekturentwurf dabei, das Ziel des Aufbaus einer fortschrittlichen, effizienten und anwendbaren Architektur zu erreichen.
Der allgemeine Referenzrahmen für die Architektur von Informationssystemen besteht aus vier Teilen:
1. strategisches System
Unter Strategiesystem versteht man die Managementaktivitäten und computergestützten Systeme im Zusammenhang mit der Strategieformulierung und Entscheidungsfindung auf hoher Ebene in einer Organisation.
In der Informationssystemarchitektur (ISA) besteht das strategische System aus zwei Teilen
1||| Eines davon ist ein hochrangiges Entscheidungsunterstützungssystem, das auf Informationstechnologie basiert
2||| Das zweite ist das strategische Planungssystem der Organisation
Die Einrichtung eines strategischen Systems in ISA hat zwei Bedeutungen:
1||| Erstens stellt es die Entscheidungsunterstützungsfähigkeit des Informationssystems für die Topmanager der Organisation dar;
2||| Zweitens stellt es die Auswirkungen und Anforderungen der organisatorischen strategischen Planung auf den Aufbau von Informationssystemen dar.
Normalerweise wird die strategische Planung der Organisation in zwei Arten unterteilt: langfristige Planung und kurzfristige Planung. Die kurzfristige Planung basiert im Allgemeinen auf dem langfristigen Zweck -Termplanung und lässt sich relativ einfach an die Umgebung und organisatorische Abläufe und Änderungen anpassen, wie z. B. die Entscheidung über die Art des neuen Produkts usw.
2. Geschäftssystem
Unter Geschäftssystem versteht man das System, das aus verschiedenen Teilen (Material, Energie, Informationen und Personen) in der Organisation besteht und bestimmte Geschäftsfunktionen erfüllt.
In einer Organisation gibt es viele Geschäftssysteme, beispielsweise Produktionssysteme, Vertriebssysteme, Einkaufssysteme, Personalsysteme, Buchhaltungssysteme usw. Jedes Geschäftssystem besteht aus einigen Geschäftsprozessen, um die Funktionen des Geschäftssystems zu vervollständigen Dazu gehören häufig Kreditorenbuchhaltung, Kreditorenbuchhaltung und Buchhaltungssysteme, Rechnungsstellung, Prüfung und andere Geschäftsprozesse.
Geschäftsprozesse können in eine Reihe logisch voneinander abhängiger Geschäftsaktivitäten zerlegt werden, die nacheinander ausgeführt werden. Jede Geschäftsaktivität hat eine auszuführende Rolle und verarbeitet zugehörige Daten. Wenn Unternehmen ihre Entwicklungsstrategien anpassen, um sich besser an interne und externe Entwicklungsumgebungen anzupassen (z. B. Bereitstellung und Nutzung von Informationssystemen), führen sie häufig eine Neuorganisation der Geschäftsprozesse durch. Die Neuorganisation von Geschäftsprozessen konzentriert sich auf Geschäftsprozesse, die Aufhebung der Arbeitsteilung zwischen Funktionsabteilungen der Organisation und die Verbesserung oder Neuorganisation bestehender Geschäftsprozesse, um erhebliche Verbesserungen bei Produktionseffizienz, Kosten, Qualität, Lieferzeit usw. zu erreichen und zu verbessern die Wettbewerbsfähigkeit der Organisation.
Die Rolle des Geschäftssystems in ISA ist:
Modellieren Sie die vorhandenen Geschäftssysteme, Geschäftsprozesse und Geschäftsaktivitäten der Organisation und nutzen Sie unter Anleitung der Strategie der Organisation die Prinzipien und Methoden des Business Process Reengineering (BPR), um den Geschäftsprozess zu optimieren und neu zu organisieren und die neu strukturierten Geschäftsbereiche und Geschäfte durchzuführen Prozesse und Geschäftsaktivitäten werden modelliert, um relativ stabile Daten zu ermitteln. Auf der Grundlage dieser relativ stabilen Daten werden die Entwicklung organisatorischer Anwendungssysteme und der Aufbau einer Informationsinfrastruktur durchgeführt.
3. Betriebssystem
Anwendungssystem ist das Anwendungssoftwaresystem, das sich auf den Anwendungssoftwareteil des Informationssystems bezieht.
Für Anwendungssoftware (Anwendungssysteme) in Organisationsinformationssystemen können die abgeschlossenen Funktionen im Allgemeinen Folgendes umfassen:
(1) Transaktionsverarbeitungssystem (TPS)
(2) Managementinformationssystem (MIS)
1||| Vertriebsmanagement-Subsystem
2||| Subsystem für das Beschaffungsmanagement
3||| Subsystem zur Bestandsverwaltung
4||| Transportmanagement-Subsystem
5||| Subsystem für das Finanzmanagement
6||| Personalmanagement-Subsystem usw.
(3) Entscheidungsunterstützungssystem (DSS)
(4) Expertensystem (ES)
(5) Büroautomationssystem (OAS)
(6) Computergestütztes Design/Computergestütztes Prozessdesign/Computergestützte Fertigung, Manufacturing Execution System (MES) usw.
Unabhängig davon, auf welcher Ebene sich das Anwendungssystem befindet, enthält es aus architektonischer Sicht zwei grundlegende Komponenten: den internen Funktionsimplementierungsteil und den externen Schnittstellenteil. Diese beiden Grundteile bestehen aus spezifischeren Komponenten und den Beziehungen zwischen ihnen. Der Schnittstellenteil ist der Teil des Anwendungssystems, der sich relativ häufig ändert, hauptsächlich aufgrund von Änderungen der Benutzeranforderungen an die Schnittstellenform. Im Funktionsimplementierungsteil ändern sich die verarbeiteten Daten relativ gesehen weniger, während sich der Algorithmus und die Steuerungsstruktur des Programms stärker ändern, was hauptsächlich auf Änderungen der funktionalen Anforderungen des Benutzers an das Anwendungssystem und Änderungen der Anforderungen an die Schnittstellenform zurückzuführen ist.
4. Informationsinfrastruktur
Unter organisatorischer Informationsinfrastruktur versteht man den Aufbau einer Umgebung, die aus Informationsgeräten, Kommunikationsnetzen, Datenbanken, Systemsoftware und unterstützender Software besteht und auf dem aktuellen Geschäft der Organisation sowie vorhersehbaren Entwicklungstrends und Anforderungen für die Informationserfassung, -verarbeitung, -speicherung und -verbreitung basiert.
Die organisatorische Informationsinfrastruktur gliedert sich in drei Teile:
1||| technische Infrastruktur
Es besteht aus Computerausrüstung, Netzwerk, Systemsoftware, unterstützender Software, Datenaustauschprotokollen usw.
2||| Informationsressourceneinrichtungen
Es besteht aus Daten und Informationen selbst, Datenaustauschformen und -standards, Informationsverarbeitungsmethoden usw.
3||| Verwaltungsinfrastruktur
Es bezieht sich auf die Organisationsstruktur der Informationssystemabteilung in der Organisation, die Arbeitsteilung zwischen Informationsressourcen-Facility-Managern, die Verwaltungsmethoden sowie Regeln und Vorschriften der Informationsinfrastruktur der Organisation usw.
Aufgrund der technologischen Entwicklung und Änderungen in den Anforderungen an Organisationssysteme ist die technische Infrastruktur bei der Gestaltung, Entwicklung und Wartung von Informationssystemen vielen sich ändernden Faktoren ausgesetzt, und aufgrund der Vielfalt der Implementierungstechnologien gibt es mehrere Möglichkeiten, dieselbe Funktion zu erreichen. Informationsressourceneinrichtungen unterliegen relativ geringen Änderungen im Systemaufbau. Unabhängig davon, welche Funktionen die Organisation ausführt oder wie sich Geschäftsprozesse ändern, müssen Daten und Informationen verarbeitet werden, und die meisten davon ändern sich nicht mit geschäftlichen Änderungen. Es gibt relativ viele Veränderungen in der Managementinfrastruktur. Dies liegt daran, dass sich Organisationen an Veränderungen im Umfeld anpassen und den Anforderungen des Wettbewerbs gerecht werden müssen, insbesondere in der Phase der Transformation und des Ausbaus zur Marktwirtschaft, der Einführung oder Änderung der Wirtschaftspolitik , Geschäftsmodellreformen usw. werden große Auswirkungen haben. Dies führt zu Änderungen in den Organisationsregeln und -vorschriften, den Managementmethoden, der personellen Arbeitsteilung und der Organisationsstruktur. Das Obige ist nur eine allgemeine Beschreibung der relativen Stabilität und relativen Veränderung der drei Grundkomponenten der Informationsinfrastruktur. Es gibt relativ stabile Teile und relativ volatile Teile in der technischen Infrastruktur, den Informationsressourceneinrichtungen und der Verwaltungsinfrastruktur.
5. Das strategische System befindet sich auf der ersten Ebene und seine Funktionen ähneln denen der strategischen Managementebene. Einerseits stellt es Innovations-, Rekonstruktions- und Reengineering-Anforderungen für Geschäftssysteme und andererseits fördert es die Integration Anforderungen an Anwendungssysteme. Das Geschäftssystem und das Anwendungssystem befinden sich auf der zweiten Ebene und gehören zur taktischen Verwaltungsebene. Das Geschäftssystem verwaltet und steuert die Organisation durch die Optimierung von Geschäftsprozessen, und das Anwendungssystem stellt die Mittel zur effektiven Nutzung von Informationen und Daten bereit diese Kontrolle und Verbesserung der betrieblichen Effizienz der Organisation. Die Informationsinfrastruktur befindet sich auf der dritten Ebene und ist der grundlegende Teil der Organisation zur Erreichung der Informatisierung und Digitalisierung. Sie entspricht der Betriebsverwaltungsebene. Sie bietet Computer-, Übertragungs-, Daten- und andere Unterstützung für Anwendungssysteme und strategische Systeme. Gleichzeitig bietet es eine effektive, flexible und reaktionsfähige technische und Management-Unterstützungsplattform für die Neuorganisation des Geschäftssystems der Organisation.
二、 Systemstruktur
I. Architekturdefinition
i. Zu den gängigen Definitionen gehören vor allem:
①Die Informationssystemarchitektur einer Software oder eines Computersystems besteht aus einer (oder mehreren) Strukturen des Systems, und die Struktur besteht aus Softwareelementen, äußerlich sichtbaren Attributen der Elemente und den Beziehungen zwischen ihnen.
②Die Informationssystemarchitektur bietet eine abstrakte Abstraktion der Struktur, des Verhaltens und der Eigenschaften des Softwaresystems auf hoher Ebene, bestehend aus einer Beschreibung der Elemente, aus denen das System besteht, der Interaktion dieser Elemente, den Mustern, die die Integration von Elementen leiten, und die Einschränkungen dieser Muster.
③Informationssystemarchitektur bezieht sich auf die grundlegende Organisation eines Systems, die in den Komponenten des Systems, der Beziehung zwischen Komponenten und der Beziehung zwischen Komponenten und der Umgebung sowie den Prinzipien, die seinen Entwurf und seine Entwicklung leiten, verkörpert ist.
Die ersten beiden Definitionen werden auf der abstrakten Ebene „Element-Struktur-Architektur“ beschrieben und haben dieselbe grundlegende Bedeutung. „Softwareelement“ bezieht sich in dieser Definition auf eine allgemeinere Abstraktion als „Komponente“, und die „äußerlich sichtbaren Eigenschaften“ eines Elements beziehen sich auf die Annahmen, die andere Elemente über das Element treffen, wie z. B. die von ihm bereitgestellten Dienste, Leistungsmerkmale, usw.
ii. Es kann aus den folgenden 6 Aspekten verstanden werden:
1. Architektur ist eine Abstraktion eines Systems, die diese Abstraktion widerspiegelt, indem sie Elemente, ihre äußerlich sichtbaren Eigenschaften und die Beziehungen zwischen Elementen beschreibt. Daher sind Details, die sich nur auf die interne konkrete Umsetzung beziehen, nicht Teil der Architektur, d. h. die Definition betont die „äußerlich sichtbaren“ Eigenschaften des Elements.
2. Die Architektur besteht aus mehreren Strukturen. Die Struktur beschreibt die Beziehung zwischen Elementen aus funktionaler Sicht. Die spezifische Struktur vermittelt Informationen über bestimmte Aspekte der Architektur, einzelne Strukturen können jedoch im Allgemeinen keine umfassende Informationssystemarchitektur darstellen.
3. Jede Software hat eine Architektur, aber es muss nicht unbedingt ein spezifisches Dokument geben, das die Architektur beschreibt. Das heißt, die Architektur kann unabhängig von der Beschreibung der Architektur existieren. Wenn ein Dokument veraltet ist, spiegelt es nicht das Schema wider.
4. Die Sammlung von Elementen und deren Verhalten bildet den Inhalt der Architektur. Aus welchen Elementen besteht das System, welche Funktionen haben diese Elemente (äußerlich sichtbar) und wie sind diese Elemente miteinander verbunden und interagieren sie? Das heißt, die Abstraktion wird in zwei Aspekten durchgeführt: Im statischen Aspekt konzentriert man sich auf die grobkörnige (Makro-)Gesamtstruktur des Systems (z. B. Schichtung); im dynamischen Aspekt konzentriert man sich auf die gemeinsamen Merkmale von Schlüsselverhalten innerhalb des Systems System.
5. Architektur ist „grundlegend“: Sie beinhaltet in der Regel gemeinsame Lösungen für verschiedene wichtige, sich wiederholende Probleme (Wiederverwendbarkeit) sowie wichtige Entscheidungen mit weitreichenden Konsequenzen (architektursensitiv) im Systemdesign (nach der Implementierung sind Änderungen teuer).
6. Architektur impliziert „Entscheidungsfindung“, das heißt, die Architektur ist das Ergebnis von Entwurf und Entscheidungsfindung durch Architekten auf der Grundlage wichtiger funktionaler und nichtfunktionaler Anforderungen (Qualitätsmerkmale und projektbezogene Einschränkungen).
iii. Die Architektur von Informationssystemen ist für Organisationen sehr wichtig, was sich hauptsächlich in Folgendem widerspiegelt:
① Faktoren, die die Architektur beeinflussen.
Die Projektbeteiligten des Softwaresystems (Kunden, Benutzer, Projektmanager, Programmierer, Tester, Vermarkter usw.) haben unterschiedliche Anforderungen an das Softwaresystem, die Entwicklungsorganisation (Projektteam) verfügt über unterschiedliche personelle Wissensstrukturen und die Qualität des Softwaresystems Architekturdesigner Aspekte wie Erfahrung und das aktuelle technische Umfeld sind Faktoren, die die Architektur beeinflussen. Diese Faktoren wirken sich auf die Architektur aus, indem sie die Entscheidungen des Architekten durch funktionale Anforderungen, nichtfunktionale Anforderungen, Einschränkungen und widersprüchliche Anforderungen beeinflussen.
② Architektur wirkt sich kontraproduktiv auf die oben genannten Faktoren aus und beeinflusst beispielsweise die Struktur der Entwicklungsorganisation.
Die Architektur beschreibt die grobkörnige (Makro-)Gesamtstruktur des Systems, sodass die Arbeit entsprechend der Architektur aufgeteilt werden kann und die Projektgruppe in mehrere Arbeitsgruppen unterteilt wird, wodurch die Entwicklung geordnet wird und sich auf die Ziele der Entwicklungsorganisation auswirkt. Das heißt, eine erfolgreiche Architektur bietet der Entwicklungsorganisation neue Geschäftsmöglichkeiten, dank der Demonstrationsfähigkeit des Systems, der Wiederverwendbarkeit der Architektur und der Verbesserung der Entwicklungserfahrung des Teams. Gleichzeitig wird ein erfolgreiches System geschaffen Einfluss auf die Anforderungen der Kunden an das nächste System nehmen.
II. Architekturklassifizierung
i. Einstufung
1. physische Architektur
Unter physischer Architektur versteht man, dass man nicht die tatsächliche Arbeit und funktionale Architektur jedes Teils des Systems berücksichtigt, sondern lediglich die räumliche Verteilung seines Hardwaresystems abstrakt untersucht.
Entsprechend der topologischen Beziehung von Informationssystemen im Raum werden sie im Allgemeinen in unterteilt
(1) Zentralisierte Architektur
Zentralisierte Architektur bezieht sich auf die zentralisierte Zuweisung physischer Ressourcen im Raum.
Das frühe eigenständige System war die typischste zentralisierte Architektur, die Software, Daten und wichtige externe Geräte in einem Computersystem konzentrierte. Ein Mehrbenutzersystem, das aus mehreren Benutzern besteht, die an verschiedenen Standorten verteilt sind und Ressourcen über Terminals teilen, ist ebenfalls eine zentralisierte Architektur. Die Vorteile einer zentralisierten Architektur sind zentralisierte Ressourcen, einfache Verwaltung und hohe Ressourcenauslastung. Mit zunehmender Systemgröße und zunehmender Komplexität des Systems wird es jedoch immer schwieriger, die zentralisierte Architektur aufrechtzuerhalten und zu verwalten, was häufig nicht dazu beiträgt, den Enthusiasmus, die Initiative und das Gefühl der Beteiligung der Benutzer am Aufbauprozess des Informationssystems zu mobilisieren. Darüber hinaus führt eine zu starke Ressourcenkonzentration dazu, dass das System anfällig wird. Sobald die Kernressourcen abnormal sind, kann es leicht zu einer Lähmung des gesamten Systems kommen.
(2) Verteilte Architektur
Verteilte Systeme beziehen sich auf die Verbindung von Computerhardware, Software, Daten und anderen Ressourcen an verschiedenen Standorten über Computernetzwerke, um eine gemeinsame Nutzung von Ressourcen an verschiedenen Standorten zu erreichen.
Die Hauptmerkmale der verteilten Architektur sind: Ressourcen können entsprechend den Anwendungsanforderungen konfiguriert werden, wodurch die Anpassungsfähigkeit des Informationssystems an Benutzeranforderungen und Änderungen in der externen Umgebung verbessert wird. Das System ist leicht zu erweitern und weist eine gute Sicherheit auf beeinträchtigt nicht das gesamte System. Da Ressourcen jedoch verstreut sind und zu verschiedenen Subsystemen gehören, ist es schwierig, Systemverwaltungsstandards zu vereinheitlichen und zu koordinieren, was der Planung und Verwaltung der gesamten Ressource nicht förderlich ist.
Verteilte Architektur kann unterteilt werden in
1||| Allgemeine verteilte Systeme
Der Server stellt lediglich Software-, Computer- und Datendienste bereit, und jedes Computersystem greift gemäß festgelegten Berechtigungen auf Daten und Programmdateien auf dem Server zu.
2||| Client/Server-Architektur
In zwei Kategorien unterteilt: Client und Server. Zu den Servern gehören Dateiserver, Datenbankserver, Druckserver usw.; andere Computersysteme auf Netzwerkknoten werden als Clients bezeichnet. Der Benutzer stellt über den Client eine Dienstanforderung an den Server, und der Server stellt dem Benutzer entsprechend der Anforderung verarbeitete Informationen bereit.
2. logische Architektur
Unter logischer Architektur versteht man die Synthese verschiedener funktionaler Teilsysteme eines Informationssystems.
Die logische Architektur eines Informationssystems ist sein funktionaler Komplex und sein konzeptioneller Rahmen.
Für das Managementinformationssystem einer Produktionsorganisation wird es aus der Perspektive der Managementfunktionen unterteilt, einschließlich Informationsmanagement-Subsystemen mit Hauptfunktionen wie Beschaffung, Produktion, Vertrieb, Personalwesen und Finanzen. Ein vollständiges Informationssystem unterstützt verschiedene funktionale Subsysteme einer Organisation und ermöglicht es jedem Subsystem, Funktionen auf verschiedenen Ebenen wie Transaktionsverarbeitung, Betriebsmanagement, Managementkontrolle und strategische Planung auszuführen. Jedes Subsystem kann über eigene dedizierte Dateien verfügen und gleichzeitig verschiedene Datentypen im Informationssystem gemeinsam nutzen und die Verbindung zwischen Subsystemen über standardisierte Schnittstellen wie Netzwerk und Daten realisieren. Ebenso verfügt jedes Subsystem über ein eigenes Anwendungsprogramm und kann auch öffentliche Programme aufrufen, die verschiedene Funktionen und Modelle in der Systemmodellbibliothek bedienen.
ii. System Integration
1. horizontale Integration
Unter horizontaler Integration versteht man die Integration verschiedener Funktionen und Anforderungen auf derselben Ebene, beispielsweise die Integration der Personal- und Gehaltsabrechnungssubsysteme der Betriebssteuerungsebene, um die Geschäftsabwicklung an der Basis zu integrieren.
2. vertikale Integration
Vertikale Integration bezieht sich auf die Organisation von Unternehmen auf allen Ebenen mit bestimmten Funktionen und Anforderungen. Diese Integration kommuniziert die Verbindungen zwischen Vorgesetzten und Untergebenen. Beispielsweise sind das Buchhaltungssystem einer Organisationsfiliale und das Buchhaltungssystem der gesamten Organisation integriert gemeinsam, wo ein integrierter Verarbeitungsprozess gebildet werden kann.
3. Vertikale und horizontale Integration
Vertikale und horizontale Integration bezieht sich auf die Synthese hauptsächlich aus den beiden Aspekten Informationsmodell und Verarbeitungsmodell, um einen zentralen Informationsaustausch zu erreichen, das Programm so modular wie möglich zu gestalten, auf die Extraktion gemeinsamer Teile zu achten und ein System für gemeinsame Daten und integrierte Informationen einzurichten Verarbeitungssystem.
III. Allgemeine Grundsätze
Unter Informationssystemarchitektur versteht man die Einrichtung eines mehrdimensionalen, hierarchischen, integrierten und offenen mehrdimensionalen, hierarchischen und integrierten offenen Systems, das auf einer umfassenden Betrachtung der Strategie, des Geschäfts, der Organisation, des Managements und der Technologie der Organisation basiert und sich auf die Komponenten konzentriert und Beziehungen zwischen den Komponenten des Informationssystems der Organisation. Es übernimmt eine systematische Architektur und bietet Organisationen ein gewisses Maß an Flexibilität in Informationssystemen sowie flexible und effektive Implementierungsmethoden.
Architektur besteht aus zwei grundlegenden Teilen: Komponenten und Beziehungen zwischen Komponenten.
Im Informationssystem werden relativ stabile Komponenten und Beziehungen extrahiert, und mit der Unterstützung der relativ stabilen Teile werden die relativ sich ändernden Teile neu organisiert, um den sich ändernden Anforderungen gerecht zu werden, sodass das Informationssystem auf bestimmte Änderungen in der Umgebung reagieren kann Ein gewisser Grad an Anpassungsfähigkeit, also ein gewisser Grad an Flexibilität, ist das Grundprinzip der Architektur von Informationssystemen.
IV. Gängige Architekturmodelle
i. Eigenständiger Anwendungsmodus
Ein eigenständiges System ist die einfachste Softwarestruktur, die sich auf die Ausführung auf einer physischen Maschine bezieht. Eigenständige Anwendung. Natürlich kann die Anwendung mehrere Prozesse oder mehrere Threads umfassen.
Ein großes Softwaresystem muss über viele integrierte und auf einer grafischen Oberfläche ausgeführte Subsysteme verfügen und kann auf mehreren Plattformen wie Linux, UNIX, Windows usw. ausgeführt werden. Produkte im professionellen Bereich, wie CATIA, Pro/Engineer, AutoCAD im Bereich computergestütztes Design, sowie Photoshop, CorelDRAW usw., die jedem im Bereich der Bildbearbeitung und -bearbeitung bekannt sind.
Ein wichtigeres Anwendungsgebiet des Softwarearchitekturentwurfs ist der Bereich der Informationssysteme, also Softwaresysteme mit Datenverarbeitung (Datenspeicherung, -übertragung, -sicherheit, -abfrage, -anzeige usw.) als Kern.
ii. Client/Server-Modus
Das Client/Server-Modell ist das am weitesten verbreitete Modell in Informationssystemen. Es kann als die Programmstruktur „Senden“ und „Reflexion“ der IPC-Programmierung für die prozessübergreifende Kommunikation basierend auf dem TCP / IP-Protokoll verstanden werden, dh der Client sendet ein TCP- oder UDP-Paket an den Server und der Server sendet dann ein TCP-Paket zurück an den Client, basierend auf der empfangenen Anfrage oder dem UDP-Paket
Vier gängige Architekturen
1. Zweischichtiges C/S
Zweischichtiges C/S ist im Wesentlichen die Anwendungssystem-Ausführung der IPC-Client/Server-Struktur. Das ist der „Fat Client“-Modus. Im tatsächlichen Systemdesign bezieht sich diese Art von Struktur hauptsächlich auf den Front-End-Client und das Back-End-Datenbankverwaltungssystem.
Die Front-End-Schnittstelle und das Back-End-Datenbankdienstmodell sind die typischsten Datenbank-Front-End-Entwicklungstools (wie PowerBuilder, Delphi, VB) usw. sind alles Softwaretools, die speziell zum Erstellen dieser Struktur verwendet werden.
2. Dreischichtige C/S- und B/S-Struktur
Zusätzlich zu den Datenbankzugriffsvorgängen sendet die Front-End-Schnittstelle Anforderungen an das Back-End, und es gibt viele andere Geschäftslogiken, die verarbeitet werden müssen. Die Front-End-Schnittstelle des dreischichtigen C/S und der Back-End-Dienst müssen über ein Protokoll (selbst entwickelt oder unter Verwendung eines Standardprotokolls) kommunizieren (einschließlich Anforderungen, Antworten, Remote-Funktionsaufrufe usw.).
In der Regel Folgendes enthalten:
1||| Basierend auf dem TCP/IP-Protokoll wird es direkt auf Basis der zugrunde liegenden Socket-API entwickelt. Dies ist im Allgemeinen nur für kleine Systeme mit einfachen Anforderungen und Funktionen geeignet.
2||| Zuerst wird ein benutzerdefinierter Nachrichtenmechanismus eingerichtet (der TCP/IP- und Socket-Programmierung kapselt), und dann wird die Kommunikation zwischen Vordergrund und Hintergrund über diesen Nachrichtenmechanismus realisiert. Der Nachrichtenmechanismus kann auf einer XML- oder Byte-Stream-Definition (Stream) basieren. Obwohl es sich um benutzerdefinierte Kommunikation handelt, können darauf basierend große verteilte Systeme aufgebaut werden.
3||| Basierend auf RPC-Programmierung.
4||| Basierend auf dem CORBA/IOP-Protokoll.
5||| Basierend auf Java RMI.
6||| Basierend auf J2EE JMS.
7||| Basierend auf dem HTTP-Protokoll, beispielsweise dem Informationsaustausch zwischen Browser und Webserver. Hier muss darauf hingewiesen werden, dass es sich bei HTTP nicht um eine objektorientierte Struktur handelt. Objektorientierte Anwendungsdaten werden zunächst abgeflacht und dann übertragen.
Das typischste Anwendungsmodell, das auf der dreistufigen C/S-Struktur basiert, ist das B/S-Modell (Browser/Server, Browser/Server).
Ein Webbrowser ist eine Clientanwendung, die zum Abrufen und Anzeigen von Dokumenten verwendet wird und über das Hypertext Transfer Protocol HTTP (Hyper Text Transfer Protocol) mit dem Webserver verbunden ist. In diesem Modus spart der universelle, kostengünstige Browser die Entwicklungs- und Wartungskosten der C/S-Modus-Client-Software mit zweischichtiger Struktur. Diese Browser sind jedem bekannt, darunter MSInternet Explorer, Mozilla Firefox usw.
Ein Webserver bezieht sich auf ein Programm, das sich auf einem bestimmten Computertyp im Internet befindet. Wenn ein Webbrowser (Client) eine Verbindung zum Server herstellt und eine Datei oder Daten anfordert, verarbeitet der Server die Anfrage und sendet die Datei oder Daten an den Browser. Die begleitenden Informationen teilen dem Browser mit, wie er die Datei (d. h. Datei) anzeigen soll Typ). Der Server verwendet HTTP für den Informationsaustausch und kann als HTTP-Server bezeichnet werden.
Die meisten dieser Vorgänge werden tatsächlich auf dem Webserver ausgeführt. Der Webbrowser sendet lediglich die Anfragen der Benutzer im HTTP-Protokollformat. Die Abfrageergebnisse werden nur angezeigt. Natürlich kann es sich bei den Hardwaregeräten, auf denen der Webbrowser und der Server gehostet werden, um zwei Computer handeln, die Tausende von Kilometern voneinander entfernt im Webnetzwerk liegen.
Es sollte betont werden, dass die Kommunikation zwischen dem B/S-Modus-Browser und dem Webserver immer noch TCP/IP ist, das Protokollformat jedoch auf der Anwendungsebene standardisiert ist. Tatsächlich ist B/S eine dreischichtige C/S-Struktur, die eine universelle Client-Schnittstelle übernimmt.
3. Mehrschichtiger C/S-Aufbau
Unter einer mehrschichtigen C/S-Struktur versteht man im Allgemeinen eine Struktur mit mehr als drei Schichten. In der Praxis handelt es sich hauptsächlich um vier Schichten, nämlich Front-End-Schnittstelle (z. B. Browser), Webserver, Middleware (oder Anwendungsserver) und Datenbankserver .
Die Middleware-Schicht erledigt hauptsächlich die folgenden Arbeitsaspekte:
1||| Verbessern Sie die Skalierbarkeit des Systems und steigern Sie die Parallelitätsleistung.
2||| Die Middleware-/Anwendungsschicht ist auf die Weiterleitung von Anforderungen oder eine Verarbeitung im Zusammenhang mit der Anwendungslogik spezialisiert. Middleware kann im Allgemeinen als Anforderungs-Proxy oder als Anwendungsserver verwendet werden. Diese Rolle der Middleware wird häufig in der mehrschichtigen Struktur von J2EE verwendet. Beispielsweise sind die von BEA WebLogic, IBM WebSphere usw. bereitgestellten EJB-Container Komponenten der Middleware-Technologie, die speziell für die Handhabung komplexer Organisationslogik entwickelt wurden.
3||| Erhöhen Sie die Datensicherheit.
4. Model-View-Controller-Muster
Model-View-Controller (MVC) ist eigentlich ein häufig verwendetes standardisiertes Muster der oben genannten mehrschichtigen C/S-Struktur.
In der J2EE-Architektur bezieht sich die View-Präsentationsschicht auf die Browserschicht, die zur grafischen Anzeige der Anforderungsergebnisse verwendet wird. Der Controller bezieht sich auf die Webserverschicht und die Modellmodellschicht bezieht sich auf den Teil der Anwendungslogikimplementierung und der Datenpersistenz. Derzeit gängige J2EE-Entwicklungsframeworks wie JSF, Struts, Spring, Hibernate usw. und ihre Kombinationen wie Struts Spring Hibernate (SSH), JSP Spring Hibernate usw. sind alle auf die MVC-Architektur ausgerichtet. Darüber hinaus verfügen alle Sprachen wie PHP, Perl und MFC über MVC-Implementierungsmuster.
MVC erfordert hauptsächlich, dass der Code der Präsentationsschicht (Ansicht) und der Datenschicht (Modell) getrennt wird und der Controller für die Verbindung verwendet werden kann Verschiedene Modelle und Ansichten zur Erfüllung der Benutzeranforderungen. Aus der Perspektive eines Schichtsystems befinden sich die hierarchische Struktur von MVC, seine Controller und Ansichten normalerweise auf der Ebene des Webservers. Je nachdem, ob das „Modell“ die Geschäftslogikverarbeitung in separate Dienstverarbeitung unterteilt, kann MVC in drei Schichten oder vier Schichten unterteilt werden. Stufensystem.
iii. Serviceorientierte Architektur (SOA)-Muster
1. Serviceorientierte Architektur
Wenn zwei Anwendungssysteme mit mehrschichtiger C/S-Struktur miteinander kommunizieren müssen, entsteht eine serviceorientierte Architektur. (Serviceorientierte Architektur, SOA)
Ein unabhängiges Anwendungssystem bedeutet, dass das Anwendungssystem unabhängig von der Anzahl der Dienstschichten nicht ordnungsgemäß funktioniert, wenn es entfernt wird. Es kann sich um eine unabhängige Anwendung handeln, die der Außenwelt vollständige Funktionen bietet.
Verwenden Sie Middleware, um SOA-Anforderungen zu realisieren, z. B. Nachrichten-Middleware, Transaktions-Middleware usw.
In der Praxis lässt sich die serviceorientierte Architektur konkret in heterogene Systemintegration, homogene Systemaggregation, föderierte Architektur usw. unterteilen.
2. Internetservice
Die dienstorientierte Architektur spiegelt sich zwischen Webanwendungen wider und wird zum Webdienst, dh zwei Internetanwendungen können sich gegenseitig einige interne „Dienste“ öffnen (solche Dienste können als Funktionsmodule, Funktionen, Prozesse usw. verstanden werden). Derzeit umfassen die Protokolle für Webanwendungen zum Öffnen ihrer internen Dienste nach außen hauptsächlich SOAP und WSDL. Spezifische Informationen finden Sie in den entsprechenden Standards.
Web Service ist eines der typischsten und beliebtesten Anwendungsmuster der serviceorientierten Architektur.
3. Die Essenz einer serviceorientierten Architektur
Die Essenz ist der Nachrichtenmechanismus oder Remote Procedure Call (RPC).
iv. Organisatorischer Datenaustauschbus
Das heißt, ein gemeinsamer Kanal für den Informationsaustausch zwischen verschiedenen Organisationsanwendungen.
Diese Struktur wird häufig beim Informationsaustausch zwischen verschiedenen Anwendungssystemen in großen Organisationen verwendet. In China wird diese Struktur hauptsächlich von Organisationen mit einem hohen Grad an Informatisierung und Digitalisierung verwendet.
Was den Datenbus selbst betrifft, sollte er im Wesentlichen ein Softwaresystem sein, das als Connector (Connector) bezeichnet wird. Es kann auf Middleware (z. B. Nachrichten-Middleware oder Transaktions-Middleware) basieren oder hauptsächlich auf Basis des CORBA/IOP-Protokolls entwickelt werden Die Funktion besteht darin, Daten, Anfragen oder Antworten gemäß der vordefinierten Konfiguration oder Nachrichtenheaderdefinition zu empfangen und zu verteilen.
Der Datenaustauschbus auf Organisationsebene kann gleichzeitig die Funktionen von Echtzeittransaktionen und der Übertragung großer Datenmengen übernehmen. In der Praxis sind ausgereifte Datenaustauschbusse für Unternehmen jedoch hauptsächlich für Echtzeittransaktionen konzipiert und erfordern Zuverlässigkeit Die Übertragung großer Datenmengen erfordert oft eine individuelle Gestaltung. Wird CORBA als Kommunikationsprotokoll verwendet, ist der Vermittlungsbus der Object Request Broker (ORB), auch „Agentensystem“ genannt.
V. Planung und Design
i. Integrierte Architekturentwicklung
1. Basierend auf der Anwendungsfunktion als Hauptlinienarchitektur
Für kleine und mittlere Industrieunternehmen oder Industrieunternehmen in der Anfangsphase der Informatisierung und Digitalisierung besteht das Hauptziel des Aufbaus der Informationssystemintegration darin, die Arbeitseffizienz zu verbessern und Geschäftsrisiken zu reduzieren. Gleichzeitig übernehmen Unternehmen aufgrund der Defizite ihrer eigenen Informatisierungsteams und -talente sowie des Mangels an tiefgreifendem Verständnis der Informatisierung und Digitalisierung in ihren Geschäftssystemen häufig die „Borrowing Doctrine“, um ihre Informationssysteme aufzubauen. Das heißt, der direkte Kauf vollständiger Sätze ausgereifter Anwendungssoftware und der Aufbau einer relevanten Infrastruktur basierend auf den betrieblichen Anforderungen der Anwendungssoftware.
In dieser Phase der Unternehmensentwicklung liegt der Schwerpunkt auf der detaillierten Aufteilung der Organisationsfunktionen und der Einführung branchenspezifischer Best Practices. Daher basiert der Informationsaufbau einer Organisation häufig auf den Softwarefunktionen des Informationssystems, wie z. B. Finanzmanagement, Geräteverwaltung, Anlagenverwaltung usw., um das Informationssystem auszuführen Planung, Design, Bereitstellung und Betrieb. Gleichzeitig kann durch den Einsatz kompletter Softwarepakete die eigene Management- oder Prozessebene gestärkt werden. Die Integration und Fusion zwischen Anwendungssoftware oder Modulen erfolgt hauptsächlich über die Softwareschnittstelle des Systems. Unternehmen übernehmen häufig eine einheitliche Planung und schrittweise Implementierung, d. h. welche Funktionen benötigt werden und welche Funktionen online bereitgestellt werden
2. Basierend auf Plattformfunktionen als Hauptarchitektur
Die Systemintegrationsarchitektur mit Plattformfunktionen als Hauptlinie entstand aus der Entwicklung der Cloud-Computing-Technologie und der allmählichen Reife von Cloud-Diensten. Sein Kernkonzept besteht darin, jede Komponente des Informationssystems im „Silo-Stil“ in eine „abgeflachte“ Konstruktionsmethode umzuwandeln, einschließlich abgeflachter Datenerfassung, abgeflachter Netzwerkübertragung, abgeflachter Anwendungs-Middleware und abgeflachter Anwendungsentwicklung usw. sowie durch standardisierte Schnittstellen und neue Informationstechnologien können die Elastizität und Agilität von Informationssystemen aufgebaut werden. Durch die Plattformarchitektur unterstützte Informationssystemanwendungen können mit spezieller Konstruktion oder unabhängiger Konfiguration (oder kleiner Entwicklung) kombiniert werden, um schnell die vom Unternehmen benötigten Anwendungssystemfunktionen zu erhalten und so die Mängel vollständiger Softwareanbieter bei der personalisierten Softwareanpassung zu überwinden.
In der konkreten Praxis ist die architektonische Transformation von Unternehmen ein kontinuierlicher Prozess. Unternehmen werden weiterhin das vollständige Softwarebereitstellungsmodell für Anwendungen mit hoher Reife und wenigen Änderungen verwenden und Plattformarchitekturen für neue und sich ändernde Anwendungen übernehmen und letztendlich die Koexistenz der beiden Architekturen beibehalten (auch bekannt als Dual-State-IT, d. h. Sensitive State und Steady State) oder alles auf eine Plattformarchitektur umgestellt.
3. Internet als Mainline-Architektur
Wenn sich ein Unternehmen zur Stufe der Industriekette oder der ökologischen Kette entwickelt oder zu einem komplexen und diversifizierten Konzernunternehmen wird, beginnt das Unternehmen, einen Transfer oder Übergang zu einer Systemintegrationsarchitektur mit dem Internet als Hauptlinie anzustreben.
Eine Systemintegrationsarchitektur mit dem Internet als Hauptlinie, wobei der Schwerpunkt auf der maximalen Anwendung (Microservices) jeder Informationssystemfunktion liegt
Die Systemintegrationsarchitektur mit dem Internet als Hauptlinie integriert und wendet mehr Informationstechnologien der neuen Generation und ihre Anwendungsinnovationen an
4. Die Einführung verschiedener Mainline-Architekturen hängt im Wesentlichen vom Grad der Geschäftsentwicklung des Unternehmens ab, der sich in der Reife der digitalen Transformation des Unternehmens widerspiegelt.
ii. TOGAF-Architekturentwicklungsmethode
TOGAF (The Open Group Architecture Framework) ist ein offener Framework-Standard für Unternehmensarchitektur, der Konsistenzgarantien für Standards, Methoden und Kommunikation zwischen Fachleuten für Unternehmensarchitektur bietet.
TOGAF-Grundlagen
TOGAF wird von der internationalen Organisation The Open Group entwickelt.
Die Organisation begann 1993 als Reaktion auf Kundenanforderungen mit der Entwicklung von Systemarchitekturstandards und veröffentlichte 1995 das TOGAF-Architektur-Framework. Die Grundlage von TOGAF ist die Technical Architecture For Information Management (TAFIM) des US-Verteidigungsministeriums. Es basiert auf einem iterativen Prozessmodell, das Best Practices und einen wiederverwendbaren Satz bestehender Architekturressourcen unterstützt. Mit ihm lässt sich eine geeignete Unternehmensarchitektur entwerfen, bewerten und etablieren. TOGAF hat sich international als fähig erwiesen, Unternehmens-IT-Architekturen flexibel und effizient aufzubauen.
Das Framework soll Unternehmen bei der Organisation und Bewältigung aller kritischen Geschäftsanforderungen durch die folgenden vier Ziele unterstützen:
1||| Stellen Sie sicher, dass alle Benutzer, von wichtigen Stakeholdern bis hin zu Teammitgliedern, dieselbe Sprache sprechen. Dies hilft allen, die Rahmenbedingungen, Inhalte und Ziele auf die gleiche Weise zu verstehen und das gesamte Unternehmen auf den gleichen Stand zu bringen, indem etwaige Kommunikationsbarrieren abgebaut werden.
2||| Vermeiden Sie eine „Fesselung“ an proprietäre Lösungen für die Unternehmensarchitektur. Solange das Unternehmen TOGAF intern und nicht für kommerzielle Zwecke nutzt, ist das Framework kostenlos.
3||| Sparen Sie Zeit und Geld und nutzen Sie Ressourcen effizienter.
4||| Erzielen Sie einen erheblichen Return on Investment (ROI).
TOGAF spiegelt die Struktur und den Inhalt der internen Architekturfunktionen eines Unternehmens wider. Die TOGAF9-Version umfasst sechs Komponenten:
1||| Architekturentwicklungsmethoden
Dieser Teil ist der Kern von TOGAF. Er beschreibt die TOGAF Architecture Development Method (ADM), eine schrittweise Methode zur Entwicklung einer Unternehmensarchitektur.
2||| ADM-Richtlinien und -Technologien
Dieser Abschnitt enthält eine Reihe von Richtlinien und Techniken, die zur Anwendung von ADM verwendet werden können.
3||| Architekturinhaltsrahmen
In diesem Abschnitt wird das TOGAF-Inhaltsframework beschrieben, einschließlich eines strukturierten Metamodells von Architekturartefakten, der Verwendung wiederverwendbarer Architekturbausteine (ABBs) und einer Übersicht über typische Architekturergebnisse.
4||| Unternehmenskontinuum und Tools
In diesem Abschnitt werden Taxonomien und Tools zur Klassifizierung und Speicherung der Ergebnisse von Architekturaktivitäten innerhalb eines Unternehmens erläutert.
5||| TOGAF-Referenzmodell
In diesem Teil werden zwei Architekturreferenzmodelle bereitgestellt, nämlich das TOGAF Technology Reference Model (TRM) und das Integrated Information Infrastructure Reference Model (II-RM).
6||| Architektur-Fähigkeits-Framework
In diesem Abschnitt werden die Organisation, Prozesse, Fähigkeiten, Rollen und Verantwortlichkeiten erläutert, die für die Einrichtung und den Betrieb eines Architekturbüros in einem Unternehmen erforderlich sind.
Die Kernidee des TOGAF-Frameworks ist:
1||| Modulare Architektur
Der TOGAF-Standard ist modular aufgebaut.
2||| Inhaltsrahmen
Der TOGAF-Standard umfasst ein Content-Framework, das gemäß der Architecture Development Method (ADM) konsistentere Ergebnisse liefert. Das TOGAF-Content-Framework bietet ein detailliertes Modell für die Architektur von Produkten.
3||| Erweiterter Leitfaden
Die erweiterten Konzepte und Spezifikationen des TOGAF-Standards unterstützen interne Teams in großen Organisationen bei der Entwicklung mehrstufiger Integrationsarchitekturen, die innerhalb eines übergreifenden Architektur-Governance-Modells funktionieren.
4||| architektonischer Stil
Der TOGAF-Standard ist flexibel konzipiert und kann in verschiedenen Architekturstilen eingesetzt werden.
5||| Der Schlüssel zu TOGAF ist die Architekturentwicklungsmethode, eine zuverlässige und effektive Methode, die die Organisationsstruktur der Geschäftsanforderungen erfüllen kann.
ADM-Methode
Die Architecture Development Method (ADM) beschreibt die verschiedenen Schritte, die zur Entwicklung einer Unternehmensarchitektur erforderlich sind, und die Beziehungen zwischen ihnen. Detaillierte Definition, es ist auch der Kerninhalt der TOGAF-Spezifikation.
Der ADM-Ansatz besteht aus einer Reihe von Phasen, die in der Reihenfolge der Architekturentwicklung im Architekturbereich ringförmig angeordnet sind.
Dieses Modell unterteilt den gesamten ADM-Lebenszyklus in zehn Phasen, einschließlich Vorbereitungsphase, Nachfragemanagement, architektonische Vision, Geschäftsarchitektur, Informationssystemarchitektur (Anwendung und Daten), technische Architektur, Chancen und Lösungen, Migrationsplanung, Implementierungs-Governance und Architektur-Änderungs-Governance . Stufen, diese zehn Stufen sind ein iterativer Prozess.
Der ADM-Ansatz wird iterativ während des gesamten Architekturentwicklungsprozesses, zwischen den Phasen und innerhalb jeder Phase angewendet. Im gesamten Lebenszyklus von ADM muss jede Phase die Entwurfsergebnisse auf der Grundlage der ursprünglichen Geschäftsanforderungen bestätigen, was auch einige für den Geschäftsprozess spezifische Phasen umfasst. Die Validierung erfordert eine Überprüfung der Unternehmensabdeckung, des Zeitrahmens, des Detaillierungsgrades, der Pläne und Meilensteine. Die Wiederverwendung architektonischer Vermögenswerte sollte in jeder Phase in Betracht gezogen werden.
ADM hat ein dreistufiges Iterationskonzept entwickelt:
1||| Iteration basierend auf dem gesamten ADM
Die zirkuläre Anwendung des ADM-Ansatzes bedeutet, dass der Abschluss einer Architekturentwicklungsphase direkt zur nächsten Folgephase führt.
2||| Iterationen über mehrere Entwicklungsstufen hinweg
Nach Abschluss der Entwicklungsarbeiten in der Phase der technischen Architektur kehrte es in die Entwicklungsphase der Geschäftsarchitektur zurück.
3||| Iteration innerhalb einer Phase
TOGAF unterstützt die iterative Entwicklung komplexer Architekturinhalte auf der Grundlage mehrerer Entwicklungsaktivitäten innerhalb einer Phase.
Hauptaktivitäten in jeder Entwicklungsphase von ADM
VI. Wertorientierte Architektur
i. Modellübersicht
Der Zweck eines Systems besteht darin, Mehrwert für seine Stakeholder zu schaffen.
Die Kernmerkmale des Wertemodells:
(1) Werterwartung
Werterwartungen stellen die Nachfrage nach einem bestimmten Merkmal dar, einschließlich Inhalt (Funktion), Zufriedenheit (Qualität) und Praktikabilität auf verschiedenen Qualitätsebenen.
Beispielsweise hat ein Autofahrer eine Werterwartung an die Geschwindigkeit und Sicherheit des plötzlichen Bremsens des Autos bei einer Geschwindigkeit von 60 Stundenkilometern.
(2) Reaktionskraft
In der tatsächlichen Umgebung der Systembereitstellung ist es schwierig, eine bestimmte Werterwartung zu erreichen. Je höher die Erwartung, desto größer ist normalerweise die Schwierigkeit, dh die Reaktionskraft.
Beispielsweise hängt das Ergebnis einer Notbremsung eines Autos mit einer Geschwindigkeit von 60 Stundenkilometern von der Art der Straßenoberfläche, der Neigung der Straßenoberfläche und dem Gewicht des Autos ab.
(3) Katalysator für Veränderung
Ein Veränderungskatalysator stellt ein Ereignis in der Umgebung dar, das eine Änderung der Werterwartungen verursacht, oder eine Einschränkung, die zu einem anderen Ergebnis führt.
Die Gegenkräfte und Katalysatoren für Veränderungen werden als Zwänge bezeichnet, und diese drei werden zusammenfassend als Werttreiber bezeichnet. Wenn ein System so konzipiert ist, dass es die Wertmodellanforderungen seiner Stakeholder effektiv erfüllt, muss es in der Lage sein, Wertmodelle zu identifizieren und zu analysieren.
Allgemeine Ansätze wie Anwendungsfallszenarien und Geschäfts-/Marketinganforderungen konzentrieren sich zunächst auf die Arten von Akteuren, die mit dem System interagieren. Dieser Ansatz weist vier herausragende Einschränkungen auf.
(1) Achten Sie mehr auf die Verhaltensmuster der Teilnehmer und weniger auf die darin enthaltenen Ziele.
(2) Die Teilnehmer sind oft streng in mehrere Rollen eingeteilt, wobei die Personen in jeder Rolle im Wesentlichen gleich sind (z. B. Geschäftsleute, Investmentmanager oder Systemadministratoren).
(3) Unterschiede in den limitierenden Faktoren werden oft ignoriert (z. B. ob die Wertpapierhändler in New York mit denen in London identisch sind, ob der Markt für den Handel im Vergleich zum täglichen Handel geöffnet ist).
(4) Das Ergebnis ist einfach. Anforderungen werden erfüllt oder nicht erfüllt, Anwendungsfälle erfolgreich abgeschlossen oder nicht.
Es gibt einen sehr logischen, praktischen Grund für diesen Ansatz: Er verwendet sequentielles Denken und kategoriale Logik, ist also leicht zu lehren und zu erklären und liefert eine Reihe von Ergebnissen, die leicht zu überprüfen sind.
ii. strukturelle Herausforderungen
Eine architektonische Herausforderung entsteht, weil eine oder mehrere Einschränkungen es schwieriger machen, eine oder mehrere Erwartungen zu erfüllen.
In jeder Umgebung erfordert die Identifizierung architektonischer Herausforderungen eine Bewertung.
(1) Welche Einschränkungen wirken sich auf einen oder mehrere gewünschte Werte aus?
(2) Wenn Auswirkungen bekannt sind, wäre es für sie einfacher (positive Auswirkungen) oder schwieriger (negative Auswirkungen), die Erwartungen zu erfüllen?
(3) Wie schwerwiegend sind die verschiedenen Auswirkungen? In diesem Fall genügen in der Regel die einfachen Stufen „niedrig“, „mittel“ und „hoch“.
Die Bewertung muss die Architektur im Kontext ihrer eigenen Herausforderungen betrachten. Während es möglich ist, Nutzenkurven über Kontexte hinweg zu mitteln, kann die gleiche Behandlung nicht auf die Auswirkungen von Einschränkungen auf erwartete Werte angewendet werden. Nehmen wir beispielsweise an, dass der Webserver Seiten in zwei Situationen bereitstellt: Die eine greift auf statische Informationen zu, beispielsweise auf Referenzen, die eine Antwortzeit von 1 bis 3 Sekunden erfordern, und die andere greift auf dynamische Informationen zu, beispielsweise auf Informationen zu laufenden Sportveranstaltungen. Die Reaktionszeit des persönlichen Bewertungsbogens beträgt 3 bis 6 Sekunden.
In beiden Fällen gelten CPU-, Speicher-, Festplatten- und Netzwerkbeschränkungen. Wenn das Anforderungsvolumen jedoch um den Faktor 10 oder 100 ansteigt, können diese beiden Szenarien auf sehr unterschiedliche Skalierbarkeitshindernisse stoßen. Bei dynamischen Inhalten wird die Synchronisierung von Updates und Zugriffen bei hoher Auslastung zum limitierenden Faktor. Bei statischen Inhalten kann die hohe Belastung durch häufiges Zwischenspeichern gelesener Seiten überwunden werden.
Die Entwicklung der Architekturstrategie eines Systems beginnt mit:
(1) Identifizieren und priorisieren Sie geeignete Wertekontexte.
(2) Definieren Sie Nutzenkurven und priorisierte Erwartungswerte in jedem Kontext.
(3) Identifizieren und analysieren Sie Gegenkräfte und Katalysatoren für Veränderungen in jedem Kontext.
(4) Erkennen Sie Bereiche, in denen es aufgrund von Einschränkungen schwierig ist, die Erwartungen zu erfüllen.
Es macht nur Sinn, dass die frühesten architektonischen Entscheidungen den größten Wert schaffen. Es gibt mehrere Kriterien für die Priorisierung von Architekturen, die Kompromisse wie Wichtigkeit, Grad, Konsequenzen und Isolation vorschlagen.
(1) Bedeutung
Wie priorisiert sind die von der Herausforderung betroffenen Erwartungen, und wenn diese Erwartungen spezifisch für eine kleine Anzahl von Kontexten sind, welche relativen Prioritäten haben diese Kontexte?
(2) Grad
Welchen Einfluss haben die Einschränkungen auf den erwarteten Wert?
(3) als Ergebnis
Ungefähr, wie viele Optionen verfügbar sind und ob sie sich in Schwierigkeit oder Wirksamkeit erheblich unterscheiden.
(4) Isolierung
Was ist mit der Isolierung des realistischsten Szenarios?
Richtlinien für die Architekturstrategie
(1) organisieren
Wie sind Subsysteme und Komponenten systematisch organisiert? Wie werden die Systeme im Netzwerk eingesetzt? Welche Arten von Benutzern und externen Systemen gibt es?
(2) arbeiten
Wie interagieren Komponenten? In welchen Fällen erfolgt die Kommunikation synchron und in welchen Fällen erfolgt die Koordination der verschiedenen Komponenten?
(3) Variabilität
Welche wichtigen Funktionen des Systems können sich ändern, wenn sich die Bereitstellungsumgebung ändert? Welche Optionen werden unterstützt (z. B. Kompilieren, Verknüpfen, Installieren, Starten oder zur Laufzeit)? der Divergenz? Welcher Zusammenhang besteht zwischen ihnen?
(4) Evolution
Wie ist das System so konzipiert, dass es Veränderungen unterstützt und gleichzeitig seine Stabilität aufrechterhält? Welche konkreten Arten von größeren Veränderungen sind zu erwarten?
Architekturstrategie ist wie Ruder und Kiel eines Segelboots und bestimmt Richtung und Stabilität. Es sollte sich um eine kurze, anspruchsvolle Richtungserklärung handeln, die für alle Beteiligten verständlich sein muss und während der gesamten Lebensdauer des Systems relativ stabil bleiben sollte.
iii. Der Zusammenhang zwischen Modell und Struktur
Der Zusammenhang zwischen dem Wertemodell und der Softwarearchitektur ist klar und logisch und kann in den folgenden 9 Punkten ausgedrückt werden.
(1) Softwareintensive Produkte und Systeme dienen der Wertschöpfung.
(2) Der Wert ist eine skalare Größe, die das Verständnis des Grenznutzens mit der relativen Bedeutung vieler verschiedener Ziele verbindet. Zielkonflikte sind ein äußerst wichtiges Thema.
(3) Wert existiert auf mehreren Ebenen, von denen einige das Zielsystem als Wertgeber einbeziehen. Die in diesen Bereichen verwendeten Wertemodelle umfassen die wesentlichen Treiber der Softwarearchitektur.
(4) Wertmodelle auf höheren Hierarchieebenen können Änderungen an den darunter liegenden Wertmodellen bewirken. Dies ist eine wichtige Grundlage für die Formulierung von Systementwicklungsprinzipien.
(5) Für jede Wertegruppe ist das Wertemodell homogen. Wertekontexte, die unterschiedlichen Umgebungsbedingungen ausgesetzt sind, haben unterschiedliche erwartete Werte.
(6) Systementwicklungssponsoren haben unterschiedliche Prioritäten, um den Anforderungen unterschiedlicher Wertekontexte gerecht zu werden.
(7) Architektonische Herausforderungen entstehen durch den Einfluss von Umweltfaktoren auf die Erwartungen innerhalb eines Kontexts.
(8) Ein architektonischer Ansatz versucht, den Wert zu maximieren, indem zunächst die architektonischen Herausforderungen mit der höchsten Priorität bewältigt werden.
(9) Die Architekturstrategie wird aus dem Architekturansatz mit der höchsten Priorität synthetisiert, indem gemeinsame Regeln, Richtlinien und Organisationsprinzipien, Abläufe, Änderungen und Entwicklungen zusammengefasst werden.
三、 Anwendungsarchitektur
I. Zusammenfassung
Der Hauptinhalt der Anwendungsarchitektur besteht darin, die hierarchische Domänenarchitektur der Zielanwendung zu planen, die Zielanwendungsdomäne, Anwendungsgruppe und Zielanwendungskomponenten gemäß der Geschäftsarchitektur zu planen und eine logische Ansicht und Systemansicht der Zielanwendungsarchitektur zu erstellen.
Aus funktionaler Sicht wird erläutert, wie jede Anwendungskomponente und die Anwendungsarchitektur als Ganzes die hohen IT-Anforderungen der Organisation erfüllen können, und die Interaktion zwischen den Hauptzielanwendungskomponenten beschrieben.
II. Das Grundprinzip
1. Prinzip der Geschäftsanpassungsfähigkeit
Die Anwendungsarchitektur sollte den geschäftlichen Fähigkeiten dienen und sie verbessern und in der Lage sein, die strategischen Ziele der Geschäfts- oder Technologieentwicklung des Unternehmens zu unterstützen. Gleichzeitig sollte die Anwendungsarchitektur über ein gewisses Maß an Flexibilität und Skalierbarkeit verfügen, um sich an Änderungen anzupassen, die durch die zukünftige Geschäftsarchitektur entstehen Entwicklung.
2. Wenden Sie das Aggregationsprinzip an
Basierend auf den vorhandenen Systemfunktionen können wir durch die Integration von Anwendungen auf Abteilungsebene die Probleme mehrerer Anwendungssysteme, verstreuter Funktionen, Überlappungen und unklarer Grenzen lösen und den Aufbau eines organisatorisch zentralisierten Anwendungssystems auf „Organisationsebene“ fördern.
3. Funktionsspezialisierungsprinzip
Führen Sie eine Anwendungsplanung gemäß der Aggregation von Geschäftsfunktionen durch und erstellen Sie Anwendungssysteme entsprechend den Anwendungskomponenten. System, um den Anforderungen verschiedener Geschäftsbereiche gerecht zu werden und eine berufliche Weiterentwicklung zu erreichen.
4. Prinzip der Risikominimierung
Reduzieren Sie die Kopplung zwischen Systemen, verbessern Sie die Unabhängigkeit eines einzelnen Anwendungssystems, verringern Sie die gegenseitige Abhängigkeit zwischen Anwendungssystemen, behalten Sie die lose Kopplung zwischen Systemebenen und Systemgruppen bei, vermeiden Sie Einzelpunktrisiken, reduzieren Sie Systembetriebsrisiken und stellen Sie die Zuverlässigkeit von Anwendungssystemen sicher. sicher und stabil.
5. Prinzip der Wiederverwendung von Vermögenswerten
Ermutigen und fördern Sie die Verfeinerung und Wiederverwendung architektonischer Vermögenswerte, um den Anforderungen einer schnellen Entwicklung und reduzierten Entwicklungs- und Wartungskosten gerecht zu werden. Planen Sie gemeinsam genutzte Anwendungen auf Organisationsebene so, dass sie zu Basisdiensten werden, richten Sie ein standardisiertes System ein und verwenden Sie sie innerhalb der Organisation wieder und teilen Sie sie. Gleichzeitig ist die Architektur durch die Wiederverwendung von Diensten oder die Kombination von Diensten flexibel genug, um den differenzierten Geschäftsanforderungen verschiedener Geschäftsbereiche gerecht zu werden und die nachhaltige Entwicklung des Geschäfts der Organisation zu unterstützen.
III. hierarchische Gruppierung
Der Zweck der Schichtung der Anwendungsarchitektur besteht darin, eine Trennung von Geschäft und Technologie zu erreichen, die Kopplung zwischen den einzelnen Schichten zu verringern, die Flexibilität jeder Schicht zu verbessern, die Fehlerisolierung zu erleichtern und eine lose Kopplung der Architektur zu erreichen.
Die Anwendungsschichtung kann kundenorientierte Systemdienste und Interaktionsmuster widerspiegeln und eine kundendienstorientierte Sicht auf die Anwendungsarchitektur bieten.
Der Zweck der Gruppierung von Anwendungen besteht darin, die Klassifizierung und Aggregation von Geschäftsfunktionen widerzuspiegeln und eng verwandte Anwendungen oder Funktionen zu einer Gruppe zusammenzufassen, die den Aufbau von Anwendungssystemen leiten, eine hohe Kohärenz innerhalb des Systems und eine geringe Kopplung zwischen Systemen erreichen kann Reduzieren Sie Doppelkonstruktionen.
Schematische Darstellung der Anwendungsarchitektur des Smart Management Centers für Sozialversicherungen einer Stadt
Die Planung ist in vier Kategorien unterteilt
(1) Governance-Kanäle
1||| App
Es bietet Managern auf allen Ebenen hauptsächlich visuelle Ansichten verschiedener wichtiger Themen, beliebter Themen, Geschäftsthemen und Big-Data-Themen, Überwachung wichtiger Indikatoren, Indexanalyse, Leistungsbewertung, Trendanalyse, Befehl und Versand sowie andere Anwendungsfunktionen zur Realisierung verschiedener Anwendungsszenarien des Governance-Zentrums. Gleichzeitige Überprüfung der Daten zur Entwicklung der sozialen Sicherheit, des Geschäftsumfeldindex und zugehöriger Berichte.
2||| Desktop-Anwendung
Für Manager in verschiedenen Geschäftsfeldern und Informationsabteilungen der Sozialversicherung in einer bestimmten Stadt bietet es umfassende Themen im Bereich der Sozialversicherung, Geschäftsthemen in jedem Geschäftsfeld sowie humanistische Dienstleistungen zu Big-Data-Themen, visuelle Aufsicht, intelligente Aufsicht und wissenschaftliche Entscheidungsfindung und online Es kann intelligente Governance in verschiedenen Anwendungsszenarien wie Befehl und Disposition, Konferenzberatung, Aufgabenverteilung, unterstützte Untersuchung und Koordination sowie spezielle Berichtigung realisieren.
3||| Großbildanwendungen
Für Sozialversicherungsleiter und Abteilungsleiter auf allen Ebenen einer Stadt bietet es visuelle Darstellungen der Überwachung wichtiger Indikatoren, Entscheidungsanalysen, Leistungsbewertungen, Trendanalysen usw. zu verschiedenen wichtigen Themen, aktuellen Themen, Geschäftsthemen und Big-Data-Themen.
(2) Governance-Center-System
Konzentrieren Sie sich hauptsächlich auf die Anzeige von drei Hauptkategorien interaktiver Themen
1||| Business-Thema
Einschließlich Beschäftigung und Unternehmertum, Sozialversicherung, Arbeitsrechtsschutz, Personalmanagement, Talentdienste, Personal- und Berufsprüfungen, behördliche Genehmigung, telefonische Beratungsdienste, Sozialversicherungskarten usw.
2||| umfassende Themen
Einschließlich Makroentscheidungen, Befehl und Einsatz, Integrität und Risikokontrolle, Fondsmanagement, Karriereentwicklung, Geschäftsumfeld, Verfolgung der Armutsbekämpfung, Dienstleistungsüberwachung, Überwachung der öffentlichen Meinung, Überwachung des Geschäftsstils, Leistungsbewertung, Veranstaltungsmanagement, elektronische Lizenzen, Standardmanagement , zum Nutzen von Menschen und Landwirten warten.
3||| Big-Data-Thema
Einschließlich Sozialversicherungsporträts, Sozialversicherungsportfolios, Sozialversicherungs-Kreditscores, Sozialversicherungskarten, Sozialversicherungsatlanten, versicherungsmathematische Analysen von Sozialversicherungsfonds, Bewertung des Sozialversicherungsindex, Panoramaanalyse der Sozialversicherung usw.
(3) Governance-unterstützendes System
Stellen Sie vier Haupttypen von Anwendungen für das Smart Governance Center dieses Projekts bereit
1||| Anwendungen zur Datenunterstützung
Einschließlich Datenaggregationssystem, Datenverwaltungssystem und Datenanwendungssystem.
2||| Verknüpfte Dienstanwendungen
Einschließlich Befehls- und Versandmanagementsystem, präzises Managementsystem zur Armutsbekämpfung, Frühwarnmanagementsystem zum Schutz von Arbeitsrechten, elektronisches Lizenzsystem und Benutzerporträtsystem.
3||| Governance- und Aufsichtsanwendungen
Einschließlich Standardmanagementsystem, System zur Überwachung des Geschäftsstils, Kreditmanagementsystem, System zur versicherungsmathematischen Analyse von Fonds und System zur Bewertung der Serviceeffizienz.
4||| Interaktive Anwendungen anzeigen
Inklusive mobiler Governance-App.
(4) Relevante Systemänderungen
Dabei geht es vor allem um die Umgestaltung des Arbeits- und Beschäftigungssystems, des Sozialversicherungssystems, des Arbeitsbeziehungssystems, des Personal- und Talentsystems, des öffentlichen Dienstleistungssystems, des Risikopräventions- und Kontrollsystems usw. im Zusammenhang mit der Datenerfassung, Anzeige und Interaktion verwandter Themen zu diesem Smart-Governance-Zentrum.
四、 Datenarchitektur
I. Zusammenfassung
Datenarchitektur beschreibt die Struktur der logischen und physischen Datenbestände einer Organisation und der zugehörigen Datenverwaltungsressourcen.
Der Hauptinhalt der Datenarchitektur umfasst die Architekturplanung für den gesamten Lebenszyklus von Daten, einschließlich Datengenerierung, -zirkulation, -integration, -anwendung, -archivierung und -tod.
Die Datenarchitektur konzentriert sich auf die Eigenschaften von Daten, die im Lebenszyklus von Daten manipuliert werden, und bezieht sich auf Konzepte im Datenbereich wie Datentyp, Datenvolumen, Entwicklung der Datentechnologieverarbeitung sowie Datenverwaltungs- und Kontrollstrategien.
II. Entwicklung und Evolution
1. Die Ära der monolithischen Anwendungsarchitektur
In den frühen Tagen der Informatisierung (in den 1980er Jahren), als die Informatisierung noch im Aufbau war, handelte es sich bei Informationssystemen hauptsächlich um Einzelanwendungen. Zum Beispiel: Aktuelle Finanzsoftware, OA-Bürosoftware etc. Zu dieser Zeit steckte das Konzept der Datenverwaltung noch in den Kinderschuhen und die Datenarchitektur war relativ einfach. Sie bestand hauptsächlich aus Datenmodell und Datenbankdesign, die ausreichten, um die Geschäftsanforderungen des Systems zu erfüllen.
2. Data-Warehouse-Ära
Durch den Einsatz von Informationssystemen werden nach und nach Systemdaten gesammelt. Zu diesem Zeitpunkt entdeckten die Menschen, dass Daten für die Organisation wertvoll waren, das fragmentierte System jedoch zur Entstehung einer großen Anzahl von Informationsinseln führte, was die Datennutzung der Organisation erheblich beeinträchtigte. Als Ergebnis entstand eine neue themenorientierte, integrierte Architektur für die Datenanalyse, das Data Warehouse.
Im Gegensatz zu herkömmlichen relationalen Datenbanken ist OLAP die Hauptanwendung von Data Warehouse-Systemen, das komplexe Analysevorgänge unterstützt, sich auf die Entscheidungsunterstützung konzentriert und intuitive und leicht verständliche Abfrageergebnisse liefert. In dieser Phase konzentriert sich die Datenarchitektur nicht nur auf das Datenmodell, sondern auch auf die Verteilung und den Datenfluss.
3. Big-Data-Ära
Der Aufstieg der Big-Data-Technologie ermöglicht es Unternehmen, ihre eigenen Daten flexibler und effizienter zu nutzen und einen größeren Wert aus den Daten zu ziehen. Gleichzeitig entwickeln sich aufgrund der Anforderungen von Big-Data-Anwendungen auch verschiedene Big-Data-Architekturen ständig weiter, von der Stapelverarbeitung zur Stream-Verarbeitung, von der zentralen zur verteilten Verarbeitung, von der Batch-Stream-Integration bis zur vollständigen Echtzeitverarbeitung.
III. Das Grundprinzip
Das Entwurfsprinzip der Datenarchitektur besteht darin, den allgemeinen Prinzipien des Architekturdesigns zu folgen und besondere Überlegungen zur Datenarchitektur selbst anzustellen.
Ein angemessenes Design der Datenarchitektur sollte die folgenden Probleme lösen: Rationalität der Funktionspositionierung, Skalierbarkeit für zukünftige Entwicklungen, effiziente Verarbeitung oder Kosteneffizienz; angemessene Datenverteilung und Datenkonsistenz.
Zu den Grundprinzipien gehören
1. Prinzipien der Datenschichtung
2. Grundsätze der Datenverarbeitungseffizienz
3. Prinzip der Datenkonsistenz
4. Prinzipien der Skalierbarkeit der Datenarchitektur
(1) Basierend auf dem Rationalitätsprinzip der hierarchischen Positionierung.
(2) Die Skalierbarkeit der Architektur erfordert die Berücksichtigung des Datenspeichermodells und der Datenspeichertechnologie.
5. Geschäftsgrundsätzen dienen
IV. Architekturbeispiel
Schematische Darstellung der Datenarchitektur des Smart Management Centers für Sozialversicherungen einer Stadt.
Zu den wichtigsten Datenrepositorys gehören:
(1) Quelldatenbank
Die Quelldatenbank ist die Datenquelle, die das Smart Governance Center für Sozialversicherungen einer Stadt benötigt
(2) Austauschbibliothek
Verwenden Sie Synchronisierungstools wie OGG oder synchronisieren Sie die Quelldatenbank mit Datensynchronisierung, Serviceaufrufen usw. Betreten Sie die Exchange-Datenbank und nutzen Sie die Datensynchronisierung oder -spiegelung, um die Auswirkungen auf die Quelldatenbank zu reduzieren.
(3) Übergangsbibliothek
Die Daten in der Austauschbibliothek werden über OGG für Bigdata extrahiert, um variable Daten, Sqoop-Extraktion, Push, Import usw. zu extrahieren, und in der Übergangsbibliothek auf der Hadoop-Plattform gespeichert, um die Leistung der Verarbeitung großer Stapeldaten zu verbessern.
(4) Integrierte Bibliothek
Vergleichen, konvertieren, bereinigen und aggregieren Sie die Daten in der Übergangsdatenbank und speichern Sie sie in einer einheitlichen Datenbanktabellenstruktur. In der integrierten Datenbank werden für jede Fachdatenbank inkrementelle Datenquellen und vollständige Datenquellen bereitgestellt.
(5) Themenbibliothek
Das heißt, die Servicebibliothek extrahiert die erforderlichen Daten aus der integrierten Bibliothek gemäß den Anwendungsanforderungen des Governance-Themas, um Governance bereitzustellen Unterstützen Sie theoretische Anwendungen und visuelle Präsentationen.
五、 Technologiearchitektur
I. Zusammenfassung
Die technische Architektur ist die Grundlage für die Anwendungsarchitektur und Datenarchitektur einer Organisation. Sie besteht aus mehreren Funktionsmodulen. Sie beschreibt das technische System oder die Kombination, die zur Implementierung der Geschäftsanwendungen der Organisation verwendet wird, sowie die zur Unterstützung erforderliche Infrastruktur und Umgebung die Bereitstellung von Anwendungssystemen warten.
Die technische Architektur erfordert umfassende Überlegungen und eine einheitliche Planung. Eine technische IT-Architektur, der es an umfassenden Strategien und Ideen mangelt, führt zu erheblicher Investitionsverschwendung und Verzögerungen beim Bau. Die Gesamtfunktion wird vom schwächsten Glied beeinträchtigt, was die IT zu einem Engpass für die Geschäftsentwicklung macht.
II. Das Grundprinzip
1. Grundsätze der Reifekontrolle
2. technisches Konsistenzprinzip
3. Prinzip der lokalen Ersetzbarkeit
4. Prinzip der Talentkompetenzabdeckung
5. Innovationsorientierte Prinzipien
III. Architekturbeispiel
Schematische Darstellung der technischen Architektur des Smart Management Centers für Sozialversicherungen einer Stadt.
Dieses Projekt übernimmt die heutige fortschrittliche und ausgereifte technische Architektur und Wege, um die Weiterentwicklung, Effizienz, Zuverlässigkeit und Skalierbarkeit des intelligenten Governance-Zentrums für Sozialversicherungen einer Stadt sicherzustellen.
Die technische Architektur ist nach einem Klassifizierungs- und Schichtungsansatz konzipiert, einschließlich
(1) technischer Standard
Befolgen Sie internationale und nationale Standards wie J2EE, HTML5, CSS3, SQL, Shell, XML/JSON, HTTP, FTP, SM2, SM3, JavaScript usw.
(2) Grundunterstützung
1||| Verlassen Sie sich auf das 5G-Netzwerk und das Internet der Dinge, um die grundlegende Netzwerkunterstützung für dieses Projekt bereitzustellen.
2||| Verlassen Sie sich auf Anwendungs-Middleware, um Unterstützung bei der Anwendungsbereitstellung für dieses Projekt bereitzustellen.
3||| Verlassen Sie sich auf verteilten Cache, Speicherdatenbank, MPP-Datenbank und Transaktionsdatenbank, um grundlegende Datenspeicherunterstützung für dieses Projekt bereitzustellen.
4||| Verlassen Sie sich auf die Hadoop-Plattform, um verteilte Speicher- und Computerumgebungsunterstützung für dieses Projekt bereitzustellen;
5||| Verlassen Sie sich auf Suchmaschinen- und Regelmaschinenkomponenten, um technische Komponentenunterstützung für Governance-Anwendungen bereitzustellen.
(3) Anwendungs-Framework-Technologie
Es handelt sich um eine Technologie, die bei der Entwicklung von Anwendungssystemen strikt befolgt und übernommen werden muss.
Das Anwendungsframework verwendet ein mehrschichtiges Design, einschließlich Zugriffsschicht, Interaktionskontrollschicht, Geschäftskomponentenschicht und Ressourcenzugriffsschicht.
(4) Anwendungsintegrationstechnologie
Einschließlich Single Sign-On, Service Bus (ESB), Prozess-Engine, Nachrichtenwarteschlange und andere Technologien zur Unterstützung der Integration zwischen verschiedenen Anwendungssystemen.
(5) Datenintegrationstechnologie
Es umfasst ETL-Tools, Datensynchronisierungs-Replikationstools, Datenindizierung, SQL/gespeicherte Prozeduren, MapReduce/Spark-Rechner-Engines und andere Technologien und bietet Datenerfassung, Datenbereinigung, Datenkonvertierung, Datenverarbeitung, Data-Mining usw. für die Sozialversicherung einer Stadt Smart Governance Center bietet technische Unterstützung für die Arbeit.
(6) Datenanalysetechnologie
Einschließlich BI-Engine, Berichts-Engine, GIS-Engine, Diagrammkomponente, 3D-Engine, mehrdimensionale Modellierungs-Engine, KI-Algorithmuspaket, Data-Mining-Algorithmuspaket und andere Big-Data-Technologien, Bereitstellung von Karten für die soziale Sicherheit, Fernsteuerung und -verteilung, Panoramaanalyse und Makro Entscheidungsfindung, Überwachung und Überwachung. Bereitstellung technischer Unterstützung für die Visualisierung anderer Anwendungen.
(7) Betriebs- und Wartungstechnik
Einschließlich Betriebsverfolgungen, Fehlerwarnung, Überwachung der Energieeffizienz, Protokollerfassung, Schwachstellenscan, Anwendung Nutzen Sie Monitoring, Netzwerkanalyse und andere Technologien, um den standardisierten Betrieb und die Wartung von Anwendungssystemen zu unterstützen.
六、 Netzwerkarchitektur
I. Das Netzwerk ist die Grundlage der Informationstechnologiearchitektur. Es ist nicht nur ein Kanal für Benutzer, um IT-Informationsressourcendienste anzufordern und zu erhalten, sondern auch eine Drehscheibe für die Integration und Planung verschiedener Ressourcen in der Informationssystemarchitektur.
II. Das Grundprinzip
1. Hohe Zuverlässigkeit
Als Hub und Kanal für die zugrunde liegende Ressourcenplanung und Dienstübertragung stellt das Netzwerk natürliche Anforderungen an eine hohe Zuverlässigkeit. Es versteht sich von selbst.
2. Hohe Sicherheit
Die Sicherheit von Informationssystemen kann nicht nur auf Sicherheitsgarantien auf Anwendungsebene beruhen. Das Netzwerk muss auch in der Lage sein, einen grundlegenden Sicherheitsschutz zu bieten. Die zugrunde liegenden Funktionen zur Identitätsauthentifizierung, Zugriffskontrolle, Einbruchserkennung usw. müssen wichtige Sicherheitsgarantien bieten für Bewerbungen.
3. Hochleistung
Das Netzwerk ist nicht nur ein Kanal für die Bereitstellung von Diensten, sondern auch eine Drehscheibe für die Ressourcenplanung, die für die Bereitstellung von Diensten erforderlich ist. Daher sind Netzwerkleistung und -effizienz die Garantie für die Bereitstellung einer besseren Dienstqualität.
4. Verwaltbarkeit
Es bezieht sich nicht nur auf die Verwaltung des Netzwerks selbst, sondern auch auf die schnelle Anpassung und Kontrolle des Netzwerks basierend auf Geschäftsbereitstellungsstrategien.
5. Plattform und Architektur
Als zugrunde liegende Basisressource benötigt das Netzwerk eine umfassende Vision, um sich an die zukünftige Anwendungsarchitektur anzupassen. Als Reaktion auf Veränderungen kann das Netzwerk selbst flexibler werden und sich bei Bedarf erweitern, um sich künftig an Veränderungen und Entwicklungen in unterschiedlichen Unternehmensgrößen anzupassen.
III. LAN-Architektur
Ein LAN bezieht sich auf ein lokales Computernetzwerk, ein dediziertes Computernetzwerk, das einer einzelnen Organisation gehört.
Features sind:
① Die geografische Abdeckung ist gering und normalerweise auf einen relativ unabhängigen Bereich beschränkt, z. B. ein Gebäude oder eine konzentrierte Gebäudegruppe (normalerweise innerhalb von 2,5 km).
②Hohe Datenübertragungsrate (im Allgemeinen über 10 Mbit/s, typischerweise 1 Gbit/s oder sogar 10 Gbit/s);
③Geringe Bitfehlerrate (normalerweise unter 10°), hohe Zuverlässigkeit;
④Unterstützt mehrere Übertragungsmedien und unterstützt Echtzeitanwendungen. Was die Netzwerktopologie betrifft, gibt es Bus-, Ring-, Stern-, Baum- und andere Typen.
Hinsichtlich der Übertragungsmedien umfasst es kabelgebundenes LAN und kabelloses LAN.
Ein lokales Netzwerk besteht normalerweise aus Computern, Switches, Routern und anderen Geräten.
Das LAN bietet nicht nur Layer-2-Switching-Funktionen, sondern auch komplexe Netzwerke mit Layer-3-Routing-Funktionen.
Architekturtyp
1. Single-Core-Architektur
Ein Single-Core-LAN besteht normalerweise aus einem Core-Layer-2- oder Layer-3-Switching-Gerät als Kerngerät des Netzwerks, und Benutzergeräte (wie Benutzercomputer, Smart-Geräte usw.) sind über mehrere Access-Switching-Geräte mit dem Netzwerk verbunden .
Diese Art von LAN kann über die Verbindungsrouting-Ausrüstung (Grenzrouter oder Firewall) mit dem WAN verbunden werden, die die Vermittlungsausrüstung des Kernnetzwerks und das WAN verbindet, um einen LAN-übergreifenden Zugriff auf Dienste zu erreichen.
Ein Single-Core-Netzwerk weist die folgenden Eigenschaften auf:
1||| Core-Switching-Geräte verwenden normalerweise Layer-2-, Layer-3- und höher-Switches. Wenn Layer-3- oder höher-Switches verwendet werden, können sie in VLANs unterteilt werden. Die Weiterleitung von Layer-2-Datenverbindungen erfolgt innerhalb des VLANs und Layer-3-Routing wird für die Weiterleitung zwischen ihnen verwendet VLANs;
2||| Das Zugriffsschaltgerät verwendet einen Layer-2-Switch, der nur die Weiterleitung der Layer-2-Datenverbindung implementiert.
3||| Ethernet-Verbindungen wie 100M/GE/10GE (1GE=1Gb/s) können zwischen Core-Switching-Geräten und Zugangsgeräten verwendet werden.
Der Vorteil der Verwendung eines einzelnen Kerns zum Aufbau eines Netzwerks besteht darin, dass die Netzwerkstruktur einfach ist und Geräteinvestitionen eingespart werden können. Für Unterorganisationen, die das LAN für den Zugriff benötigen, ist dies bequemer. Sie können über das Zugriffs-Switching-Gerät eine direkte Verbindung zur freien Schnittstelle des Kern-Switching-Geräts herstellen. Seine Nachteile bestehen darin, dass der geografische Umfang des Netzwerks begrenzt ist und die Unterorganisationen, die die Verwendung von LAN erfordern, relativ kompakt sind. Die Vermittlungsausrüstung des Kernnetzwerks weist einen einzigen Fehlerpunkt auf, der leicht zu einem Gesamt- oder Teilausfall führen kann das Netzwerk; die Netzwerkerweiterungsfähigkeit ist begrenzt; es sind viele Switch-Geräte an das LAN angeschlossen. In diesem Fall muss die Portdichte der Core-Switch-Geräte hoch sein.
Alternativ können bei kleineren Netzwerken Benutzergeräte, die diese Netzwerkarchitektur nutzen, auch direkt mit Kernvermittlungsgeräten verbunden werden, was die Investitionskosten weiter senkt.
2. Dual-Core-Architektur
Unter Dual-Core-Architektur versteht man in der Regel die Kern-Switching-Ausrüstung, die dreischichtige und höhere Switches verwendet.
Ethernet-Verbindungen wie 100M/GE/10GE können zwischen Core-Switching-Geräten und Zugangsgeräten verwendet werden. Bei der Aufteilung von VLANs innerhalb des Netzwerks muss der Zugriff zwischen jedem VLAN über zwei Core-Switching-Geräte erfolgen. Nur die Kernvermittlungsgeräte im Netzwerk verfügen über die Routing-Funktion, und die Zugangsgeräte stellen nur die Layer-2-Weiterleitungsfunktion bereit.
Core-Switching-Geräte sind miteinander verbunden, um Gateway-Schutz oder Lastausgleich zu erreichen. Die Kernschaltgeräte verfügen über Schutzfunktionen und die Netzwerktopologie ist zuverlässig. Hot Switching kann im Service Routing und Forwarding implementiert werden. Für den gegenseitigen Zugriff zwischen den LANs verschiedener an das Netzwerk angeschlossener Abteilungen oder für den Zugriff auf zentrale Unternehmensserver stehen mehr als ein Pfad zur Auswahl, der eine höhere Zuverlässigkeit bietet.
Für spezielle Organisationen, die das LAN für den Zugriff benötigen, ist dies bequemer. Sie können über das Zugriffs-Switching-Gerät eine direkte Verbindung zur freien Schnittstelle des Kern-Switching-Geräts herstellen. Die Investitionen in die Ausrüstung sind höher als bei Single-Core-LANs. Die Anforderungen an die Portdichte für Core-Switching-Geräte sind relativ hoch. Alle Unternehmensserver sind gleichzeitig mit zwei zentralen Switching-Geräten verbunden und durch das Gateway-Schutzprotokoll geschützt, um einen Hochgeschwindigkeitszugriff auf Benutzergeräte zu ermöglichen.
3. Ringarchitektur
Ein Ring-LAN besteht aus mehreren Kernschaltgeräten, die in zwei dynamischen elastischen RPR-Paketringen (Resilient Packet Ring) verbunden sind, um den Kern des Netzwerks zu bilden.
Core-Switching-Geräte verwenden in der Regel dreischichtige oder höherwertige Switches, um geschäftliche Weiterleitungsfunktionen bereitzustellen.
Jedes VLAN in einem typischen Ring-LAN-Netzwerk realisiert den gegenseitigen Zugriff über den RPR-Ring. RPR verfügt über eine Selbstheilungsschutzfunktion, um Glasfaserressourcen zu schonen; es verfügt über eine Selbstheilungszeit von 50 ms auf der MAC-Ebene und bietet mehrstufige, zuverlässige QoS-Dienste, einen Mechanismus zur Bandbreitengerechtigkeit und einen Mechanismus zur Überlastungskontrolle. Der RPR-Ring ist in beide Richtungen erhältlich. Das Netzwerk bildet durch zwei umgekehrte Glasfasern eine Ringtopologie, und Knoten im Ring können einen anderen Knoten aus zwei Richtungen erreichen. Jede Faser kann gleichzeitig Daten und Steuersignale übertragen. RPR nutzt räumliche Wiederverwendungstechnologie, um die Bandbreite im Ring effektiv zu nutzen.
Beim Aufbau eines großen LAN über RPR können mehrere Ringe nur über Serviceschnittstellen miteinander kommunizieren und keine direkte Netzwerkkommunikation erreichen. Die Investition in Ring-LAN-Geräte ist höher als die eines Single-Core-LANs. Das Design der Core-Routing-Redundanz ist schwierig zu implementieren und kann leicht Schleifen bilden. Dieses Netzwerk greift über Border-Routing-Geräte auf das WAN zu, die Switching-Geräte im Ring miteinander verbinden.
4. Hierarchische LAN-Architektur
Hierarchisches LAN (oder mehrschichtiges LAN) besteht aus Switching-Geräten der Kernschicht, Switching-Geräten der Aggregationsschicht, Switching-Geräten der Zugriffsschicht usw Benutzerausrüstung und andere Komponenten
Die Kernschichtausrüstung im hierarchischen LAN-Modell bietet Hochgeschwindigkeitsdatenweiterleitungsfunktionen. Die von der Aggregationsschichtausrüstung bereitgestellten ausreichenden Schnittstellen realisieren eine gegenseitige Zugriffskontrolle mit der Zugriffsschicht, und die Aggregationsschicht kann verschiedene Zugriffsgeräte in ihrem Zuständigkeitsbereich bereitstellen Abteilungs-LAN) Die Service-Switching-Funktion reduziert den Weiterleitungsdruck auf Core-Switching-Geräte; die Access-Layer-Geräte realisieren den Zugriff auf Benutzergeräte. Die hierarchische LAN-Netzwerktopologie lässt sich leicht erweitern. Netzwerkfehler können klassifiziert und behoben werden, um die Wartung zu erleichtern. Normalerweise ist das hierarchische LAN über das Grenzroutinggerät mit dem WAN verbunden, um den gegenseitigen Zugriff von LAN- und WAN-Diensten zu realisieren.
IV. WAN-Architektur
Ein Weitverkehrsnetzwerk ist ein Netzwerk, das Computergeräte verbindet, die über einen größeren Bereich als ein lokales Netzwerk verteilt sind.
Das WAN besteht aus einem Kommunikationssubnetz und einem Ressourcensubnetz. Kommunikationssubnetze können mithilfe öffentlicher Paketvermittlungsnetze, Satellitenkommunikationsnetze und drahtloser Paketvermittlungsnetze aufgebaut werden, um lokale Netzwerke oder in verschiedenen Gebieten verteilte Computersysteme miteinander zu verbinden und so die gemeinsame Nutzung von Ressourcensubnetzen zu realisieren.
WAN ist ein mehrstufiges Netzwerk, das normalerweise aus einem Backbone-Netzwerk, einem Verteilungsnetzwerk und einem Zugangsnetzwerk besteht. Wenn die Netzwerkgröße klein ist, kann sie nur aus einem Backbone-Netzwerk und einem Zugangsnetzwerk bestehen. Bei der Planung des WAN ist es notwendig, die Netzwerkfunktionen der dritten Ebene basierend auf dem Geschäftsszenario und der Netzwerkgröße auszuwählen. Zum Beispiel die Planung des Weitverkehrsnetzes einer Provinzbank und die Gestaltung eines Backbone-Netzwerks zur Unterstützung des Daten-, Sprach-, Bild- und anderen Informationsaustauschs, um schnelle, zuverlässige Kommunikationsdienste für das gesamte Banksystem bereitzustellen Das Rechenzentrum und die Zweigstellen und Unterzweige sorgen für die Wiederverwendung von Fernleitungen und den Backbone-Zugang. Gestalten Sie das Zugangsnetzwerk so, dass beim Datenaustausch zwischen Zweigstellen und Geschäftsstellen eine Wiederverwendung der Ausgangsleitungen und ein Terminalzugriff gewährleistet ist.
Architekturtyp
1. Single-Core-Wide-Area-Netzwerk
Ein Single-Core-WAN besteht normalerweise aus einem Core-Routing-Gerät und jedem LAN, wie in Abbildung 4-13 dargestellt. Die Kern-Routing-Ausrüstung verwendet Layer-3- und höher-Switches. Der Zugriff zwischen LANs innerhalb des Netzwerks erfordert eine zentrale Routing-Ausrüstung.
Es gibt keine anderen Routing-Geräte zwischen LANs im Netzwerk. Zwischen jedem lokalen Netzwerk und der zentralen Routing-Ausrüstung werden Broadcast-Leitungen verwendet. Die Verbindungsschnittstellen zwischen Routing-Geräten und jedem LAN gehören zum entsprechenden LAN-Subnetz. Die wichtigsten Routing-Geräte und jedes lokale Netzwerk können über 10M/100M/GE-Ethernet-Schnittstellen verbunden werden. Diese Art von Netzwerk ist einfach aufgebaut und spart Geräteinvestitionen. Die Effizienz jedes LAN-Zugriffs auf das Kern-LAN und den gegenseitigen Zugriff ist hoch. Für das neue Abteilungs-LAN ist es bequemer, eine Verbindung zum WAN herzustellen, solange die Kernrouting-Ausrüstung über Ports verfügt. Es besteht jedoch das Risiko, dass ein einzelner Fehlerpunkt in der zentralen Routing-Ausrüstung leicht zum Ausfall des gesamten Netzwerks führen kann. Die Netzwerkerweiterungsfähigkeit ist schlecht und erfordert eine hohe Portdichte der Core-Routing-Ausrüstung.
2. Dual-Core-WAN
Ein Dual-Core-WAN besteht normalerweise aus zwei Core-Routing-Geräten und jedem LAN, wie in Abbildung 4-14 dargestellt.
Das Hauptmerkmal des Dual-Core-WAN-Modells besteht darin, dass die Core-Routing-Ausrüstung normalerweise dreischichtige und höhere Switches verwendet. Die Kern-Routing-Ausrüstung ist normalerweise über Ethernet-Schnittstellen wie 10M/100M/GE mit jedem lokalen Netzwerk verbunden. Für den Zugriff zwischen LANs im Netzwerk sind zwei Kern-Routing-Geräte erforderlich. Es gibt keine anderen Routing-Geräte zwischen LANs für den Geschäftszugriff. Implementieren Sie Gateway-Schutz oder Lastausgleich zwischen Core-Routing-Geräten. Es gibt mehrere Pfadoptionen für jedes LAN, um auf das Kern-LAN und untereinander zuzugreifen, wobei auf der Routing-Ebene eine höhere Zuverlässigkeit erreicht werden kann, wodurch Geschäftskontinuitätszugriffsfunktionen bereitgestellt werden. Wenn die Kern-Routing-Geräteschnittstelle reserviert ist, kann problemlos auf das neue LAN zugegriffen werden. Allerdings sind die Geräteinvestitionen höher als bei einem Single-Core-WAN. Das Routing-Redundanzdesign von Kern-Routing-Geräten ist schwer zu implementieren und kann leicht Routing-Schleifen bilden. Das Netzwerk stellt höhere Anforderungen an die Portdichte für Core-Routing-Geräte.
3. Ring Wide Area Network
Ein Ring-Wide-Area-Netzwerk verwendet normalerweise mehr als drei Kernroutergeräte, um eine Routing-Schleife zu bilden, um verschiedene lokale Netzwerke zu verbinden und den gegenseitigen Zugriff auf WAN-Dienste zu realisieren.
Das Hauptmerkmal eines Ring-Wide-Area-Netzwerks besteht darin, dass die Kern-Routing-Ausrüstung normalerweise dreischichtige oder höherwertige Switches verwendet. Die Kern-Routing-Ausrüstung und jedes lokale Netzwerk sind normalerweise über Ethernet-Schnittstellen wie 10M/100M/GE verbunden. Der Zugriff zwischen LANs innerhalb des Netzwerks muss über einen Ring erfolgen, der aus Kern-Routing-Geräten besteht. Es gibt keine weiteren Routing-Geräte für den gegenseitigen Zugriff zwischen den LANs. Core-Routing-Geräte sind mit Gateway-Schutz- oder Lastausgleichsmechanismen sowie Schleifenkontrollfunktionen ausgestattet. Jedes LAN verfügt über mehrere Pfade zur Auswahl, um auf das Kern-LAN oder aufeinander zuzugreifen. Auf der Routing-Ebene kann eine höhere Zuverlässigkeit erreicht werden, um die Kontinuität des Geschäftszugriffs sicherzustellen.
Wenn die Schnittstelle der Kern-Routing-Geräte reserviert ist, kann problemlos auf das neue Abteilungs-LAN zugegriffen werden. Allerdings sind die Investitionen in die Ausrüstung höher als bei Dual-Core-WAN, und das Routing-Redundanzdesign von Core-Routing-Geräten ist schwierig zu implementieren, und es können leicht Routing-Schleifen gebildet werden. Die Ringtopologie muss mehr Ports belegen und das Netzwerk stellt höhere Anforderungen an die Portdichte für Core-Routing-Geräte.
4. Halbredundantes WAN
Ein halbredundantes WAN besteht aus mehreren Kern-Routing-Geräten, die verschiedene LANs verbinden, wie in Abbildung 4-16 dargestellt. Darunter verfügt jedes Core-Routing-Gerät über mindestens zwei oder mehr Links, die mit anderen Routing-Geräten verbunden sind. Ein Sonderfall eines halbredundanten WAN ist ein vollständig redundantes WAN, wenn eine Verbindung zwischen zwei beliebigen Core-Routing-Geräten besteht.
Die Hauptmerkmale von halbredundantem WAN sind die flexible Struktur und die einfache Erweiterung. Einige Netzwerk-Core-Routing-Geräte können Gateway-Schutz- oder Lastausgleichsmechanismen übernehmen oder über Schleifenkontrollfunktionen verfügen. Die Netzwerkstruktur ist maschenartig und es gibt mehrere Pfade für jedes LAN, um mit hoher Zuverlässigkeit auf das Kern-LAN und untereinander zuzugreifen. Die Routing-Auswahl auf Routing-Ebene ist flexibler. Die Netzwerkstruktur eignet sich für den Einsatz von Link-State-Routing-Protokollen wie OSPF. Allerdings ist die Netzwerkstruktur fragmentiert und schwierig zu verwalten und Fehler zu beheben.
5. Peer-to-Peer-Subdomain-WAN
Das Peer-to-Peer-Subdomänennetzwerk unterteilt die Routing-Ausrüstung des WAN in zwei unabhängige Subdomänen, und jede Subdomänen-Routing-Ausrüstung ist halbredundant miteinander verbunden. Die beiden Subdomänen sind über eine oder mehrere Verbindungen miteinander verbunden, und jedes Routing-Gerät in der Peer-Subdomäne kann auf das LAN zugreifen, wie in Abbildung 4-17 dargestellt.
Das Hauptmerkmal des Peer-to-Peer-Subdomänen-WAN besteht darin, dass der gegenseitige Zugriff zwischen Peer-to-Peer-Subdomänen durch Verbindungsverbindungen zwischen Peer-to-Peer-Subdomänen dominiert wird. Zwischen Peer-Subdomänen kann eine Routenzusammenfassung oder ein detaillierter Routeneintragsabgleich erreicht werden, und die Routensteuerung ist flexibel. Im Allgemeinen sollte die Bandbreite von Links zwischen Subdomains höher sein als die Bandbreite von Links innerhalb von Subdomains. Das Redundanzdesign für domänenübergreifendes Routing ist schwierig zu implementieren und kann leicht Routing-Schleifen bilden oder das Risiko bergen, illegale Routen zu veröffentlichen. Die Anforderungen an die Routing-Leistung von Domänengrenzen-Routing-Geräten sind relativ hoch. Bei den Routing-Protokollen im Netzwerk handelt es sich hauptsächlich um dynamisches Routing. Peer-to-Peer-Subdomains eignen sich für Szenarien, in denen das WAN klar in zwei Bereiche unterteilt werden kann und der Zugriff innerhalb der Bereiche relativ unabhängig ist.
6. Hierarchisches Subdomain-Wide-Area-Netzwerk
Die hierarchische Subdomänen-WAN-Struktur unterteilt große WAN-Routing-Geräte in mehrere relativ unabhängige Subdomänen. Die Routing-Geräte in jeder Subdomäne sind halbredundant miteinander verbunden. Es besteht eine hierarchische Beziehung zwischen mehreren Subdomänen. Ebene Subdomains. Jedes Routing-Gerät in der hierarchischen Subdomäne kann auf das LAN zugreifen, wie in Abbildung 4-18 dargestellt.
Das Hauptmerkmal hierarchischer Subdomänen besteht darin, dass die hierarchische Subdomänenstruktur eine bessere Skalierbarkeit aufweist. Der gegenseitige Zugriff zwischen Subdomains auf niedriger Ebene muss über Subdomains auf hoher Ebene erfolgen. Die Implementierung des domänenübergreifenden Routing-Redundanzdesigns ist schwierig, es können leicht Routing-Schleifen gebildet werden und es besteht die Gefahr der Veröffentlichung illegaler Routen. Die Verbindungsbandbreite zwischen Subdomänen muss höher sein als die Verbindungsbandbreite innerhalb der Subdomäne. Die Routing- und Weiterleitungsleistungsanforderungen von Domänengrenzroutinggeräten, die für den gegenseitigen Domänenzugriff verwendet werden, sind relativ hoch. Bei den Routing-Protokollen von Routing-Geräten handelt es sich hauptsächlich um dynamisches Routing, beispielsweise das OSPF-Protokoll. Die Verbindung zwischen hierarchischen Subdomänen und dem externen Netzwerk der oberen Ebene wird hauptsächlich mithilfe von Subdomänen der oberen Ebene hergestellt. Die Verbindung mit dem externen Netzwerk der unteren Ebene wird hauptsächlich mithilfe der Subdomänen der unteren Ebene hergestellt.
V. Architektur eines Mobilkommunikationsnetzwerks
Mobile Kommunikationsnetze bieten eine starke Unterstützung für das mobile Internet, insbesondere 5G-Netze, die vielfältige Dienste für einzelne Benutzer, vertikale Branchen usw. bereitstellen.
Zu den gängigen 5G-Geschäftsanwendungen gehören:
1. 5GS- (5G-System) und DN-Verbindung (Datennetzwerk).
Wenn 5GS Dienste für Benutzer mobiler Endgeräte (User Equipment, UE) bereitstellt, sind normalerweise DN-Netzwerke wie Internet, IMS (IP Media Subsystem), private Netzwerke und andere Verbindungen erforderlich, um die erforderlichen Dienste für das UE bereitzustellen. UPF-Netzwerkelemente in 5GS dienen als Zugangspunkt von DN für verschiedene Internet-, Sprach-, AR/VR-, Industriesteuerungs- und fahrerlose Dienste. 5GS und DN sind über die durch 5GS definierte N6-Schnittstelle miteinander verbunden, wie in Abbildung 4-19 dargestellt.
Das 5G-Netzwerk gehört zur 5G-Kategorie und umfasst mehrere Netzwerkfunktionseinheiten wie AMF/SMF/PCF/NRF/NSSF usw. Der Einfachheit halber sind in der Abbildung nur Netzwerkfunktionseinheiten markiert, die in engem Zusammenhang mit Benutzersitzungen stehen.
Wenn 5GS und DN auf Basis von IPv4/IPv6 miteinander verbunden sind, kann UPF aus DN-Perspektive als gewöhnlicher Router betrachtet werden. Im Gegenteil, aus Sicht von 5GS sind die über die N6-Schnittstelle mit UPF verbundenen Geräte in der Regel Router. Mit anderen Worten: Es besteht eine Routing-Beziehung zwischen 5GS und DN. Der Service-Flow des UE, das auf den DN zugreift, wird zwischen ihnen durch bidirektionale Routing-Konfiguration weitergeleitet. Was das 5G-Netzwerk betrifft, wird der Dienstfluss vom UE zum DN als Uplink-Dienstfluss (UL, UpLink) bezeichnet; der Dienstfluss vom DN zum UE wird als Downlink-Dienstfluss (DL, DownLink) bezeichnet. Der UL-Dienstfluss wird über die auf dem UPF konfigurierte Route an den DN weitergeleitet. Der DL-Dienstfluss wird über die auf dem Router neben dem UPF konfigurierte Route an den UPF weitergeleitet.
Darüber hinaus gibt es aus der Perspektive, wie UE über 5GS auf den DN zugreift, zwei Modi:
(1) Transparenter Modus
Im transparenten Modus stellt 5GS über die N6-Schnittstelle von UPF eine direkte Verbindung zum spezifischen IP-Netzwerk des Betreibers her und stellt dann über eine Firewall oder einen Proxyserver eine Verbindung zum DN (d. h. einem externen IP-Netzwerk) wie dem Internet her. Die UE-Zuteilung wird vom Betreiber geplant IP-Adresse im Netzwerkadressraum. Wenn das UE eine Sitzungsaufbauanfrage an 5GS initiiert, löst 5GS normalerweise nicht den Authentifizierungsprozess beim externen DN-AAA-Server aus, wie in Abbildung 4-20 dargestellt.
In diesem Modus stellt 5GS mindestens einen grundlegenden ISP-Dienst für UE bereit. Für 5GS muss nur die Grundversorgung bereitgestellt werden Der Tunnel-QoS-Flow-Dienst reicht aus. Wenn ein UE auf ein Intranet-Netzwerk zugreift, wird die Konfiguration auf UE-Ebene nur unabhängig zwischen dem UE und dem Intranet-Netzwerk durchgeführt, was für 5GS transparent ist.
(2) Intransparenter Modus
Im nicht transparenten Modus kann 5GS direkt auf das Intranet/ISP oder über andere IP-Netzwerke (z. B. das Internet) zugreifen. Intranet/ISP. Wenn 5GS beispielsweise über das Internet auf das Intranet/ISP zugreift, ist es normalerweise erforderlich, einen dedizierten Tunnel zwischen dem UPF und dem Intranet/ISP einzurichten, um den Zugriff des UE auf den Intranet/ISP-Dienst weiterzuleiten. Dem UE wird eine IP-Adresse zugewiesen, die zum Intranet-/ISP-Adressraum gehört. Diese Adresse wird für die Weiterleitung von UE-Diensten in UPF und Intranet/ISP verwendet, wie in Abbildung 4-21 dargestellt.
Zusammenfassend lässt sich sagen, dass UE über 5GS auf den Intranet-/ISP-Dienstserver zugreift, was auf der Grundlage jedes Netzwerks wie dem Internet erfolgen kann. Auch wenn es unsicher ist, kann der Schutz der Datenkommunikation auf einem bestimmten Sicherheitsprotokoll basieren zwischen UPF und Intranet/ISP. Das verwendete Sicherheitsprotokoll wird zwischen dem Mobilfunkbetreiber und dem Intranet-/ISP-Anbieter ausgehandelt.
Als Teil des UE-Sitzungsaufbaus initiiert SMF in 5GS normalerweise die Authentifizierung des UE, indem es einen externen DN-AAA-Server (z. B. Radius-, Diameter-Server) initiiert. Nachdem das UE erfolgreich authentifiziert wurde, kann der Aufbau der UE-Sitzung abgeschlossen werden und das UE kann dann auf Internet-/ISP-Dienste zugreifen.
2. 5G-Netzwerk-Edge-Computing
5G-Netze verändern die bisherige geräte- und geschäftszentrierte Ausrichtung und plädieren für ein nutzerzentriertes Konzept. Während 5G-Netzwerke den Benutzern Dienste bereitstellen, legen sie auch mehr Wert auf das Serviceerlebnis der Benutzer (QoE (Quality of Experience)). Unter anderem ist die Bereitstellung von 5G-Netzwerk-Edge-Computing-Funktionen eine der wichtigen Maßnahmen zur Stärkung vertikaler Industrien und zur Verbesserung der Benutzer-QoE.
Die Mobile Edge Computing (MEC)-Architektur des 5G-Netzwerks ist in Abbildung 4-22 dargestellt. Sie unterstützt den Einsatz von 5G UPF-Netzwerkelementen am Rand des Mobilfunknetzes in der Nähe des Endbenutzer-UE, kombiniert mit dem Einsatz eines Edge Computing-Plattform (Mobile Edge Platform) am Rande des Mobilfunknetzes (MEP) bietet vertikalen Branchen Dienstleistungen zur Auslagerung von Unternehmen in der Nähe an, die sich durch zeitkritische und hohe Bandbreite auszeichnen. Dadurch wird den Benutzern einerseits ein hervorragendes Serviceerlebnis geboten und andererseits der Druck auf die Back-End-Verarbeitung im Mobilfunknetz verringert.
Die eigene Anwendung des Betreibers oder die Anwendung eines Drittanbieters AF (Application Function) veranlasst das 5G-Netzwerk, dynamisch lokale Offloading-Richtlinien für Edge-Anwendungen zu generieren, und zwar über das von 5GS bereitgestellte Netzwerkelement NEF (Network Exposure Function), das von PCF gesteuert wird ( Richtliniengebührenfunktion) Konfigurieren Sie diese Richtlinien für die entsprechende SMF. Die SMF implementiert dynamisch das Einfügen oder Entfernen von UPF (d. h. den in der mobilen Edge-Cloud bereitgestellten UPF) in der Benutzersitzung basierend auf den Standortinformationen des Endbenutzers oder den Standortänderungsinformationen Der Benutzer verschiebt diese UPFs und entlädt sie. Durch die dynamische Konfiguration von Regeln werden hervorragende Ergebnisse für den Zugriff der Benutzer auf die erforderlichen Dienste erzielt.
Darüber hinaus kann das 5G-Netzwerk aus Sicht der Geschäftskontinuität SSC-Modus 1 (der IP-Zugangspunkt der Benutzersitzung bleibt während der Bewegung des Benutzers unverändert) und SSC-Modus 2 (das Netzwerk löst die Freigabe der bestehenden Sitzung des Benutzers aus) bereitstellen die Bewegung des Benutzers) und löst sofort den Aufbau einer neuen Sitzung aus), SSC-Modus 3 (richtet eine neue Sitzung ein, bevor die bestehende Sitzung des Benutzers während der Benutzerbewegung freigegeben wird) zur Auswahl durch den Dienstanbieter ASP (Application Service Provider) oder Betreiber.
VI. softwaredefiniertes Netzwerk
Siehe Abschnitt 5 von Kapitel 2, Abschnitt 2.1.2 dieses Buches.
七、 Sicherheitsarchitektur
I. Sicherheitsbedrohungen
Derzeit hosten Unternehmen mehr Unternehmen in Hybrid-Clouds, was den Schutz von Benutzerdaten und Unternehmen erschwert. Die komplexe Umgebung aus lokaler Infrastruktur und mehreren öffentlichen und privaten Clouds hat das Bewusstsein der Benutzer für die Sicherheit von Hybrid-Clouds geschärft. Diese Popularisierung und Anwendung wird zwei Auswirkungen haben:
① Der Geschäftsbetrieb in allen Lebensbereichen hängt fast ausschließlich von Computern, Netzwerken und Cloud-Speicher ab. Verschiedene wichtige Daten wie Regierungsdokumente, Archive, Bankkonten, Unternehmensgeschäfte und persönliche Informationen sind alle auf die Speicherung und Übertragung von Computern angewiesen Netzwerke;
② Die Menschen haben ein umfassenderes Verständnis von Computern und mehr Computertechnologien werden illegal von hochrangigen Personen genutzt, die verschiedene Mittel einsetzen, um Informationsressourcen zu stehlen oder anzugreifen.
Derzeit können die Bedrohungen, denen Informationssysteme ausgesetzt sein können, wie folgt zusammengefasst werden: Es ist in die folgenden 4 Aspekte unterteilt
1. Bei Informationssystemen können Bedrohungen auf die physische Umgebung, Kommunikationsverbindungen, Netzwerksysteme, Betriebssysteme, Anwendungssysteme und Verwaltungssysteme abzielen.
2. Physische Sicherheitsbedrohungen beziehen sich auf Bedrohungen für die im System verwendete Ausrüstung, wie z. B. Naturkatastrophen, Stromausfall, Startfehler des Betriebssystems oder Verlust von Datenbankinformationen, Diebstahl/Zerstörung von Ausrüstung, was zu Datenverlust oder Informationslecks führt;
3. Unter Sicherheitsbedrohungen für Kommunikationsverbindungen versteht man die Installation von Abhörgeräten auf Übertragungsleitungen oder die Störung von Kommunikationsverbindungen.
4. Bedrohungen der Netzwerksicherheit beziehen sich auf die Tatsache, dass Menschen aufgrund der Offenheit und Internationalisierung des Internets leicht Internetinformationen mit technischen Mitteln stehlen können, was eine ernsthafte Sicherheitsbedrohung für das Netzwerk darstellt.
5. Unter Betriebssystemsicherheitsbedrohungen versteht man Bedrohungen, die in die Software- oder Hardwarechips der Systemplattform eingebaut sind, wie etwa „Trojanische Pferde“, „Falltüren“ und universelle Passwörter im BIOS;
6. Sicherheitsbedrohungen für Anwendungssysteme beziehen sich auf Bedrohungen der Sicherheit von Netzwerkdiensten oder Benutzergeschäftssystemen und werden auch durch „Trojanische Pferde“ und „Falltüren“ bedroht;
7. Sicherheitsbedrohungen für Managementsysteme beziehen sich auf vom Menschen verursachte Sicherheitslücken, die durch Fahrlässigkeit im Personalmanagement verursacht werden, wie z. B. den Diebstahl von Computerinformationen durch künstliches Kopieren, Fotografieren, Transkribieren und andere Mittel.
Zu den häufigsten Sicherheitsbedrohungen gehören:
(1) Informationsleck
Informationen werden durchgesickert oder an eine unbefugte Stelle weitergegeben.
(2) Zerstören Sie die Integrität von Informationen
Daten gehen durch unbefugtes Hinzufügen, Löschen, Ändern oder Vernichten verloren.
(3) Denial of Service
Der legitime Zugriff auf Informationen oder andere Ressourcen wird bedingungslos gesperrt.
(4) Illegaler Zugriff (unberechtigter Zugriff)
Eine Ressource wird von einer unbefugten Person oder auf unbefugte Weise genutzt.
(5) klopfen
Nutzen Sie alle möglichen legalen oder illegalen Mittel, um Informationsressourcen und sensible Informationen im System zu stehlen. Zum Beispiel die Überwachung von in Kommunikationsleitungen übertragenen Signalen oder die Nutzung elektromagnetischer Streuungen, die von Kommunikationsgeräten während des Betriebs erzeugt werden, um nützliche Informationen abzufangen.
(6) Geschäftsflussanalyse
Durch die Langzeitüberwachung des Systems werden statistische Analysemethoden eingesetzt, um Faktoren wie Kommunikationshäufigkeit und Kommunikation zu analysieren Führen Sie Untersuchungen zu Veränderungen im Informationsfluss und im gesamten Kommunikationsvolumen durch, um wertvolle Informationen und Muster zu entdecken.
(7) Fälschen
Durch die Täuschung des Kommunikationssystems (oder Benutzers) soll der Zweck erreicht werden, dass illegale Benutzer sich als legitime Benutzer ausgeben oder Benutzer mit geringen Berechtigungen vorgeben, Benutzer mit hohen Berechtigungen zu sein. Hacker nutzen für Angriffe meist Identitätsdiebstahl.
(8) Bypass-Steuerung
Ein Angreifer nutzt die Sicherheitslücken oder Schwachstellen eines Systems aus, um sich unbefugte Rechte oder Privilegien zu verschaffen. Angreifer verwenden beispielsweise verschiedene Angriffsmethoden, um einige Systemfunktionen zu entdecken, die geheim gehalten werden sollten, aber offengelegt werden. Mithilfe dieser „Funktionen“ können Angreifer Verteidiger umgehen und in das System eindringen.
(9) Lizenzverletzung
Eine Person, die berechtigt ist, ein System oder eine Ressource für einen bestimmten Zweck zu nutzen, nutzt diese Erlaubnis für andere nicht autorisierte Zwecke, was auch als „Insider-Angriff“ bezeichnet wird.
(10) Trojanisches Pferd
Die Software enthält einen nicht erkennbaren oder harmlosen Programmabschnitt, der bei Ausführung zerstört Benutzersicherheit. Diese Art von Anwendung wird als Trojanisches Pferd bezeichnet.
(11) Falltür
Ein „Chassis“ wird in einem System oder einer Komponente eingerichtet, um Verstöße gegen Sicherheitsrichtlinien zu ermöglichen, wenn bestimmte Eingabedaten bereitgestellt werden.
(12) leugnen
Hierbei handelt es sich um einen Angriff des Benutzers, der beispielsweise eine von ihm gepostete Nachricht ablehnt oder einen Brief der anderen Partei fälscht.
(13) Wiederholung
Eine legitime Kommunikationsdatensicherung, die für illegale Zwecke abgefangen und erneut übertragen wurde.
(14) Computer Virus
Der sogenannte Computervirus ist ein funktionales Programm, das das Computersystem infizieren und während des Betriebs verletzen kann. Ein Virus hat normalerweise zwei Funktionen: Die eine besteht darin, andere Programme zu „infizieren“ und die andere darin, Schaden zu verursachen oder einen Angriff einzuleiten.
(15) Fehlverhalten des Personals
Eine autorisierte Person gibt Informationen an eine unbefugte Person aus Geld- oder Profitgründen oder aus Fahrlässigkeit weiter.
(16) Medienschrott
Informationen werden von ausrangierten Datenträgern oder gedruckten Speichermedien gewonnen.
(17) körperliches Eindringen
Eindringlinge verschaffen sich Zugang zu einem System, indem sie physische Kontrollen umgehen.
(18) stehlen
Es werden wichtige Sicherheitsgegenstände wie Wertmarken oder Ausweise gestohlen.
(19) Geschäftsbetrug
Ein gefälschtes System oder eine gefälschte Systemkomponente, die legitime Benutzer oder Systeme dazu verleitet, freiwillig vertrauliche Informationen preiszugeben.
II. Definition und Geltungsbereich
Sicherheitsarchitektur ist ein Unterbereich, der sich auf die Sicherheit von Informationssystemen auf Architekturebene konzentriert.
Sicherheit spiegelt sich in Informationssystemen wider. Die übliche Systemsicherheitsarchitektur, die Sicherheitstechnologiearchitektur und die Prüfarchitektur können drei Linien der Sicherheitsverteidigung bilden.
1. Systemsicherheitsarchitektur
Systemsicherheitsarchitektur bezieht sich auf die Hauptkomponenten, die die Sicherheitsqualitätsmerkmale von Informationssystemen und die Beziehungen zwischen ihnen bilden.
Das Ziel der Systemsicherheitsarchitektur besteht darin, eine eigene Sicherheit von der Quelle aus aufzubauen, ohne auf externe Verteidigungssysteme angewiesen zu sein.
2. Architektur der Sicherheitstechnologie
Unter Sicherheitstechnologiearchitektur versteht man die Hauptkomponenten beim Aufbau eines Sicherheitstechnologiesystems und die Beziehungen zwischen ihnen.
Die Aufgabe der Sicherheitstechnologiearchitektur besteht darin, eine allgemeine Sicherheitstechnologieinfrastruktur aufzubauen, einschließlich Sicherheitsinfrastruktur, Sicherheitstools und -technologien, Sicherheitskomponenten und Unterstützungssystemen usw., um die Sicherheitsverteidigungsfähigkeiten jedes Teils systematisch zu verbessern.
3. Audit-Architektur
Die Prüfungsstruktur bezieht sich auf die unabhängige Prüfungsabteilung oder die von ihr bereitgestellten Möglichkeiten zur Risikoerkennung. Der Prüfungsumfang umfasst hauptsächlich alle Risiken, einschließlich Sicherheitsrisiken.
Wenn Menschen ein System entwerfen, müssen sie normalerweise die Sicherheitsbedrohungen identifizieren, denen das System ausgesetzt sein kann. Durch die Durchführung einer angemessenen Bewertung der Sicherheitsbedrohungen, denen das System ausgesetzt ist, und die Implementierung entsprechender Kontrollmaßnahmen werden wirksame und angemessene Sicherheitstechnologien vorgeschlagen, um eine Sicherheit zu schaffen Methode, die die Sicherheit des Informationssystems verbessert. Lösung ist das grundlegende Ziel des Entwurfs einer Sicherheitsarchitektur. In praktischen Anwendungen kann das Design der Sicherheitsarchitektur aus der Perspektive der Sicherheitstechnologie betrachtet werden, z. B. Verschlüsselung und Entschlüsselung, Netzwerksicherheitstechnologie usw.
III. Gesamtarchitekturentwurf
一、 Der Rahmen des Systems zur Gewährleistung der Informationssicherheit sollte drei Teile umfassen: technisches System, Organisationssystem und Managementsystem. Mit anderen Worten: Menschen, Management und technische Mittel sind die drei Hauptelemente des Entwurfs einer Informationssicherheitsarchitektur, und der Aufbau eines dynamischen Systems zur Gewährleistung der Informations- und Netzwerksicherheit ist die Garantie für die Erreichung der Systemsicherheit.
二、 Als Reaktion auf Probleme beim Schutz der Netzwerksicherheit haben verschiedene Länder mehrere Modelle und Architekturen für Netzwerksicherheitssysteme vorgeschlagen, beispielsweise PDRR (Schutz/Erkennung/Reaktion/Wiederherstellung, Schutz/Erkennung/Reaktion/Wiederherstellung) Modell, P2DR-Modell (Richtlinie/Schutz/Erkennung/Reaktion, Sicherheitsrichtlinie/Schutz/Erkennung/Reaktion).
三、 WPDRRC-Modell
WPDRRC (Waring/Protect/Detect/React/Restore/Counterattack) ist ein Konstruktionsmodell für Informationssicherheitssicherungssysteme, das von der Expertengruppe für Informationssicherheit meines Landes vorgeschlagen wurde.
WPDRRC basiert auf dem PDRR-Informationssicherheitssystemmodell und fügt Frühwarn- und Gegenangriffsfunktionen hinzu.
Im PDRR-Modell hat sich das Konzept der Sicherheit von der Informationssicherheit zur Informationssicherheit erweitert. Die Bedeutung von Informationssicherheit geht über die traditionelle Kombination von Informationssicherheit und Vertraulichkeit hinaus. Das PDRR-Modell basiert auf dem Schutz der Informationssicherheit, behandelt den Schutz als aktiven Prozess und nutzt Erkennungsmethoden, um Sicherheitslücken zu erkennen und diese zeitnah zu beheben. Gleichzeitig werden Notfallmaßnahmen zur Bewältigung verschiedener Eingriffe eingesetzt. Nach dem Eindringen in das System müssen entsprechende Maßnahmen ergriffen werden, um den Normalzustand des Systems wiederherzustellen Das Modell betont die Fähigkeit zur automatischen Fehlerbehebung.
Die sechs Verbindungen umfassen: Frühwarnung (W), Schutz (P), Erkennung (D), Reaktion (R), Wiederherstellung (R) und Gegenangriff (C). Sie haben ein starkes Timing und eine starke Dynamik und können die Frühwarnung besser widerspiegeln , Schutz-, Erkennungs-, Reaktions-, Wiederherstellungs- und Gegenangriffsfähigkeiten des Informationssystemsicherheitssystems.
(1) Frühwarnung(W)
Es bezieht sich hauptsächlich auf die Verwendung der vom Remote-Sicherheitsbewertungssystem bereitgestellten simulierten Angriffstechnologie, um mögliche ausgenutzte Schwachstellen im System zu überprüfen, die Sicherheitsrisiken des Netzwerks und der Informationen zu sammeln und zu testen und auf intuitive Weise Lösungsvorschläge zu liefern.
(2) Schützen(P)
Der Schutz nutzt in der Regel ausgereifte Informationssicherheitstechnologien und -methoden, um Netzwerk- und Informationssicherheit zu erreichen.
Zu den Hauptinhalten gehören Verschlüsselungsmechanismen, digitale Signaturmechanismen, Zugriffskontrollmechanismen, Authentifizierungsmechanismen, Informationsverbergung und Firewall-Technologie usw.
(3) Erkennung(D)
Beim Testen geht es darum, Netzwerke und Systeme zu erkennen und zu überwachen, um neue Bedrohungen und Schwachstellen zu entdecken und Sicherheitsrichtlinien durchzusetzen.
In diesem Prozess werden Technologien wie die Erkennung von Eindringlingen und die Filterung bösartiger Codes verwendet, um ein dynamisches Erkennungssystem und einen Koordinierungsmechanismus für Belohnungsberichte zu bilden, um die Echtzeitcharakteristik der Erkennung zu verbessern.
Zu den Hauptinhalten gehören die Erkennung von Eindringlingen, die Erkennung von Systemschwachstellen, die Erkennung der Datenintegrität und die Erkennung von Angriffen usw.
(4) Antwort(R)
Sollte bedeuten, dass nach dem Erkennen von Sicherheitslücken und Sicherheitsereignissen rechtzeitig korrekt reagiert werden muss, um das System in einen sicheren Zustand zu versetzen. Hierzu sind entsprechende Alarm-, Verfolgungs- und Verarbeitungssysteme erforderlich, einschließlich Blockierung, Isolierung, Berichterstattung und anderer Funktionen.
Zu den Hauptinhalten gehören Notfallstrategien, Notfallmechanismen, Notfallmittel, Analyse von Einbruchsprozessen und Bewertung des Sicherheitsstatus usw.
(5) Erholung(R)
Es bezieht sich auf den Einsatz notwendiger technischer Mittel, um das System in kürzester Zeit wieder in den Normalzustand zu versetzen, nachdem das aktuelle Netzwerk, die Daten und Dienste von Hackern angegriffen und beschädigt oder beeinträchtigt wurden.
Zu den Hauptinhalten gehören Fehlertoleranz, Redundanz, Sicherung, Austausch, Reparatur und Wiederherstellung usw.
(6) Gegenangriff (C)
Es bezieht sich auf den Einsatz aller möglichen High-Tech-Mittel, um Hinweise und kriminelle Beweise von Computerkriminellen zu erkennen und zu extrahieren, um starke Fähigkeiten zur Beweiserhebung und legale Angriffsmethoden zu entwickeln.
Zu den drei Hauptelementen gehören: Menschen, Strategie und Technologie. Der Mensch ist der Kern, die Strategie die Brücke und die Technologie die Garantie.
Nach Jahren der Entwicklung haben Netzwerksicherheitssystemmodelle Modelle wie PDP, PPDR, PDRR, MPDRR und WPDRRC gebildet. Diese Modelle haben umfassendere Funktionen bei der Informationssicherheitsprävention.
四、 Architektur-Design
Die Sicherheitsanforderungen von Informationssystemen können nicht durch eine einzelne Sicherheitstechnologie gelöst werden. Um eine Informationssicherheitsarchitektur zu entwerfen, sollte ein geeignetes Sicherheitsarchitekturmodell ausgewählt werden.
Das Sicherheitsdesign von Informationssystemen konzentriert sich auf zwei Aspekte:
1. Systemsicherheitssystem
Das Sicherheitssicherungssystem besteht aus drei Ebenen: Sicherheitsdienst, Protokollebene und Systemeinheit, und jede Ebene deckt den Inhalt des Sicherheitsmanagements ab.
Bei der Entwurfsarbeit des Systemsicherheitssicherungssystems werden hauptsächlich die folgenden Punkte berücksichtigt:
(1) Festlegung der Sicherheitszonenstrategie
Basierend auf der Einteilung der Sicherheitsbereiche sollten die zuständigen Behörden gezielte Sicherheitsstrategien formulieren. Zum Beispiel regelmäßige Auditbewertung, Installation eines Einbruchmeldesystems, einheitliche Autorisierung, Zertifizierung usw.
(2) Einheitliche Konfiguration und Verwaltung von Antivirensystemen
Die zuständigen Behörden sollten eine umfassende Verteidigungsstrategie festlegen, um eine einheitliche Konfiguration und Verwaltung zu erreichen. Netzwerk-Antivirenstrategien sollten die Anforderungen an Vollständigkeit, Benutzerfreundlichkeit, Echtzeitleistung und Skalierbarkeit erfüllen.
(3) Netzwerk- und Informationssicherheitsmanagement
Im Bereich der Netzwerksicherheit ist es neben der Ergreifung einiger technischer Maßnahmen auch erforderlich, das Netzwerk- und Informationssicherheitsmanagement zu stärken und entsprechende Regeln und Vorschriften zu formulieren. Im relevanten Management müssen alle Sicherheitsgarantiemaßnahmen letztlich in spezifischen Managementregeln und -vorschriften sowie in spezifischen Managementverantwortungen umgesetzt und durch die Arbeit von Managern verwirklicht werden.
2. Informationssicherheitsarchitektur
Durch ein umfassendes Verständnis von Informationssystemanwendungen wird die Entwurfsarbeit der Sicherheitssystemarchitektur in Übereinstimmung mit Sicherheitsrisiken, Ergebnissen der Anforderungsanalyse, Sicherheitsrichtlinien sowie Netzwerk- und Informationssicherheitszielen durchgeführt.
Insbesondere im Sicherheitskontrollsystem können Analyse- und Entwurfsarbeiten unter fünf Gesichtspunkten durchgeführt werden
(1) physische Sicherheit
Die Gewährleistung der physischen Sicherheit verschiedener Geräte in Computerinformationssystemen ist eine Voraussetzung für die Gewährleistung der Sicherheit des gesamten Netzwerksystems.
Unter physischer Sicherheit versteht man den Prozess des Schutzes von Computernetzwerkgeräten, Einrichtungen und anderen Medien vor Schäden, die durch Umweltunfälle wie Erdbeben, Überschwemmungen und Brände sowie durch menschliche Bedienfehler und verschiedene Computerkriminalität verursacht werden.
Die physische Sicherheit umfasst hauptsächlich: Umweltsicherheit, Gerätesicherheit, Mediensicherheit usw.
(2) Systemsicherheit
Systemsicherheit bezieht sich hauptsächlich auf die Sicherheitsanforderungen für jede Komponente im Informationssystem.
Die Systemsicherheit ist die Grundlage für die Gesamtsicherheit des Systems.
Es umfasst hauptsächlich Netzwerkstruktursicherheit, Betriebssystemsicherheit und Anwendungssystemsicherheit.
(3) Internet-Sicherheit
Cybersicherheit ist der Schlüssel zur gesamten Sicherheitslösung.
Es umfasst hauptsächlich Zugangskontrolle, Vertraulichkeit der Kommunikation, Erkennung von Eindringlingen, Netzwerksicherheitsscans und Virenschutz.
(4) Anwendungssicherheit
Anwendungssicherheit bezieht sich hauptsächlich auf Sicherheitsprobleme, die durch gemeinsam genutzte Ressourcen und Informationsspeichervorgänge verursacht werden, wenn mehrere Benutzer Netzwerksysteme verwenden.
Es umfasst hauptsächlich zwei Aspekte: Ressourcenfreigabe und Informationsspeicherung.
(5) Sicherheitsmanagement
Dies spiegelt sich hauptsächlich in drei Aspekten wider: Formulierung eines soliden Sicherheitsmanagementsystems und Aufbau einer Sicherheitsmanagementplattform Plattform zur Stärkung des Sicherheitsbewusstseins des Personals.
五、 Designpunkte
I. Kernpunkte des Systemsicherheitsdesigns
Im Bereich Netzwerkstruktursicherheit geht es darum, ob die Netzwerktopologie sinnvoll ist, ob Leitungen redundant sind, ob Routing redundant ist und ob Single Points of Failure verhindert werden soll.
Die Sicherheit des Betriebssystems konzentriert sich auf zwei Aspekte: ① Maßnahmen, die ergriffen werden können, um die Sicherheit des Betriebssystems zu verhindern, z. B.: Versuchen Sie, ein sichereres Netzwerkbetriebssystem zu verwenden und die erforderlichen Sicherheitskonfigurationen vorzunehmen, und schließen Sie einige Anwendungen, die nicht häufig verwendet werden, aber Sicherheitsrisiken aufweisen , Verwenden Sie Berechtigungen, um die Verwendung von Passwörtern usw. einzuschränken oder zu verstärken. ② Ausgestattet mit einem Betriebssystem-Sicherheitsscansystem, um Sicherheitsscans des Betriebssystems durchzuführen, Schwachstellen zu erkennen und zeitnahe Upgrades durchzuführen.
Konzentrieren Sie sich im Hinblick auf die Sicherheit des Anwendungssystems auf den Anwendungsserver und versuchen Sie, einige selten verwendete Protokolle und Protokollports wie Dateidienste, E-Mail-Server usw. nicht zu öffnen. Sie können Dienste wie HTTP, FTP, Telnet usw. auf dem Server deaktivieren. Die Authentifizierung der Anmeldeidentität kann verstärkt werden, um die Rechtmäßigkeit der Benutzernutzung sicherzustellen.
II. Grundlagen des Netzwerksicherheitsdesigns
Isolation und Zugriffskontrolle müssen über ein strenges Kontrollsystem verfügen, und eine Reihe von Verwaltungsmaßnahmen wie „Implementierungsregeln für die Benutzerautorisierung“, „Spezifikationen für die Passwort- und Kontoverwaltung“ und „Formulierung für die Berechtigungsverwaltung“ können formuliert werden.
Die Ausstattung einer Firewall ist die grundlegendste, wirtschaftlichste und effektivste Sicherheitsmaßnahme in der Netzwerksicherheit. Isolierung und Zugriffskontrolle zwischen internen und externen Netzwerken oder verschiedenen Vertrauensdomänen im internen Netzwerk werden durch strenge Sicherheitsrichtlinien der Firewall erreicht. Die Firewall kann eine unidirektionale oder bidirektionale Kontrolle implementieren und für einige hohe Anforderungen eine feinkörnigere Zugriffskontrolle implementieren -Protokolle.
Die Erkennung von Eindringlingen erfordert eine Echtzeitüberwachung und Aufzeichnung aller Vorgänge innerhalb und außerhalb des Netzwerksegments auf der Grundlage der Informationscodes bestehender und neuester Angriffsmethoden sowie die Umsetzung von Reaktionen (Blockierung, Alarmierung und Versand von E-Mails) gemäß etablierter Strategien. Dies verhindert Angriffe und Straftaten gegen das Netzwerk. Intrusion-Detection-Systeme umfassen im Allgemeinen eine Konsole und Detektoren (Netzwerk-Engines). Die Konsole wird verwendet, um alle Detektoren (Netzwerk-Engines) zu formulieren und zu verwalten. Die Netzwerk-Engine wird verwendet, um das Zugriffsverhalten innerhalb und außerhalb des Netzwerks zu überwachen und entsprechende Verhaltensweisen auszuführen die Anleitung der Konsole.
Der Virenschutz ist ein notwendiges Mittel zur Netzwerksicherheit, da Computerviren in der Netzwerkumgebung unermessliche Bedrohungen und Zerstörungskraft haben. Das in Netzwerksystemen verwendete Betriebssystem (z. B. Windows) ist anfällig für Virusinfektionen. Daher ist die Verhinderung von Computerviren einer der wichtigen Aspekte, die beim Aufbau der Netzwerksicherheit berücksichtigt werden sollten. Virenprävention, Virenerkennung und Virenschutz.
III. Grundlagen des Anwendungssicherheitsdesigns
Die gemeinsame Nutzung von Ressourcen muss die Nutzung gemeinsam genutzter Netzwerkressourcen durch interne Mitarbeiter streng kontrollieren. Im Allgemeinen sollten freigegebene Verzeichnisse in internen Subnetzen nicht einfach geöffnet werden, da sonst wichtige Informationen aufgrund von Nachlässigkeit beim Informationsaustausch zwischen Mitarbeitern verloren gehen können. Für Benutzer, die häufig Informationen austauschen müssen, muss beim Teilen ein notwendiger Passwortauthentifizierungsmechanismus hinzugefügt werden, d. h. nur durch Passwortauthentifizierung kann der Zugriff auf Daten zugelassen werden.
Die Informationsspeicherung bezieht sich auf Benutzerhosts, die geheime Informationen enthalten. Benutzer sollten versuchen, während des Bewerbungsprozesses so wenige ungewöhnliche Netzwerkdienste wie möglich zu öffnen. Erstellen Sie ein sicheres Backup der Datenbank auf dem Datenserver. Die Datenbank kann über das Netzwerk-Backup-System per Fernzugriff gesichert und gespeichert werden.
IV. Kernpunkte der Gestaltung des Sicherheitsmanagements
Die Einrichtung und Verbesserung eines Sicherheitsmanagementsystems ist eine wichtige Garantie für die Verwirklichung der Netzwerksicherheit. Sie können Sicherheitsbetriebsabläufe, Belohnungs- und Bestrafungssysteme für Sicherheitsvorfälle entsprechend Ihrer tatsächlichen Situation formulieren und Sicherheitsmanager ernennen, die die volle Verantwortung für die Überwachung tragen Orientierungshilfe.
Der Aufbau einer Sicherheitsmanagementplattform wird viele Risiken reduzieren, die durch unbeabsichtigte menschliche Faktoren verursacht werden. Der Aufbau einer Sicherheitsverwaltungsplattform kann technischen Schutz bieten, z. B. die Bildung eines Sicherheitsverwaltungssubnetzes, die Installation zentraler und einheitlicher Sicherheitsverwaltungssoftware, Netzwerkausrüstungsverwaltungssysteme und einheitliche Verwaltungssoftware für Netzwerksicherheitsausrüstung usw., um ein Sicherheitsmanagement für das gesamte Netzwerk zu erreichen über die Sicherheitsmanagementplattform.
Für die Mitarbeiter der Einheit sollten häufig Schulungen zur Sensibilisierung für Netzwerksicherheitsprävention durchgeführt werden, um das Bewusstsein der Mitarbeiter für allgemeine Sicherheitsmethoden umfassend zu verbessern.
六、 Architekturbeispiel
Das Sicherheitskontrollsystem bezieht sich hier auf ein System, das eine äußerst zuverlässige Sicherheitsschutzmethode bereitstellen kann, die den unsicheren Zustand der zugehörigen Ausrüstung weitestgehend vermeiden, das Auftreten schwerer Unfälle verhindern oder Verluste nach dem Unfall so weit wie möglich reduzieren kann. und schützen Sie das Gerät und vor allem die persönliche Sicherheit.
Die Architektur übernimmt eine traditionelle hierarchische Struktur, die in Datenschicht, Funktionsschicht und Präsentationsschicht unterteilt ist. Die Datenschicht verwaltet hauptsächlich Organisationsdaten auf einheitliche Weise und speichert, isoliert und schützt sie entsprechend unterschiedlicher Sicherheitsmerkmale der Daten. Die Funktionsschicht ist die Hauptkernfunktion der Systemsicherheitsprävention, einschließlich Verfügbarkeitsüberwachung, Serviceunterstützung und Sicherheitsüberwachung. Die Verfügbarkeitsüberwachung implementiert hauptsächlich Überwachungsfunktionen in den Bereichen Netzwerksicherheit, Systemsicherheit und Anwendungssicherheit. Der Geschäftsprozess im Service-Support umfasst das Sicherheitsmanagementdesign und realisiert die meisten Funktionen des Betriebs- und Wartungsmanagements in einer Sicherheitsmanagementumgebung. Die Sicherheitsüberwachung konzentriert sich hauptsächlich auf das System Entdeckte Phänomene werden entsprechend behandelt und umfassen die Bedrohungsverfolgung, die Bewertung von Sicherheitsdomänenprüfungen, die Autorisierung, Zertifizierung usw. sowie die Risikoanalyse und -bewertung. Die Präsentationsschicht vervollständigt hauptsächlich die Implementierung verschiedener Arten von Benutzeranwendungsfunktionen, einschließlich der Verwendung, Wartung, Entscheidungsfindung usw. der Sicherheitsarchitektur.
IV. Entwurf einer Netzwerksicherheitsarchitektur
i. Der Zweck der Einrichtung eines Informationssystemsicherheitssystems besteht darin, universelle Sicherheitsprinzipien mit der Realität von Informationssystemen zu kombinieren, um eine Sicherheitsarchitektur zu bilden, die den Sicherheitsanforderungen von Informationssystemen entspricht. Das Netzwerksicherheitssystem ist einer der Kerne des Informationssystemsystems.
ii. Systemsicherheitssystem
1. OSI-Sicherheitsarchitektur
OSI (Open System Interconnection/Reference Mode, OSI/RM) ist ein offenes Kommunikationssystem-Verbindungsmodell (ISO 7498-2), das von einer internationalen Normungsorganisation formuliert wurde. Der nationale Standard GB/T9387.2 „Basic Reference for Information Processing System Open System“. „Interconnection“-Modell Teil 2: Sicherheitsarchitektur entspricht ISO 7498-2.
Der Zweck von OSI besteht darin, den sicheren Informationsaustausch über große Entfernungen zwischen offenen Systemprozessen sicherzustellen. Diese Standards legen einige Leitprinzipien und Einschränkungen im Rahmen eines Referenzmodells fest und bieten so einen konsistenten Ansatz zur Lösung von Sicherheitsproblemen in offenen vernetzten Systemen.
OSI definiert ein 7-Schichten-Protokoll, bei dem jede Schicht außer Schicht 5 (Sitzungsschicht) entsprechende Sicherheitsdienste bereitstellen kann.
Es ist am besten geeignet, Sicherheitsdienste auf der physischen Schicht, der Netzwerkschicht, der Transportschicht und der Anwendungsschicht zu konfigurieren. Es ist nicht geeignet, Sicherheitsdienste auf anderen Schichten zu konfigurieren.
Zu den fünf Arten von Sicherheitsdiensten des OSI-Sicherheitssystems für offene Systemverbindungen gehören Authentifizierung, Zugriffskontrolle, Datenvertraulichkeit, Datenintegrität und Nichtabstreitbarkeit.
OSI definiert eine mehrschichtige Mehrpunkt-Sicherheitstechnologiearchitektur, auch bekannt als Defense-in-Depth-Sicherheitstechnologiearchitektur, die Verteidigungsfähigkeiten auf die folgenden drei Arten auf das gesamte Informationssystem verteilt.
(1) Technische Mehrpunktverteidigung
1||| Netzwerk und Infrastruktur:
Um die Verfügbarkeit sicherzustellen, müssen LANs und WANs vor Angriffen wie Denial-of-Service-Angriffen geschützt werden. Um Vertraulichkeit und Integrität zu gewährleisten, müssen die über diese Netzwerke übertragenen Informationen und die Merkmale des Datenverkehrs vor unbeabsichtigter Offenlegung geschützt werden.
2||| Grenze:
Um sich vor aktiven Netzwerkangriffen zu schützen, muss der Perimeter über stärkere Perimeterverteidigungen wie Verkehrsfilterung und -kontrolle sowie Einbruchserkennung verfügen.
3||| Computerumgebung:
Zum Schutz vor internen, eng beieinander liegenden verteilten Angriffen müssen Hosts und Workstations über angemessene Zugriffskontrollen verfügen.
(2) Mehrschichtige technische Verteidigung
Um die Wahrscheinlichkeit und Erschwinglichkeit erfolgreicher Angriffe dieser Angriffe zu verringern, sollte jeder Mechanismus eine einzigartige Barriere darstellen und sowohl Schutz- als auch Erkennungsmethoden umfassen.
Beispielsweise ist die Verwendung verschachtelter Firewalls zusammen mit der Erkennung von Eindringlingen sowohl an den externen als auch an den internen Grenzen ein Beispiel für eine mehrschichtige Technologieabwehr.
(3) unterstützende Infrastruktur
1||| Public-Key-Infrastruktur
Bietet einen gemeinsamen Verbund für die sichere Erstellung, Verteilung und Verwaltung von Public-Key-Zertifikaten und herkömmlichen symmetrischen Schlüsseln, sodass diese sichere Dienste für Netzwerke, Perimeter und Computerumgebungen bereitstellen können. Diese Dienste ermöglichen eine zuverlässige Überprüfung der Integrität von Sendern und Empfängern und verhindern die unbefugte Offenlegung und Änderung von Informationen. Die Public-Key-Infrastruktur muss kontrollierte Interoperabilität unterstützen und mit den von jeder Benutzergemeinschaft festgelegten Sicherheitsrichtlinien übereinstimmen.
2||| Erkennungs- und Reaktionsinfrastruktur
Fähigkeit, Einbrüche schnell zu erkennen und darauf zu reagieren. Es bietet auch eine „Zusammenfassungs“-Funktion, die es einfach macht, ein Ereignis in Verbindung mit anderen verwandten Ereignissen zu beobachten. Darüber hinaus können Analysten potenzielle Verhaltensmuster oder aufkommende Trends erkennen.
Die Sicherheit von Informationssystemen hängt nicht nur von der Technologie ab, sondern erfordert auch nichttechnische Verteidigungsmethoden. Ein akzeptables Maß an Informationssicherheit beruht auf einer Kombination aus Menschen, Management, Technologie und Prozessen.
2. Zertifizierungsrahmen
Der Hauptzweck der Authentifizierung besteht darin, zu verhindern, dass andere Entitäten die Identität der authentifizierten Entität belegen und unabhängig verwalten.
Die Authentifizierung bietet die Gewissheit, dass eine Entität ihre Identität beansprucht, und ist nur im Kontext der Beziehung zwischen dem Subjekt und dem Prüfer von Bedeutung.
Es gibt zwei wichtige relationale Kontexte zur Identifizierung:
①Die Entität wird durch den Antragsteller vertreten, und es besteht eine spezifische Kommunikationsbeziehung zwischen dem Antragsteller und dem Prüfer (z. B. Identifizierung der Entität);
②Die Entität stellt dem Prüfer die Quelle der Datenelemente bereit.
Die Identifizierungsmethoden basieren hauptsächlich auf den folgenden fünf Methoden:
1||| Bekannt, etwa ein geheimes Passwort.
2||| Besitztümer wie IC-Karten, Wertmarken usw.
3||| Eigenschaften, die sich nicht ändern, wie zum Beispiel biologische Eigenschaften.
4||| Vertrauen Sie der von einem zuverlässigen Dritten eingerichteten Authentifizierung (Rekursion).
5||| Umgebung (z. B. Hostadresse usw.).
Unter Authentifizierungsinformationen versteht man die Informationen, die vom Antrag des Antragstellers auf Authentifizierung bis zum Ende des Authentifizierungsprozesses generiert, verwendet und ausgetauscht werden.
Die Arten von Authentifizierungsinformationen sind Authentifizierungsinformationen austauschen, Authentifizierungsinformationen anfordern und Authentifizierungsinformationen überprüfen.
In manchen Fällen muss der Antragsteller mit einem vertrauenswürdigen Dritten interagieren, um Austauschauthentifizierungsinformationen zu generieren. Ebenso muss der Prüfer zur Überprüfung des Austauschs von Authentifizierungsinformationen auch mit einem vertrauenswürdigen Dritten interagieren. In diesem Fall verfügt der vertrauenswürdige Dritte über die Verifizierungs-KI der relevanten Entität und kann den vertrauenswürdigen Dritten auch zum Übertragen und Austauschen von Authentifizierungsinformationen verwenden. Die Entität muss möglicherweise auch über die Authentifizierungsinformationen verfügen, die zur Authentifizierung des vertrauenswürdigen Dritten verwendet werden.
Der Authentifizierungsdienst ist in die folgenden Phasen unterteilt:
1||| Installationsphase
Definieren Sie Anwendungsauthentifizierungsinformationen und Verifizierungsauthentifizierungsinformationen.
2||| Identifikationsinformationsphase ändern
Entitäten oder Administratoren beantragen Authentifizierungsinformationen und überprüfen Änderungen der Authentifizierungsinformationen (z. B. das Ändern von Passwörtern).
3||| Vertriebsphase
Um Authentifizierungsinformationen zu authentifizieren und auszutauschen, verteilen Sie die Authentifizierungsinformationen an verschiedene Entitäten (z. B. Antragsteller oder Prüfer). Zeuge) zur Verwendung.
4||| Akquisitionsphase
Der Antragsteller oder Prüfer kann die Informationen erhalten, die zum Generieren spezifischer Austauschauthentifizierungsinformationen für die Authentifizierungsinstanz erforderlich sind. Der Austausch von Authentifizierungsinformationen kann durch die Interaktion mit einem vertrauenswürdigen Dritten oder den Austausch von Informationen zwischen Authentifizierungseinheiten erfolgen.
5||| Übertragungsphase
Übermittlung und Austausch von Authentifizierungsinformationen zwischen dem Antragsteller und dem Prüfer.
6||| Verifizierungsphase
Die Exchange-Authentifizierungsinformationen werden mit den Verifizierungsauthentifizierungsinformationen verglichen.
7||| Deaktivierungsphase
Es wird ein Zustand eingerichtet, in dem zuvor authentifizierte Entitäten vorübergehend nicht authentifiziert werden können.
8||| Reaktivierungsphase
Der während der Deaktivierungsphase hergestellte Zustand wird beendet.
9||| Brechen Sie die Installationsphase ab
Die Entität wird aus der Entitätssammlung entfernt.
3. Zugangskontrollrahmen
Unter Zugriffskontrolle versteht man den Prozess, bei dem bestimmt wird, welche Ressourcen in einer offenen Systemumgebung verwendet werden dürfen und wo es angemessen ist, unbefugten Zugriff zu verhindern.
Bei der Zugriffskontrolle kann der Zugriff auf ein System (d. h. auf eine Entität, die kommunizierender Teil eines Systems ist) oder innerhalb eines Systems erfolgen.
Abbildung 4-25 und Abbildung 4-26 veranschaulichen die Grundfunktionen der Zugangskontrolle.
ACI (Access Control Information) sind alle Informationen, die für Zugriffskontrollzwecke verwendet werden, einschließlich kontextbezogener Informationen. ADI (Access Control Decision Information) ist ein Teil (oder die Gesamtheit) der ACI, die ADF zur Verfügung steht, wenn eine bestimmte Zugangskontrollentscheidung getroffen wird.
ADF (Access Control Decision Function) ist eine spezielle Funktion, die Zugriffskontrollentscheidungen trifft, indem sie Zugriffskontrollrichtlinienregeln für die Zugriffsanfrage, die ADI und den Kontext der Zugriffsanfrage verwendet. AEF (Access Control Enforcement Function) stellt sicher, dass der Initiator nur Zugriffe auf das Ziel durchführt.
An der Zugangskontrolle sind Initiator, AEF, ADF und Target beteiligt. Initiatoren stellen Personen und computerbasierte Einheiten dar, die auf ein Ziel zugreifen oder versuchen, darauf zuzugreifen. Das Ziel stellt den Computer oder die kommunikationsbasierte Entität dar, auf die versucht wird oder auf die der Initiator zugreift. Das Ziel kann beispielsweise eine OSI-Entität, eine Datei oder ein System sein. Eine Zugriffsanforderung stellt die Operationen und Operanden dar, die Teil des Zugriffsversuchs sind.
Wenn der Initiator besonderen Zugriff auf das Ziel anfordert, benachrichtigt AEF ADF darüber, dass eine Entscheidung erforderlich ist, um eine Entscheidung zu treffen. Um eine Entscheidung zu treffen, wird dem ADF eine Zugriffsanfrage (als Teil der Entscheidungsanfrage) und die folgenden Zugangskontrollentscheidungsinformationen (Access Control Decision Information, ADI) zur Verfügung gestellt.
(1) Initiator-ADI (ADI wird von der an den Initiator gebundenen ACI abgeleitet);
(2) Ziel-ADI (ADI wird von der an das Ziel gebundenen ACI abgeleitet);
(3) Zugriffsanfrage-ADI (ADI wird von der ACI abgeleitet, die an die Zugriffsanfrage gebunden ist).
Weitere Eingaben für ADF sind Richtlinienregeln für die Zugriffskontrolle (von der Sicherheitsdomänenautorität von ADF) und die notwendigen Kontextinformationen, die zur Interpretation des ADI oder der Richtlinie verwendet werden. Zu den Kontextinformationen gehören der Standort des Absenders, die Zugriffszeit oder spezielle verwendete Kommunikationspfade. Basierend auf diesen Eingaben und möglicherweise aus früheren Entscheidungen erhaltenen ADI-Informationen kann die ADF eine Entscheidung treffen, die den versuchten Zugriff des Initiators auf das Ziel zulässt oder verbietet. Die Entscheidung wird an die AEF weitergeleitet, die dann die Weiterleitung der Zugriffsanfrage an das Ziel zulässt oder andere geeignete Maßnahmen ergreift.
In vielen Fällen hängen aufeinanderfolgende Zugriffsanfragen des Initiators an das Ziel zusammen. Ein typisches Beispiel in einer Anwendung ist, dass der Anwendungsprozess nach dem Öffnen einer Verbindung mit demselben Schichtziel versucht, mehrere Zugriffe mit demselben (reservierten) ADI durchzuführen. Für einige Zugriffsanforderungen, die anschließend über die Verbindung kommuniziert werden, kann dies erforderlich sein um zusätzliche Zugriffsanfragen an die ADF zu stellen. In anderen Fällen erfordern Sicherheitsrichtlinien möglicherweise Einschränkungen für bestimmte zugehörige Zugriffsanfragen zwischen einem oder mehreren Initiatoren und einem oder mehreren Zielen Zugriffsanfragen werden anhand der ADI beurteilt, die aus früheren Entscheidungen bezüglich des Ziels übernommen wurde.
Wenn die AEF dies zulässt, beinhaltet die Zugriffsanforderung nur eine einzige Interaktion zwischen dem Initiator und dem Ziel. Obwohl einige Zugriffsanfragen zwischen dem Initiator und dem Ziel völlig unabhängig von anderen Zugriffsanfragen sind, gehen die beiden Entitäten häufig einen verwandten Satz von Zugriffsanfragen ein, beispielsweise das Challenge-Response-Muster. In diesem Fall ändert die Entität die Initiator- und Zielrollen nach Bedarf gleichzeitig oder abwechselnd, und die Zugriffskontrollfunktion kann für jede Zugriffsanforderung durch separate AEF-Komponenten, ADF-Komponenten und Zugriffskontrollrichtlinien ausgeführt werden.
4. Vertraulichkeitsrahmen
Der Zweck von Vertraulichkeitsdiensten (Confidentiality) besteht darin, sicherzustellen, dass Informationen nur autorisierten Personen zugänglich sind. Da Informationen durch Daten dargestellt werden und Daten Änderungen in Beziehungen verursachen können (z. B. können Dateivorgänge Verzeichnisänderungen oder Änderungen in verfügbaren Speicherbereichen verursachen), können Informationen auf viele verschiedene Arten aus Daten abgeleitet werden. Zum Beispiel Ableitung durch Verständnis der Bedeutung der Daten (z. B. den Wert der Daten); Ableitung durch Verwendung datenbezogener Attribute (z. B. Existenz, erstellte Daten, Datengröße, Datum der letzten Aktualisierung usw.): durch Studieren der Kontext der Daten, das heißt, abgeleitet durch andere damit verbundene Datenentitäten; abgeleitet durch Beobachtung der dynamischen Änderungen von Datenausdrücken.
Der Schutz von Informationen besteht darin, sicherzustellen, dass die Daten auf autorisierte Personen beschränkt sind oder durch die Darstellung der Daten auf eine bestimmte Art und Weise erlangt werden. Die Semantik dieser Schutzmethode besteht darin, dass die Daten nur denjenigen zugänglich sind, die über bestimmte Schlüsselinformationen verfügen. Ein wirksamer Schutz der Vertraulichkeit erfordert den Schutz notwendiger Kontrollinformationen (z. B. Schlüssel und RCI usw.). Dieser Schutzmechanismus unterscheidet sich von dem Mechanismus zum Schutz von Daten (z. B. können Schlüssel durch physische Mittel geschützt werden usw.).
Im Vertraulichkeitsrahmen werden die beiden Konzepte der geschützten Umgebung und der überlappenden geschützten Umgebung verwendet. Daten in einer geschützten Umgebung können durch die Verwendung eines oder mehrerer spezifischer Sicherheitsmechanismen geschützt werden. Alle Daten in einer geschützten Umgebung werden auf ähnliche Weise geschützt. Wenn sich zwei oder mehr Umgebungen überschneiden, können die Daten in der Überlappung mehrfach geschützt werden. Daraus lässt sich schließen, dass der kontinuierliche Schutz von Daten, die von einer Umgebung in eine andere verschoben werden, notwendigerweise überlappende Schutzumgebungen erfordert.
Die Vertraulichkeit von Daten kann von dem Medium abhängen, auf dem sie sich befinden und übertragen werden. Daher wird die Vertraulichkeit gespeicherter Daten durch den Einsatz von Mechanismen gewährleistet, die die Datensemantik verbergen (z. B. Verschlüsselung) oder die Daten aufteilen. Die Vertraulichkeit der Daten während der Übertragung wird durch Mechanismen gewährleistet, die den Zugriff verbieten, die Datensemantik verbergen oder Daten verteilen (z. B. Frequenzsprung usw.). Diese Mechanismustypen können einzeln oder in Kombination verwendet werden.
Mechanismustyp
(1) Sorgen Sie für Vertraulichkeit, indem Sie den Zugriff verweigern
(2) Sorgen Sie für Vertraulichkeit durch Verschlüsselung
Verschlüsselungsmechanismen werden in symmetrische Verschlüsselungsmechanismen und unterteilt Vertraulichkeitsmechanismus basierend auf asymmetrischer Verschlüsselung.
5. Integritätsrahmen
Der Zweck des Integritätsrahmens (Integrity) besteht darin, die Integrität von Daten und die Integrität datenbezogener Attribute zu schützen, die auf unterschiedliche Weise gefährdet sein können, indem Bedrohungen verhindert oder Bedrohungen erkannt werden. Unter Integrität versteht man die Eigenschaft, dass Daten nicht auf unbefugte Weise verändert oder zerstört werden.
Integritätsdienste werden auf verschiedene Arten klassifiziert:
1||| Gemäß der Klassifizierung der zu verhindernden Verstöße werden die Verstöße in unbefugte Datenänderung, unbefugte Datenerstellung, unbefugte Datenlöschung, unbefugtes Einfügen von Daten und unbefugte Datenwiedergabe unterteilt.
2||| Die bereitgestellten Schutzmethoden unterteilen sich in die Verhinderung von Integritätsschäden und die Erkennung von Integritätsschäden.
3||| Je nachdem, ob es den Wiederherstellungsmechanismus unterstützt, wird es in solche mit Wiederherstellungsmechanismus und solche ohne Wiederherstellungsmechanismus unterteilt.
Da die Fähigkeit, Daten zu schützen, von den verwendeten Medien abhängt, sind die Mechanismen zum Schutz der Datenintegrität für verschiedene Medien unterschiedlich und können in den folgenden zwei Situationen zusammengefasst werden.
1||| Mechanismus zum Blockieren des Zugriffs auf Medien. Einschließlich physisch isolierter, unterbrechungsfreier Kanäle, Routing-Kontrolle und Zugriffskontrolle.
2||| Ein Mechanismus zur Erkennung unbefugter Änderungen an Daten oder Sequenzen von Datenelementen. Zu den nicht autorisierten Änderungen zählen die unbefugte Datenerstellung, Datenlöschung und Datenwiedergabe. Zu den entsprechenden Integritätsmechanismen gehören Versiegelung, digitale Signaturen, Datenvervielfältigung (als Mittel zur Bekämpfung anderer Arten von Sicherheitsverletzungen), digitale Fingerabdrücke in Kombination mit kryptografischen Transformationen und Nachrichtensequenznummern.
Je nach Schutzintensität lassen sich Integritätsmechanismen unterteilen in:
1||| Kein Schutz;
2||| Erkennung von Änderungen und Kreationen;
3||| Erkennung von Änderungen, Erstellungen, Löschungen und Duplikaten;
4||| Erkennung von Änderungen und Kreationen mit Wiederherstellungsfunktion;
5||| Erkennung und Wiederherstellung von Änderungen, Erstellungen, Löschungen und Duplikaten.
6. Rahmen der Nichtabstreitbarkeit
Zu den Non-Repudiation-Diensten (Non-Repudiation) gehören die Erstellung, Überprüfung und Aufzeichnung von Beweismitteln sowie die anschließende Wiederherstellung und erneute Überprüfung von Beweismitteln bei der Beilegung von Streitigkeiten. Der Zweck der im Rahmenwerk beschriebenen Nichtabstreitbarkeitsdienste besteht darin, Beweise für bestimmte Ereignisse oder Handlungen bereitzustellen. Andere Rechtsträger als die Veranstaltung oder die Durchführung selbst können Nichtabstreitbarkeitsdienste anfordern. Beispiele für Verhaltensweisen, die durch den Nichtabstreitbarkeitsdienst geschützt werden können, sind das Senden von X.400-Nachrichten, das Einfügen von Datensätzen in die Datenbank, das Anfordern von Remote-Vorgängen usw.
Bei Nichtabstreitbarkeitsdiensten für Nachrichteninhalte müssen die Identität des Datenurhebers und die Datenintegrität bestätigt werden, um einen Herkunftsnachweis zu erbringen. Um einen Zustellnachweis zu erbringen, müssen die Identität des Empfängers und die Datenintegrität bestätigt werden. In einigen Fällen können auch Nachweise mit Kontextinformationen (wie Datum, Uhrzeit, Absender-/Empfängerort usw.) erforderlich sein. Der Nichtabstreitbarkeitsdienst bietet die folgenden Möglichkeiten, die im Falle eines Ablehnungsversuchs genutzt werden können: Beweiserstellung, Beweisaufzeichnung, Überprüfung der erstellten Beweise, Wiederherstellung und erneute Prüfung von Beweisen. Streitigkeiten können direkt zwischen den Streitparteien durch Prüfung der Beweise gelöst werden, oder sie müssen möglicherweise durch einen Schiedsrichter gelöst werden, der beurteilt und feststellt, ob das fragliche Verhalten oder Ereignis eingetreten ist.
Die Nichtabstreitbarkeit besteht aus 4 unabhängigen Phasen, nämlich:
1||| Beweiserstellung
In dieser Phase fordert der Anforderer der Beweisgenerierung den Beweisgenerator auf, Beweise für ein Ereignis oder eine Aktion zu generieren. Die an einem Ereignis oder Verhalten beteiligte Entität wird als Beweisentität bezeichnet, und ihre Beteiligungsbeziehung wird durch Beweise nachgewiesen. Abhängig von der Art des Nichtabstreitbarkeitsdienstes können Beweise von der Beweiseinheit zusammen mit den Diensten eines vertrauenswürdigen Dritten oder nur von einem vertrauenswürdigen Dritten erstellt werden.
2||| Übermittlung, Speicherung und Wiederherstellung von Beweismitteln
In dieser Phase werden Beweise zwischen Entitäten übertragen oder aus dem Gedächtnis abgerufen oder in dieses übertragen.
3||| Beweisüberprüfung
In dieser Phase werden die Beweise auf Wunsch des Beweisnutzers vom Beweisprüfer überprüft. Der Zweck dieser Phase besteht darin, den Beweisnutzer davon zu überzeugen, dass die vorgelegten Beweise im Streitfall tatsächlich ausreichen. Auch vertrauenswürdige Drittdienste können teilnehmen, um Informationen bereitzustellen, die diese Beweise verifizieren.
4||| den Streit lösen
Während der Streitbeilegungsphase ist der Schiedsrichter dafür verantwortlich, den Streit zwischen den Parteien beizulegen.
V. Sicherheitsdesign für Datenbanksysteme
i. Unter Datenbankintegrität versteht man die Korrektheit und Konsistenz der Daten in der Datenbank. Die Datenbankintegrität wird durch verschiedene Integritätseinschränkungen garantiert, sodass man sagen kann, dass das Datenbankintegritätsdesign das Design von Datenbankintegritätseinschränkungen ist. Datenbankintegritätseinschränkungen können über ein Datenbankverwaltungssystem (DBMS) oder ein Anwendungsprogramm implementiert werden. Die auf DBMS basierenden Integritätseinschränkungen werden in der Datenbank als Teil des Schemas gespeichert.
ii. Designprinzipien der Datenbankintegrität
1. Bestimmen Sie die Systemebene und die Implementierungsmethode basierend auf der Art der Datenbankintegritätseinschränkungen und berücksichtigen Sie die Auswirkungen auf die Systemleistung im Voraus. Im Allgemeinen sollten statische Einschränkungen so weit wie möglich im Datenbankschema enthalten sein, während dynamische Einschränkungen von der Anwendung implementiert werden.
2. Entitätsintegritätseinschränkungen und referenzielle Integritätseinschränkungen sind die wichtigsten Integritätseinschränkungen relationaler Datenbanken und sollten so weit wie möglich angewendet werden, ohne die Hauptleistung des Systems zu beeinträchtigen. Für die Benutzerfreundlichkeit des Systems lohnt es sich, einen gewissen Zeit- und Platzaufwand zu investieren.
3. Seien Sie vorsichtig, wenn Sie die von aktuellen Mainstream-DBMS unterstützte Triggerfunktion verwenden. Einerseits ist der Leistungsaufwand für Trigger hoch, andererseits ist die Triggerung auf mehreren Ebenen schwierig zu kontrollieren Bei Bedarf ist es am besten, den Trigger auf Anweisungsebene „Before Type“ zu verwenden.
4. In der Phase der Anforderungsanalyse muss eine Namenskonvention für Integritätsbeschränkungen formuliert werden. Dabei muss versucht werden, sinnvolle Kombinationen aus englischen Wörtern, Abkürzungen, Tabellennamen, Spaltennamen und Unterstreichungen zu verwenden, damit sie leicht erkennbar und merkbar sind. Wenn Sie CASE-Tools verwenden, gibt es in der Regel Standardregeln, die auf dieser Basis geändert und verwendet werden können.
5. Die Datenbankintegrität muss gemäß den Geschäftsregeln sorgfältig getestet werden, um Konflikte zwischen impliziten Integritätsbeschränkungen und den Auswirkungen auf die Leistung so früh wie möglich zu beseitigen.
6. Es muss ein dediziertes Datenbankdesignteam geben, das für die Analyse, das Design, das Testen, die Implementierung und die frühe Wartung der Datenbank von Anfang bis Ende verantwortlich ist. Datenbankdesigner sind nicht nur für den Entwurf und die Implementierung von Datenbankintegritätsbeschränkungen auf Basis von DBMS verantwortlich, sondern auch für die Überprüfung der von der Anwendungssoftware implementierten Datenbankintegritätsbeschränkungen.
7. Um den Arbeitsaufwand in jeder Phase des Datenbankdesigns zu reduzieren, sollten geeignete CASE-Tools verwendet werden. Ein gutes CASE-Tool kann den gesamten Datenbanklebenszyklus unterstützen, was die Arbeitseffizienz von Datenbankdesignern erheblich verbessert und die Kommunikation mit Benutzern erleichtert.
iii. Die Rolle der Datenbankintegrität
Einschränkungen der Datenbankintegrität können legitime Benutzer daran hindern, bei der Verwendung der Datenbank unsemantische Dateninhalte zur Datenbank hinzuzufügen.
Die Verwendung des auf DBMS basierenden Integritätskontrollmechanismus zur Implementierung von Geschäftsregeln ist einfach zu definieren und zu verstehen und kann die Komplexität der Anwendung verringern und die Betriebseffizienz der Anwendung verbessern. Da der Integritätskontrollmechanismus des DBMS zentral verwaltet wird, ist es gleichzeitig einfacher, die Datenbankintegrität zu erreichen als bei Anwendungen.
Ein angemessenes Datenbankintegritätsdesign kann sowohl die Datenbankintegrität als auch die Systemleistung berücksichtigen. Wenn beispielsweise beim Laden einer großen Datenmenge die auf dem DBMS basierenden Datenbankintegritätsbeschränkungen vor dem Laden vorübergehend außer Kraft gesetzt und dann in Kraft gesetzt werden, kann die Integrität der Datenbank gewährleistet werden, ohne die Effizienz des Datenladens zu beeinträchtigen.
Beim Funktionstest von Anwendungssoftware trägt die Verbesserung der Datenbankintegrität dazu bei, Fehler in der Anwendungssoftware so früh wie möglich zu erkennen.
Datenbankintegritätseinschränkungen können in sechs Kategorien unterteilt werden: statische Einschränkungen auf Spaltenebene, statische Einschränkungen auf Tupelebene, statische Einschränkungen auf Beziehungsebene, dynamische Einschränkungen auf Spaltenebene, dynamische Einschränkungen auf Tupelebene und dynamische Einschränkungen auf Beziehungsebene. Dynamische Einschränkungen werden normalerweise durch Anwendungssoftware implementiert. Die von verschiedenen DBMS unterstützte Datenbankintegrität ist grundsätzlich gleich. Die DBMS-basierten Integritätseinschränkungen, die von einem gemeinsamen relationalen Datenbanksystem unterstützt werden, sind in Tabelle 4-3 aufgeführt.
iv. Beispiel für ein Datenbankintegritätsdesign
Bei einem guten Datenbankintegritätsentwurf müssen zunächst die Geschäftsregeln festgelegt werden, die während der Anforderungsanalysephase durch Datenbankintegritätseinschränkungen implementiert werden sollen. Basierend auf einem vollständigen Verständnis des von einem bestimmten DBMS bereitgestellten Integritätskontrollmechanismus, basierend auf den Architektur- und Leistungsanforderungen des gesamten Systems und in Übereinstimmung mit Datenbankentwurfsmethoden und Anwendungssoftware-Entwurfsmethoden, der Implementierungsmethode jeder Geschäftsregel sinnvoll ausgewählt ist. Führen Sie abschließend sorgfältig Tests durch, um implizite Einschränkungskonflikte und Leistungsprobleme zu beseitigen.
Das auf DBMS basierende Datenbankintegritätsdesign wird im Allgemeinen unterteilt in
(1) Phase der Anforderungsanalyse
(2) Phase der konzeptionellen Tragwerksplanung
Die Entwurfsphase der konzeptionellen Struktur besteht darin, die Ergebnisse der Anforderungsanalyse in ein konzeptionelles Modell umzuwandeln, das vom spezifischen DBMS unabhängig ist, nämlich das Entity-Relationship-Diagramm (ERD).
(3) Entwurfsphase der logischen Struktur
In dieser Phase wird die konzeptionelle Struktur in ein von einem bestimmten DBMS unterstütztes Datenmodell umgewandelt und optimiert, einschließlich der Standardisierung des relationalen Modells.
VI. Fallanalyse zum Entwurf einer Sicherheitsarchitektur
i. Nehmen Sie als Beispiel ein industrielles Sicherheitsarchitekturdesign, das auf einer Hybrid Cloud basiert.
ii. Die hybride Cloud-Architektur wird häufig von großen Unternehmen genutzt. Die Hybrid Cloud kombiniert Public Cloud und Private Cloud und ist in den letzten Jahren das Hauptmodell und die Entwicklungsrichtung des Cloud Computing.
iii. Die Architektur eines sicheren Produktionsmanagementsystems für große Unternehmen mit Hybrid-Cloud-Technologie
iv. Beim Entwurf eines sicheren Produktionsmanagementsystems auf Basis einer Hybrid Cloud müssen fünf Aspekte von Sicherheitsaspekten berücksichtigt werden.
(1) Gerätesicherheit
(2) Internet-Sicherheit
(3) Kontrollieren Sie die Sicherheit
(4) Anwendungssicherheit
(5) Datensicherheit
八、 Cloud-native Architektur
I. Zusammenfassung
„Cloud Native“ Cloud Native bedeutet, dass sich seine Anwendungssoftware und Dienste in der Cloud und nicht im traditionellen Rechenzentrum befinden. Native stellt Anwendungssoftware dar, die von Anfang an auf der Cloud-Umgebung basiert und speziell auf die Eigenschaften der Cloud zugeschnitten ist. Sie kann die Elastizität und verteilten Vorteile der Cloud-Umgebung voll ausnutzen und die Produktivität der Cloud-Umgebung maximieren.
II. Entwicklungsübersicht
i. Das Entwicklungsmodell „Wasserfallprozess“ schafft einerseits eine vor- und nachgelagerte Informationsentwicklung Asymmetrie hingegen verlängert den Entwicklungszyklus und erschwert die Anpassung.
ii. Die agile Entwicklung löst nur das Problem der Effizienz der Softwareentwicklung und der Geschwindigkeit der Versionsaktualisierung, das Problem des Betriebs und der Verwaltung jedoch noch nicht. Wartung und Management können effektiv miteinander verbunden werden.
iii. DevOps kann als Schnittstelle zwischen Entwicklung, technischem Betrieb und Qualitätssicherung betrachtet werden, die die Kommunikation, Zusammenarbeit und Integration zwischen ihnen fördert und dadurch den Entwicklungszyklus und die Effizienz verbessert.
iv. Cloud-native Container, Microservices und andere Technologien bieten gute Voraussetzungen für DevOps und stellen sicher, dass die IT-Softwareentwicklung wichtige Anwendungen der DevOps-Entwicklung und kontinuierlichen Bereitstellung realisiert. Mit anderen Worten: Die Fähigkeit, DevOps und Continuous Delivery zu implementieren, ist zu einem integralen Bestandteil des Werts der Cloud-nativen Technologie geworden.
v. Die tiefe Integration von Cloud-Native- und Geschäftsszenarien verleiht nicht nur neuen Impulsen für Entwicklung und Innovation in verschiedenen Branchen, sondern fördert auch die schnellere Entwicklung von Cloud-Native-Technologie und eine ausgereiftere Ökologie, was sich hauptsächlich in den folgenden Punkten widerspiegelt.
1. Aus der Perspektive des Mehrwerts, den sie für Unternehmen bringt, erfüllt die Cloud-native-Architektur die personalisierten Rechenleistungsanforderungen verschiedener Anwendungsszenarien, indem sie mehrere Rechenleistungen unterstützt. Basierend auf der kollaborativen Software- und Hardware-Architektur bietet sie Cloud-native Rechenleistung auf höchstem Niveau Leistung für Anwendungen; Erstellen Sie auf der Grundlage von Multi-Cloud-Governance und Edge-Cloud-Kollaboration eine effiziente und äußerst zuverlässige verteilte Ubiquitous-Computing-Plattform und erstellen Sie einheitliche Computing-Ressourcen in verschiedenen Formen, einschließlich Containern, Bare-Metal, virtuellen Maschinen, Funktionen usw.; Eine effiziente „anwendungszentrierte“ Plattform für Ressourcenplanung und -verwaltung bietet Unternehmen eine Ein-Klick-Bereitstellung, anwendungsorientierte intelligente Planung sowie umfassende Überwachungs-, Betriebs- und Wartungsfunktionen.
2. Durch das neueste DevSecOps-Anwendungsentwicklungsmodell wird eine agile Entwicklung von Anwendungen erreicht, die Iterationsgeschwindigkeit von Geschäftsanwendungen verbessert, eine effiziente Reaktion auf Benutzeranforderungen erreicht und die Sicherheit des gesamten Prozesses gewährleistet. Für die Service-Integration stehen zwei Modi zur Verfügung, intrusiv und nicht-intrusiv, um Upgrades der Unternehmensanwendungsarchitektur zu unterstützen. Gleichzeitig wird eine organische Zusammenarbeit zwischen neuen und alten Anwendungen ohne Unterbrechung erreicht.
3. Helfen Sie Unternehmen dabei, Daten gut zu verwalten, schnell Datenbetriebsfunktionen aufzubauen, die Vermögensakkumulation und Wertgewinnung von Daten zu realisieren und eine Reihe von KI-Technologien zu nutzen, um Unternehmensanwendungen wieder zu stärken, indem Sie die Fähigkeiten von Daten und KI kombinieren, um Unternehmen dabei zu helfen, intelligente Upgrades in ihren Unternehmen zu erreichen Unternehmen.
4. In Kombination mit den umfassenden Sicherheitsdiensten und Sicherheits-Compliance-Funktionen der Cloud-Plattform auf Unternehmensebene wird sichergestellt, dass Unternehmensanwendungen sicher in der Cloud erstellt werden und Unternehmen sicher laufen.
III. Architekturdefinition
i. Aus technischer Sicht ist die Cloud-Native-Architektur eine Sammlung von Architekturprinzipien und Entwurfsmustern, die auf Cloud-Native-Technologie basieren. Sie zielt darauf ab, die Entfernung nicht geschäftlicher Codeteile in Cloud-Anwendungen zu maximieren und es Cloud-Einrichtungen zu ermöglichen, den ursprünglichen Code zu übernehmen Eine große Anzahl nichtfunktionaler Funktionen (wie Elastizität, Belastbarkeit, Sicherheit, Beobachtbarkeit, Graustufen usw.) sorgt dafür, dass das Unternehmen nicht mehr durch nichtfunktionale Geschäftsunterbrechungen beeinträchtigt wird, und ist gleichzeitig leichtgewichtig, agil und hochgradig automatisiert.
ii. Cloud-native Technologie basiert teilweise auf dem dreischichtigen Konzept des traditionellen Cloud Computing, nämlich Infrastructure as a Service (laaS), Platform as a Service (PaaS) und Software as a Service (SaaS).
iii. Cloud-nativer Code besteht normalerweise aus drei Teilen:
1. Geschäftscode
Bezieht sich auf den Code, der die Geschäftslogik implementiert
2. Drittanbietersoftware
Es sind alle Bibliotheken von Drittanbietern, von denen der Geschäftscode abhängt, einschließlich Geschäftsbibliotheken und Grundbibliothek
3. Code, der nichtfunktionale Funktionen verarbeitet
Bezieht sich auf Code, der nichtfunktionale Funktionen wie Hochverfügbarkeit, Sicherheit und Beobachtbarkeit implementiert.
Nur der Geschäftskodex ist der Kern und bringt echten Mehrwert für das Unternehmen. Die anderen beiden Teile sind nur Beiwerk.
iv. Riesige Änderungen in der Codestruktur
In einer Cloud-Umgebung wird „Wie erhält man Speicher?“ zu einer Reihe von Diensten, darunter Objektspeicherdienste, Blockspeicherdienste und Dateispeicherdienste. Die Cloud verändert nicht nur die Schnittstelle für Entwickler, um diese Speicherfunktionen zu erhalten, sondern löst auch verschiedene Herausforderungen in verteilten Szenarien, einschließlich Herausforderungen bei hoher Verfügbarkeit, automatischer Erweiterung und Kontraktion, Sicherheitsherausforderungen, Herausforderungen bei Betriebs- und Wartungsaktualisierungen usw., was Anwendungsentwickler tun Sie müssen sich nicht mit dem Problem befassen, wie lokal gespeicherte Inhalte mit dem Remote-Ende synchronisiert werden, bevor der Knoten in ihrem Code ausfällt, und sie müssen sich auch nicht mit dem Problem befassen, wie der Speicherknoten erweitert werden kann, wenn die Geschäftsspitze erreicht ist Das Betriebs- und Wartungspersonal der Anwendung muss sich nicht mit dem Problem befassen. Wenn ein „Zeroday“-Sicherheitsproblem entdeckt wird, wird die Speichersoftware von Drittanbietern dringend aktualisiert.
v. Nicht funktionale Funktionen werden stark delegiert
i. Jede Anwendung bietet zwei Arten von Funktionen:
1. Funktionsmerkmale
Code, der dem Unternehmen wirklich einen Mehrwert bringt, z. B. die Erstellung von Kundenprofilen, die Bearbeitung von Bestellungen, Zahlungen usw. Sogar einige gängige Geschäftsfunktionsfunktionen wie Organisationsverwaltung, Geschäftswörterbuchverwaltung, Suche usw. sind eng auf die Geschäftsanforderungen abgestimmt.
2. nicht funktionale Funktionen
Funktionen, die keinen direkten Geschäftswert für das Unternehmen darstellen, aber in der Regel unerlässlich sind, wie z. B. Hochverfügbarkeit, Notfallwiederherstellung, Sicherheitsfunktionen, Bedienbarkeit, Benutzerfreundlichkeit, Testbarkeit, Graustufen-Release-Funktionen usw.
ii. Cloud-Computing-Lösungen
1. virtuelle Maschine
Wenn die virtuelle Maschine eine Anomalie in der zugrunde liegenden Hardware erkennt, unterstützt sie die Anwendung automatisch bei der Durchführung der Live-Migration. Die migrierte Anwendung muss nicht neu gestartet werden, hat aber weiterhin die Möglichkeit, externe Dienste bereitzustellen jegliches Bewusstsein für den gesamten Migrationsprozess.
2. Container
Der Container erkennt durch Überwachung und Inspektion einen abnormalen Prozessstatus und implementiert dadurch Vorgänge wie das Offlineschalten des abnormalen Knotens, das Onlineschalten neuer Knoten und das Umschalten des Produktionsverkehrs. Der gesamte Prozess wird automatisch ohne Eingreifen des Betriebs- und Wartungspersonals abgeschlossen.
3. Cloud-Dienst
Wenn die Anwendung den „zustandsbehafteten“ Teil an Cloud-Dienste (wie Cache, Datenbank, Objektspeicher usw.) übergibt und zusätzlich die Miniaturisierung globaler Objektbestände oder die Möglichkeit zur schnellen Wiederherstellung von der Festplatte bietet, ist der Cloud-Dienst selbst äußerst leistungsfähig Mit Hochverfügbarkeitsfunktionen wird die Anwendung selbst zu einer schlankeren „zustandslosen“ Anwendung, und die durch Hochverfügbarkeitsausfälle verursachten Geschäftsunterbrechungen werden auf einen Bruchteil reduziert. Bell-Ebene: Wenn es sich bei der Anwendung um ein Peer-to-Peer-Architekturmodell von N:M handelt (jeder von N Clients kann auf M Server zugreifen), können in Kombination mit Lastausgleichsprodukten starke Hochverfügbarkeitsfunktionen erzielt werden.
vi. Hochautomatisierte Softwarebereitstellung
Container verpacken Software auf standardisierte Weise, und Container und verwandte Technologien tragen dazu bei, Unterschiede zwischen verschiedenen Umgebungen abzuschirmen und so eine standardisierte Softwarebereitstellung auf Basis von Containern zu ermöglichen.
Für die automatisierte Bereitstellung ist auch ein Tool erforderlich, das verschiedene Umgebungen beschreiben kann, damit die Software die Zielumgebung, den Bereitstellungsinhalt und die Konfigurationsliste „verstehen“ und die Unterschiede in der Zielumgebung anhand des Codes identifizieren und „sich am Ende orientieren“ kann Zustand“ anhand des Lieferinhalts. Schließen Sie die Installation, Konfiguration, Bedienung und Änderungen der Software ab.
IV. Das Grundprinzip
1. Servitisierung
Wenn die Größe des Codes den Kooperationsbereich eines kleinen Teams überschreitet, ist eine serviceorientierte Aufteilung erforderlich, einschließlich der Aufteilung in Microservice-Architektur, Miniservice-Architektur (MiniService) usw. und die Trennung von Modulen mit unterschiedlichen Lebenszyklen durch den Service -orientierte Architektur Führen Sie Geschäftsiterationen separat durch, um zu vermeiden, dass häufige Iterationsmodule durch langsame Module verlangsamt werden, wodurch der Gesamtfortschritt beschleunigt und die Systemstabilität verbessert wird. Gleichzeitig basiert die serviceorientierte Architektur auf schnittstellenorientierter Programmierung und die Funktionen innerhalb des Dienstes sind in hohem Maße kohärent. Die Extraktion öffentlicher Funktionsmodule zwischen Modulen erhöht den Grad der Software-Wiederverwendung.
Strombegrenzung und -herabstufung, Leistungsschalterfächer, Graustufen, Gegendruck, Zero-Trust-Sicherheit usw. sind in einer verteilten Umgebung im Wesentlichen Kontrollstrategien, die auf dem Dienstverkehr (und nicht auf dem Netzwerkverkehr) basieren. Daher legt die Cloud-native Architektur den Schwerpunkt auf die Nutzung von Diensten -orientiert Der Zweck besteht auch darin, die Beziehung zwischen Geschäftsmodulen auf Architekturebene zu abstrahieren und die Übertragung des Dienstverkehrs zu standardisieren, um Geschäftsmodulen dabei zu helfen, Richtlinienkontrolle und Governance auf der Grundlage des Dienstverkehrs durchzuführen, unabhängig von der Sprache, in der diese Dienste entwickelt werden .
2. Elastizität
Elastizität bedeutet, dass sich der Einsatzumfang des Systems automatisch erweitern und verkleinern kann, wenn sich das Geschäftsvolumen ändert, ohne dass feste Hardware- und Softwareressourcen auf der Grundlage einer vorherigen Kapazitätsplanung vorbereitet werden müssen. Eine gute Elastizität verkürzt nicht nur die Zeit von der Beschaffung bis zur Online-Schaltung, sondern ermöglicht es Unternehmen auch, sich nicht um die Kosten zusätzlicher Software- und Hardware-Ressourcen (einschließlich Leerlaufkosten) zu kümmern, und reduziert, was noch wichtiger ist, die IT-Kosten des Unternehmens steht vor massiven Notfällen. Bei einer Expansion müssen wir nicht mehr „Nein“ sagen, weil die Reserven an vorhandenen Software- und Hardware-Ressourcen nicht ausreichen, und sichern so den Unternehmensgewinn.
3. beobachtbar
Beobachtbarkeit unterscheidet sich von den Funktionen, die Systeme wie Überwachung, Geschäftserkundung und Anwendungsleistungsüberwachung bieten (Application Performance Monitor, APM). Dies ist die aktive Nutzung von Protokollen, Linkverfolgung und Metriken in verteilten Systemen wie der Cloud Die Methode macht den Zeitverbrauch, die Rückgabewerte und Parameter mehrerer Serviceaufrufe hinter einem einzigen Klick deutlich sichtbar und kann sogar einen Drilldown zu jedem Softwareaufruf von Drittanbietern, jeder SQL-Anfrage, Knotentopologie, Netzwerkantwort usw. durchführen Machen Sie den Betrieb. Wartungs-, Entwicklungs- und Geschäftspersonal können den Betriebsstatus der Software in Echtzeit erfassen und Datenindikatoren aus mehreren Dimensionen kombinieren, um Korrelationsanalysefunktionen zu erhalten, um den Geschäftszustand und die Benutzererfahrung kontinuierlich digital zu messen und kontinuierlich zu optimieren.
4. Zähigkeit
Resilienz stellt die Fähigkeit einer Software dar, verschiedenen Anomalien in den Software- und Hardwarekomponenten, von denen die Software abhängt, standzuhalten. Zu diesen Anomalien gehören in der Regel Hardwareausfälle, Hardware-Ressourcenengpässe (z. B. Erschöpfung der CPU-/Netzwerkkartenbandbreite) und übermäßiger Geschäftsverkehr Software-Designfähigkeiten, Fehler und Katastrophen, die die Arbeit des Computerraums beeinträchtigen, Software-Schwachstellen (Bugs), Hackerangriffe und andere Faktoren, die sich fatal auf die Nichtverfügbarkeit des Unternehmens auswirken.
Resilienz erklärt die Fähigkeit der Software, weiterhin Geschäftsdienste aus mehreren Dimensionen bereitzustellen. Das Hauptziel besteht darin, die mittlere Zeit zwischen Ausfällen (MTBF) der Software zu verbessern. In Bezug auf das Architekturdesign umfasst die Ausfallsicherheit asynchrone Dienstfunktionen, Wiederholungsversuche/Strombegrenzung/Verschlechterung/Leistungsschalter/Gegendruck, Master-Slave-Modus, Cluster-Modus, hohe Verfügbarkeit innerhalb von AZ (Verfügbarkeitszonen), Unitisierung und regionsübergreifend (regional). ) Disaster Recovery, Remote Multi-Active Disaster Recovery usw.
5. Komplette Prozessautomatisierung
Einerseits wird der Softwarebereitstellungsprozess innerhalb der Organisation standardisiert, andererseits erfolgt die Automatisierung auf Basis der Standardisierung durch Konfigurationsdaten-Selbstbeschreibung und endzustandsorientierten Bereitstellungsprozess, den das Automatisierungstool versteht die Bereitstellungsziele und Umgebungsunterschiede und realisiert die gesamte Softwarebereitstellung und -bedienung.
6. Null Vertrauen
Zero Trust Security bewertet und untersucht das traditionelle Denken der Grenzsicherheitsarchitektur neu und gibt neue Vorschläge für Sicherheitsarchitekturideen. Der Kerngedanke besteht darin, dass keiner Person/einem Gerät/System innerhalb oder außerhalb des Netzwerks standardmäßig vertraut werden sollte. Die Vertrauensbasis der Zugriffskontrolle muss basierend auf Authentifizierung und Autorisierung wie IP-Adresse, Host, geografischem Standort, Netzwerk usw. wiederhergestellt werden. usw. Es kann nicht als verlässlicher Beweis verwendet werden. Zero Trust hat das Paradigma der Zugriffskontrolle untergraben und die Sicherheitsarchitektur von der „Netzwerkzentralisierung“ zur „Identitätszentralisierung“ geführt. Ihr wesentlicher Reiz ist die identitätszentrierte Zugriffskontrolle.
Das erste Kernproblem von Zero Trust ist die Identität, die verschiedenen Entitäten unterschiedliche Identitäten verleiht, um das Problem zu lösen, wer in welcher Umgebung auf eine bestimmte Ressource zugreift. In Microservice-Szenarien wie Forschung und Entwicklung, Tests sowie Betrieb und Wartung sind Identitäts- und zugehörige Richtlinien nicht nur die Grundlage der Sicherheit, sondern auch die Grundlage vieler Isolationsmechanismen (einschließlich Ressourcen, Dienste, Umgebungen usw.); Zugriff auf interne Anwendungen der Organisation, Identitäten und die damit verbundenen Richtlinien bieten sofortige Zugriffsdienste.
7. Architektur entwickelt sich weiter
Auch die Cloud-native Architektur selbst muss eine Architektur sein, die sich kontinuierlich weiterentwickeln kann, und keine geschlossene Architektur. Zusätzlich zu Faktoren wie inkrementeller Iteration und Zielauswahl müssen auch die Architektur-Governance und die Risikokontrolle auf Organisationsebene (z. B. Architekturkontrollausschuss) berücksichtigt werden, insbesondere die ausgewogene Beziehung zwischen Architektur, Geschäft und Implementierung in diesem Fall der Hochgeschwindigkeits-Business-Iteration. Bei der Cloud-nativen Architektur ist es relativ einfach, die Architekturkontrollstrategie für neue Anwendungen auszuwählen (in der Regel werden die Dimensionen Elastizität, Agilität und Kosten ausgewählt). Für die Migration bestehender Anwendungen auf die Cloud-native Architektur müssen jedoch die Kosten für die Migration älterer Anwendungen berücksichtigt werden Architektur berücksichtigt werden. /Risiko und Migrationskosten/Risiko in die Cloud sowie technisch fein abgestimmte Steuerung von Anwendungen und Datenverkehr durch Microservices/Anwendungsgateways, Anwendungsintegration, Adapter, Service Mesh, Datenmigration, Online-Graustufen usw.
V. Gemeinsame Architekturmuster
1. Serviceorientierte Architektur
Serviceorientierte Architektur ist ein Standardarchitekturmodell für die Erstellung cloudnativer Anwendungen im neuen Zeitalter. Sie erfordert die Aufteilung einer Software in Anwendungsmodule, die Definition gegenseitiger Geschäftsbeziehungen mit Schnittstellenverträgen (z. B. IDL) und die Sicherstellung gegenseitigen Vertrauens mit Standards Protokolle (HTTP, gRPC usw.) Interoperabilität in Kombination mit Domain Driven Design (DDD), Test Driven Development (TDD) und containerisierter Bereitstellung verbessern die Codequalität und Iterationsgeschwindigkeit jeder Schnittstelle.
Typische Muster einer serviceorientierten Architektur sind Microservices und Small-Service-Muster, wobei kleine Services als Kombination einer Gruppe sehr eng verbundener Services betrachtet werden können, die Daten gemeinsam nutzen. Das Small-Service-Modell eignet sich normalerweise für sehr große Softwaresysteme, um übermäßige Anrufverluste (insbesondere Anrufe zwischen Diensten und Datenkonsistenzverarbeitung) und Governance-Komplexität aufgrund einer zu feinen Granularität der Schnittstelle zu vermeiden.
2. Mesh-Architektur
Die Mesh-Architektur (Grid) besteht darin, das Middleware-Framework (wie RPC, Cache, asynchrone Nachrichten usw.) vom Geschäftsprozess zu trennen, sodass das Middleware-Softwareentwicklungskit (Software Development Kit, SDK) weiter vom Geschäftscode entkoppelt ist Dadurch haben Middleware-Upgrades keine Auswirkungen auf Geschäftsprozesse und selbst die Migration von Middleware auf eine andere Plattform ist für das Unternehmen transparent.
Nach der Trennung bleibt nur ein sehr „dünner“ Client-Teil im Geschäftsprozess erhalten. Der Client ändert sich normalerweise nur selten und ist nur für die Kommunikation mit dem Mesh-Prozess verantwortlich. Die Flusskontrolle, Sicherheit und andere Logik, die ursprünglich verarbeitet werden musste SDK werden durch den Mesh-Prozess vervollständigt.
Nach der Implementierung der Mesh-Architektur wird eine große Anzahl verteilter Architekturmodi (z. B. Leistungsschalter, Strombegrenzung, Downgrade, Wiederholung, Gegendruck, Isolierung usw.) durch den Mesh-Prozess abgeschlossen, auch wenn diese Softwarepakete von Drittanbietern stammen werden nicht in den Business-Code-Produkten verwendet. Gleichzeitig erhalten Sie eine bessere Sicherheit (z. B. Zero-Trust-Architekturfunktionen usw.), dynamische Umgebungsisolierung basierend auf Datenverkehr, Rauch-/Regressionstests basierend auf Datenverkehr usw.
3. Serverlos
Serverlos (serverlos) „nimmt“ die Aktion „Bereitstellung“ aus Betrieb und Wartung weg, sodass sich Entwickler nicht um den Anwendungsbetrieb kümmern müssen. Ausführungsort, Betriebssystem, Netzwerkkonfiguration, CPU-Leistung usw.
Serverlos ist für keinen Anwendungstyp geeignet, daher müssen Entscheidungsträger in der Architektur darauf achten, ob der Anwendungstyp für geeignet ist Serverloses Computing. Wenn die Anwendung zustandsbehaftet ist, hilft die serverlose Planung der Anwendung nicht bei der Statussynchronisierung, sodass die Cloud bei der Planung zu Kontextverlusten führen kann. Wenn es sich bei der Anwendung um eine intensive Rechenaufgabe handelt, die über einen längeren Zeitraum im Hintergrund ausgeführt wird, werden die Vorteile von serverlos genutzt nicht verwendet werden; Wenn die Anwendung häufige externe E/A-Vorgänge (einschließlich Netzwerk- oder Speichervorgänge sowie Aufrufe zwischen Diensten usw.) erfordert, ist sie aufgrund der hohen E/A-Belastung und der hohen Latenz nicht geeignet. Serverless eignet sich sehr gut für ereignisgesteuerte Datenverarbeitungsaufgaben, Anforderungs-/Antwortanwendungen mit kurzer Rechenzeit und langzyklische Aufgaben ohne komplexe gegenseitige Aufrufe.
4. Trennung von Speicher und Rechenleistung
Die Schwierigkeit von CAP (Konsistenz: Verfügbarkeit: Partitionstoleranz) in einer verteilten Umgebung liegt hauptsächlich bei zustandsbehafteten Anwendungen, da zustandslose Anwendungen nicht über die Dimension C (Konsistenz) verfügen und daher gute Ergebnisse von A (Verfügbarkeit) und P () erzielen können. Partitionstoleranz), wodurch eine bessere Ausfallsicherheit erreicht wird. In einer Cloud-Umgebung wird empfohlen, Cloud-Dienste zu nutzen, um alle Arten von transienten Daten (z. B. Sitzungen) sowie strukturierte und unstrukturierte persistente Daten zu speichern und so eine Trennung von Speicherung und Datenverarbeitung zu erreichen. Es gibt jedoch immer noch einige Zustände, die zu einer erheblichen Verringerung der Transaktionsleistung führen. Beispielsweise sind die Transaktionssitzungsdaten zu groß und müssen zu diesem Zeitpunkt ständig neu erfasst werden Sie können die Verwendung von Zeitprotokoll-Snapshots (oder Prüfpunkten) in Betracht ziehen. Diese Methode ermöglicht eine schnelle und inkrementelle Wiederherstellung des Dienstes nach dem Neustart und reduziert die Auswirkungen der Nichtverfügbarkeit auf das Unternehmen.
5. Verteilte Transaktionen
Es wird der traditionelle XA-Modus (eXtended Architecture) verwendet, der eine hohe Konsistenz, aber eine schlechte Leistung aufweist.
Die nachrichtenbasierte Eventualkonsistenz weist im Allgemeinen eine hohe Leistung, aber eine begrenzte Allgemeingültigkeit auf.
Der TCC-Modus (Try-Confirm-Cancel) steuert Transaktionen vollständig durch die Anwendungsschicht, und die Transaktionsisolation ist kontrollierbar und kann relativ effizient sein. Sie ist jedoch sehr aufwendig für das Unternehmen und die Kosten für Design, Entwicklung und Wartung sind hoch sehr hoch.
Der SAGA-Modus (bezieht sich auf den Fehlermanagementmodus, der die Einrichtung konsistenter verteilter Anwendungen ermöglicht) hat ähnliche Vor- und Nachteile wie der TCC-Modus, verfügt jedoch nicht über die Try-Phase. Stattdessen entspricht jede Vorwärtstransaktion einer Kompensationstransaktion, die auch ausgeführt wird Entwicklungs- und Wartungskosten hoch.
Der AT-Modus des Open-Source-Projekts SEATA ist sehr leistungsstark, erfordert keinen Code-Entwicklungsaufwand und kann automatisch Rollback-Vorgänge durchführen. Außerdem gelten einige Einschränkungen für Nutzungsszenarien.
6. beobachtbar
Die beobachtbare Architektur umfasst drei Aspekte: Protokollierung, Ablaufverfolgung und Metriken. Die Protokollierung bietet eine detaillierte Informationsverfolgung auf mehreren Ebenen (ausführlich/Debug/Warnung/Fehler/schwerwiegend), die proaktiv von Anwendungsentwicklern bereitgestellt wird Das vollständige Back-End-Tracking ist besonders nützlich für verteilte Szenarien. Metriken bieten mehrdimensionale Messungen der Systemquantifizierung.
Entscheidungsträger in der Architektur müssen geeignete Open-Source-Frameworks auswählen, die Beobachtbarkeit unterstützen (z. B. Open Tracing, Open Telemetry usw.), und kontextbezogene beobachtbare Datenspezifikationen standardisieren (z. B. Methodennamen, Benutzerinformationen, geografischer Standort, Anforderungsparameter usw.). ) und planen Sie, in welchen Diensten und technischen Komponenten die beobachtbaren Daten verteilt werden. Verwenden Sie spanid/traceid in Protokollen und Tracing-Informationen, um sicherzustellen, dass bei der Durchführung verteilter Linkanalysen genügend Informationen für eine schnelle Korrelationsanalyse vorhanden sind.
Da das Hauptziel der Etablierung der Beobachtbarkeit darin besteht, das Service-SLO (Service Level Objective) zu messen und dadurch das SLA (Service Level Agreement) zu optimieren, muss das Architekturdesign klare SLOs für jede Komponente definieren, einschließlich Parallelität, Zeitverbrauch, verfügbare Zeit, Kapazität usw.
7. ereignisgesteuert
Event Driven Architecture (EDA) ist im Wesentlichen ein integriertes Architekturmuster zwischen Anwendungen/Komponenten. Ereignisse unterscheiden sich von herkömmlichen Nachrichten, sodass die Gültigkeit des Ereignisses überprüft werden kann. Gleichzeitig verfügt EDA über einen QoS-Garantiemechanismus und kann auch auf Fehler bei der Ereignisverarbeitung reagieren.
Die ereignisgesteuerte Architektur wird nicht nur zur Entkopplung von (Mikro-)Diensten verwendet, sondern kann auch auf die folgenden Szenarien angewendet werden.
1||| Verbessern Sie die Service-Resilienz
Da Dienste asynchron integriert werden, werden etwaige Verarbeitungsfehler oder sogar Ausfallzeiten im Downstream vom Upstream nicht wahrgenommen und haben natürlich keine Auswirkungen auf den Upstream.
2||| CQRS (Command Query Responsibility Segregation, Befehlsabfrage-Verantwortungstrennung)
Befehle, die Auswirkungen auf den Dienststatus haben, werden mithilfe von Ereignissen initiiert, während Abfragen, die keinen Einfluss auf den Dienststatus haben, die API-Schnittstelle verwenden, die in Kombination mit dem Event-Sourcing-Mechanismus in EDA zur Wahrung der Konsistenz verwendet werden kann von Datenänderungen und wenn eine Rekonstruktion erforderlich ist. Spielen Sie im Servicestatus die Ereignisse einfach erneut in EDA ab.
3||| Benachrichtigung über Datenänderungen
Wenn sich im Rahmen der Dienstarchitektur Daten in einem Dienst ändern, sind beispielsweise nach Abschluss einer Benutzerbestellung Punktedienste, Kreditdienste usw. über Ereignisse informiert und Benutzerpunkte und Kreditniveaus müssen aktualisiert werden .
4||| Bauen Sie offene Schnittstellen auf
Unter EDA muss sich der Ereignisanbieter im Gegensatz zu Serviceaufrufen nicht um die Abonnenten kümmern – der Datenproduzent muss wissen, wo sich der Datenkonsument befindet, und ihn anrufen, um so die Offenheit der Schnittstelle aufrechtzuerhalten.
5||| Ereignisstromverarbeitung
Eine typische Anwendung ist die auf Kafka basierende Protokollverarbeitung, die auf Datenanalyseszenarien einer großen Anzahl von Ereignisströmen (anstelle einzelner Ereignisse) angewendet wird.
6||| Durch Ereignisse ausgelöste Antworten
Im IoT-Zeitalter müssen Daten, die von einer großen Anzahl von Sensoren generiert werden, nicht auf die Rückgabe von Verarbeitungsergebnissen wie bei der Mensch-Computer-Interaktion warten. Es ist natürlich geeignet, EDA zum Erstellen von Datenverarbeitungsanwendungen zu verwenden.
VI. Cloud-nativer Fall
i. Als eines der am schnellsten wachsenden Logistikunternehmen hat ein Expressversandunternehmen aktiv nach Möglichkeiten gesucht, das Geschäftswachstum durch technologische Innovationen zu fördern, um Kosten zu senken und die Effizienz zu verbessern. Derzeit hat das Unternehmen ein tägliches Auftragsabwicklungsvolumen von mehreren zehn Millionen und ein Logistikvolumen von Hunderten Millionen erreicht. Die täglich generierten Daten haben das TB-Niveau erreicht und es nutzt 1.300 Rechenknoten, um Geschäfte in Echtzeit abzuwickeln . In der Vergangenheit wurden die Kerngeschäftsanwendungen des Unternehmens im IDC-Computerraum ausgeführt. Das ursprüngliche IDC-System half dem Unternehmen, die frühe Phase der schnellen Geschäftsentwicklung stabil zu überstehen. Mit dem exponentiellen Wachstum des Geschäftsvolumens wurden die Geschäftsformen jedoch zunehmend diversifiziert. Das ursprüngliche System wies viele Probleme auf: Die traditionelle IOE-Architektur, Unregelmäßigkeiten in jeder Systemarchitektur, Stabilität und F&E-Effizienz schränkten die Möglichkeit einer schnellen Geschäftsentwicklung ein. Der Softwarebereitstellungszyklus ist zu lang, besondere Ressourcenanforderungen für groß angelegte Werbeaktionen sind schwer zu erreichen und die Systemstabilität lässt sich nur schwer garantieren. Geschäftsprobleme wie diese werden nach und nach aufgedeckt. Nach mehreren Nachfragekommunikationen und technischen Überprüfungen mit einem Cloud-Dienstanbieter entschied sich das Unternehmen schließlich für die Cloud-native Technologie und Architektur, um sein Kerngeschäft in die Cloud zu verlagern.
ii. Lösung
1. Einführung einer cloudnativen Datenbank
Durch die Einführung von OLTP- und OLAP-Datenbanken werden Online-Daten und Offline-Analyselogik in zwei Datenbanken aufgeteilt, wodurch sich der bisherige Status Quo, der ausschließlich auf Oracle-Datenbanken basiert, ändert. Erfüllen Sie die Mängel der tatsächlichen Geschäftsanforderungen, die von der Oracle-Datenbank im Szenario der Verarbeitung historischer Datenabfragen unterstützt werden.
2. Anwendungscontainerisierung
Mit der Einführung der Containerisierungstechnologie wurde das Problem inkonsistenter Umgebungen durch Anwendungscontainerisierung effektiv gelöst und die Konsistenz von Anwendungen in Entwicklungs-, Test- und Produktionsumgebungen sichergestellt. Im Vergleich zu virtuellen Maschinen bietet die Containerisierung eine doppelte Verbesserung der Effizienz und Geschwindigkeit, wodurch Anwendungen besser für Microservice-Szenarien geeignet sind und die Produktions- und Forschungseffizienz effektiv verbessert wird.
3. Microservice-Transformation
Da viele Geschäfte in der Vergangenheit auf der Grundlage der gespeicherten Prozeduren und Trigger von Oracle abgewickelt wurden, erforderten die Serviceabhängigkeiten zwischen Systemen auch die gleichzeitige Fertigstellung der Oracle-Datenbank OGG (Oracle Golden Gate). Das Problem besteht darin, dass die Systemwartung schwierig und die Stabilität schlecht ist. Durch die Einführung von Kubernetes Service Discovery können wir eine Microservice-Lösung aufbauen und das Unternehmen nach Geschäftsdomänen aufteilen, wodurch die Wartung des gesamten Systems einfacher wird.
iii. Struktur etabliert
Unter Berücksichtigung der tatsächlichen Geschäftsanforderungen und technischen Merkmale eines bestimmten Expresszustellunternehmens ist die vom Unternehmen festgelegte Cloud-Architektur in Abbildung 4-3 dargestellt.
(1) Infrastruktur
Alle Rechenressourcen werden von Bare-Metal-Servern eines Cloud-Dienstanbieters bezogen. Im Vergleich zu allgemeinen Cloud-Servern (ECS) kann Kubermetes in Kombination mit Servern eine bessere Leistung und eine angemessenere Ressourcennutzung erzielen. Darüber hinaus können Cloud-Ressourcen bei Bedarf bezogen werden, was für ein Unternehmen mit kurzfristig stark frequentierten Geschäftsszenarien wie Werbeaktivitäten äußerst wichtig ist. Im Vergleich zu offline selbst gebauten Computerräumen und Standmaschinen stehen Cloud-Ressourcen problemlos zur Nutzung zur Verfügung. Nach Abschluss der Werbeveranstaltung können Cloud-Ressourcen nach der Nutzung freigegeben werden, was die Verwaltungs- und Beschaffungskosten senkt.
(2) Verkehrsanbindung
Cloud-Dienstanbieter bieten zwei Arten von Verkehrszugriff: einen für öffentliche Netzwerkanfragen und einen für interne Dienstaufrufe. Bei der Domänennamenauflösung werden Cloud-DNS und PrivateZone verwendet. Nutzen Sie die Ingress-Funktion von Kubernetes, um eine einheitliche Domänennamenweiterleitung zu erreichen, die Anzahl der SLBs im öffentlichen Netzwerk einzusparen und die Effizienz des Betriebs- und Wartungsmanagements zu verbessern.
(3) Plattformschicht
Die auf Kubernetes basierende Cloud-native PaaS-Plattform bietet offensichtliche Vorteile, darunter:
1||| Öffnen Sie den geschlossenen DevOps-Kreislauf und vereinheitlichen Sie Test-, Integrations-, Vorabversions- und Produktionsumgebungen.
2||| Isolierung natürlicher Ressourcen und hohe Auslastung der Maschinenressourcen;
3||| Der Zugriff auf den Datenverkehr ermöglicht eine verfeinerte Verwaltung.
4||| Integrierte Protokolle, Linkdiagnose und Metrikplattform;
5||| Vereinheitlichen Sie API-Server-Schnittstellen und -Erweiterungen, um die Bereitstellung in mehreren Clouds und Hybrid-Clouds zu unterstützen.
(4) Anwendungsdienstschicht
Jede Anwendung erstellt einen separaten Namespace auf Kubernetes, und zwischen Anwendungen wird eine Ressourcenisolation erreicht. Durch Definieren der Konfigurations-YAML-Vorlage jeder Anwendung kann die Image-Version bei der Bereitstellung direkt bearbeitet werden, um das Versions-Upgrade schnell abzuschließen. Wenn ein Rollback erforderlich ist, kann die historische Version des Images direkt lokal gestartet werden, um ein schnelles Rollback durchzuführen .
(5) Betriebs- und Wartungsmanagement
Der Online-Kubernetes-Cluster nutzt die vom Cloud-Dienstanbieter gehostete Version des Containerdienstes, wodurch der Betrieb und die Wartung des Master-Knotens entfallen. Sie müssen nur die Online- und Offline-Prozesse für den Worker-Knoten formulieren. Gleichzeitig führen Geschäftssysteme die Suche nach Geschäftsprotokollen über die PaaS-Plattform von Alibaba Cloud durch und übermitteln Erweiterungsaufgaben entsprechend den Geschäftsanforderungen. Das System schließt den Erweiterungsvorgang automatisch ab und verringert so die Geschäftsrisiken, die durch den direkten Betrieb von Kubernetes-Clustern entstehen.
iv. Anwendungsvorteile
1. kosten
Alle Cloud-Produkte werden ohne Betrieb und Wartung selbst in der Cloud gehostet, wodurch manuelle Betriebs- und Wartungskosten effektiv eingespart werden und Unternehmen sich mehr auf ihr Kerngeschäft konzentrieren können.
2. Stabilität
Cloud-Produkte stellen mindestens fünf 9 (99,999 %) SLA-Dienste zur Gewährleistung der Systemstabilität bereit, während die Stabilität selbst erstellter Systeme viel höher ist. Im Hinblick auf die Datensicherheit können Daten in der Cloud problemlos extern gesichert werden. Die Archivspeicherprodukte im Rahmen des Datenspeichersystems des Cloud-Dienstanbieters zeichnen sich durch hohe Zuverlässigkeit, niedrige Kosten, Sicherheit und unbegrenzten Speicherplatz aus und machen so Unternehmensdaten möglich sicherer.
3. Effizienz
Durch die tiefe Integration mit Cloud-Produkten kann das F&E-Personal F&E-, Betriebs- und Wartungsarbeiten aus einer Hand durchführen. Von der Festlegung der Geschäftsanforderungen über die Pull-Branch-Entwicklung, die Funktionsregressionsüberprüfung der Testumgebung und schließlich die Bereitstellung bis hin zur Vorabverifizierung und online kann der gesamte kontinuierliche Integrationsprozess auf wenige Minuten verkürzt werden. Im Hinblick auf die Fehlerbehebung wählt das Forschungs- und Entwicklungspersonal direkt die Anwendung aus, für die es verantwortlich ist, und ruft über die integrierte SLS-Protokollkonsole schnell die Ausnahmeprotokolle des Programms ab, um das Problem zu lokalisieren. Dadurch entfällt die Notwendigkeit, sich am Computer anzumelden, um die Protokolle zu überprüfen.
4. Unternehmen stärken
Cloud-Service-Anbieter stellen mehr als 300 Arten von Cloud-Komponenten bereit, die Computing, KI, Big Data und IoT abdecken und viele andere Bereiche. Das F&E-Personal kann es sofort nutzen und so die durch Geschäftsinnovationen verursachten technischen Kosten effektiv einsparen.