Galleria mappe mentale Ingegnere di gestione dei progetti di integrazione di sistemi 3a edizioneSoft Test SuccessCapitolo 2 Sviluppo della tecnologia dell'informazione
System Integration Project Management Engineer 3a edizione/Soft Test Midterm/Capitolo 2 Sviluppo della tecnologia dell'informazione La tecnologia dell'informazione è il termine generale per la tecnologia applicativa di acquisizione di informazioni, elaborazione di informazioni, trasmissione di informazioni e utilizzo di informazioni in base ai principi e ai metodi di base dell'informazione. scienza.
Modificato alle 2024-03-14 10:17:07Microbiologia medica, Infezioni batteriche e immunità riassume e organizza i punti di conoscenza per aiutare gli studenti a comprendere e ricordare. Studia in modo più efficiente!
La teoria cinetica dei gas rivela la natura microscopica dei fenomeni termici macroscopici e le leggi dei gas trovando la relazione tra quantità macroscopiche e quantità microscopiche. Dal punto di vista del movimento molecolare, vengono utilizzati metodi statistici per studiare le proprietà macroscopiche e modificare i modelli di movimento termico delle molecole di gas.
Este é um mapa mental sobre uma breve história do tempo. "Uma Breve História do Tempo" é um trabalho científico popular com influência de longo alcance. Ele não apenas introduz os conceitos básicos da cosmologia e da relatividade, mas também discute os buracos negros e a expansão. Do universo. questões científicas de ponta, como inflação e teoria das cordas.
Microbiologia medica, Infezioni batteriche e immunità riassume e organizza i punti di conoscenza per aiutare gli studenti a comprendere e ricordare. Studia in modo più efficiente!
La teoria cinetica dei gas rivela la natura microscopica dei fenomeni termici macroscopici e le leggi dei gas trovando la relazione tra quantità macroscopiche e quantità microscopiche. Dal punto di vista del movimento molecolare, vengono utilizzati metodi statistici per studiare le proprietà macroscopiche e modificare i modelli di movimento termico delle molecole di gas.
Este é um mapa mental sobre uma breve história do tempo. "Uma Breve História do Tempo" é um trabalho científico popular com influência de longo alcance. Ele não apenas introduz os conceitos básicos da cosmologia e da relatividade, mas também discute os buracos negros e a expansão. Do universo. questões científicas de ponta, como inflação e teoria das cordas.
Sviluppo della tecnologia dell'informazione
一、 riepilogo
La tecnologia dell'informazione è un termine generale per le tecnologie applicate che acquisiscono informazioni, elaborano informazioni, trasmettono informazioni e utilizzano informazioni secondo i principi e i metodi di base della scienza dell'informazione.
La tecnologia dell'informazione è un mezzo per raggiungere l'informatizzazione e la base per la costruzione di sistemi informativi.
La nuova generazione della tecnologia dell’informazione è diventata un settore strategico in cui i paesi di tutto il mondo investono e si concentrano sullo sviluppo.
二、 L'informatica e il suo sviluppo
i. riepilogo
La tecnologia dell'informazione è formata dalla combinazione della tecnologia informatica e della tecnologia delle telecomunicazioni basata sulla microelettronica. Acquisisce, elabora, elabora, memorizza e memorizza informazioni su suoni, immagini, testo, segnali digitali e vari sensori.
A seconda delle diverse forme di espressione, la tecnologia dell'informazione può essere suddivisa in tecnologia hard (tecnologia materializzata) e tecnologia soft (tecnologia non materializzata). Il primo si riferisce a diverse apparecchiature informatiche e alle loro funzioni, come sensori, server, smartphone, satelliti di comunicazione e laptop. Quest'ultimo si riferisce a varie conoscenze, metodi e abilità relative all'acquisizione e all'elaborazione delle informazioni, come la tecnologia del linguaggio e della scrittura, la tecnologia di analisi statistica dei dati, la tecnologia di pianificazione e processo decisionale, la tecnologia del software informatico, ecc.
ii. Hardware e software per computer
1. Computer hardware
(1) Si riferisce al termine generale per vari dispositivi fisici composti da componenti elettronici, meccanici e optoelettronici in un sistema informatico. Questi dispositivi fisici formano un insieme organico secondo i requisiti della struttura del sistema e forniscono una base materiale per il funzionamento del software informatico.
(2) Principalmente suddivisi in: formula: attrezzature di accesso per lo stoccaggio del trasporto aereo
1||| controllore
Controller: emette informazioni di controllo secondo comandi preimpostati, in modo che l'intero processo di esecuzione delle istruzioni del computer proceda passo dopo passo. È il centro nevralgico del computer. La sua funzione è interpretare le informazioni di controllo specificate dal programma e controllarle di conseguenza alle sue esigenze e pianificare il programma, i dati e gli indirizzi, coordinare il lavoro di varie parti del computer e accedere alla memoria e alle periferiche, ecc.
La funzione principale: Recuperare un'istruzione dalla memoria e indicare la posizione dell'istruzione successiva nella memoria, decodificare o testare l'istruzione e generare segnali di controllo operativo corrispondenti per avviare azioni specifiche, comandare e controllare la CPU, la memoria e l'input/output. La direzione dei dati flusso tra i dispositivi.
2||| operatore
La funzione dell'unità aritmetica è eseguire varie operazioni aritmetiche e operazioni logiche sui dati, ovvero elaborare i dati.
Le operazioni di base dell'unità aritmetica includono le quattro operazioni aritmetiche di addizione, sottrazione, moltiplicazione e divisione, operazioni logiche come AND, OR, NOT e XOR, nonché operazioni come spostamenti, confronti e trasmissioni detta anche Unità Aritmetico Logica (ALU). Quando il computer è in funzione, il funzionamento e il tipo di operazione dell'unità aritmetica sono determinati dal controller. L'unità aritmetica accetta i comandi del controller ed esegue le azioni. Cioè, tutte le operazioni eseguite dall'unità aritmetica sono dirette dal segnali di controllo inviati dal controller.
3||| memoria
La funzione della memoria è quella di archiviare programmi, dati, segnali vari, comandi e altre informazioni e di fornire queste informazioni quando necessario. La memoria è divisa in memoria interna al computer (detta memoria) e memoria esterna al computer (detta memoria esterna). La memoria interna può essere funzionalmente divisa in due categorie: memoria di lettura-scrittura RAM e memoria di sola lettura ROM.
La capacità di archiviazione del computer è misurata in byte, che sono: byte B (1Byte=8bit), kilobyte (1KB=1024B), megabyte (1MB=1024KB), gigabyte (1GB=1024MB), sezione terabyte (1TB = 1024GB).
Le memorie esterne del computer comprendono generalmente: floppy disk e unità floppy, dischi rigidi, dischi ottici, ecc., nonché dischi rigidi mobili basati su interfaccia USB, dischi rigidi elettronici riscrivibili, unità flash USB, ecc.
4||| dispositivo di input
I dispositivi di input sono una parte importante del computer. I dispositivi di input e i dispositivi di output sono collettivamente chiamati dispositivi esterni, indicati come periferiche. La funzione del dispositivo di input è quella di inserire informazioni come programmi, dati originali, testo, caratteri, comandi di controllo o dati raccolti sul sito nel computer.
I dispositivi di input comunemente utilizzati includono tastiere, mouse, microfoni, fotocamere, scanner, scanner di codici, blocchi per la scrittura, touch screen, ecc.
5||| Dispositivo di uscita
Anche il dispositivo di output è una parte importante del computer. Fornisce i risultati intermedi o i risultati finali del computer esterno, vari simboli di dati e testo nel computer o vari segnali di controllo e altre informazioni.
I dispositivi di output comunemente utilizzati includono: monitor, stampanti, stampanti laser, plotter, ecc.
2. Software per il computer
(1) Si riferisce al programma e alla sua documentazione nel sistema informatico. Il programma è la descrizione dell'oggetto di elaborazione e delle regole di elaborazione dell'attività di calcolo; la documentazione è i dati esplicativi per facilitare la comprensione del programma.
(2) Se un computer viene paragonato a una persona, l'hardware rappresenta il corpo umano, mentre il software rappresenta la mente e l'anima umana. Un computer senza alcun software installato è chiamato "bare metal".
(3) diviso in
1||| software di sistema
Il software di sistema si riferisce a un sistema che controlla e coordina computer e dispositivi esterni e supporta lo sviluppo e il funzionamento del software applicativo. Si tratta di una raccolta di vari programmi che non richiedono l'intervento dell'utente sistemi; è responsabile della gestione di vari aspetti dei sistemi informatici. L'hardware indipendente consente loro di lavorare in armonia. Il software di sistema consente agli utenti del computer e ad altri software di gestire il computer nel suo complesso senza dover considerare il funzionamento dell'hardware sottostante.
2||| applicazione
Il software applicativo è una raccolta di vari linguaggi di programmazione che gli utenti possono utilizzare e programmi applicativi compilati in vari linguaggi di programmazione. È suddiviso in pacchetti software e programmi utente.
Un pacchetto software applicativo è una raccolta di programmi progettati per utilizzare i computer per risolvere determinati tipi di problemi, principalmente ad uso degli utenti. Il software applicativo è un software fornito per soddisfare le esigenze applicative degli utenti in diversi campi e problemi.
3||| middleware
Il middleware è un software che si trova tra il sistema operativo e le applicazioni. Utilizza i servizi (funzioni) di base forniti dal software di sistema per connettere varie parti del sistema applicativo o diverse applicazioni sulla rete e può raggiungere lo scopo di condivisione delle risorse e delle funzioni. Il middleware è un servizio comune situato tra la piattaforma (hardware e sistema operativo) e l'applicazione. Questi servizi dispongono di interfacce e protocolli di programma standard. Per diversi sistemi operativi e piattaforme hardware, non importa come vengono aggiornati l'hardware del computer sottostante e il software di sistema, finché il middleware viene aggiornato e la definizione dell'interfaccia esterna del middleware rimane invariata, il software applicativo difficilmente necessita di modifiche, quindi assicurati che funzionamento continuo e stabile del software applicativo.
3. Hardware e software sono interdipendenti. L'hardware è la base materiale su cui funziona il software e il normale funzionamento del software è un modo importante per il funzionamento dell'hardware. Con lo sviluppo della tecnologia informatica, in molti casi, alcune funzioni del computer possono essere implementate tramite hardware o software. Pertanto, in un certo senso, non esiste un confine assolutamente rigido tra hardware e software.
iii. rete di computer
1. Nel campo informatico, una rete utilizza collegamenti fisici per connettere workstation o host isolati per formare un collegamento dati, raggiungendo così lo scopo di condivisione e comunicazione delle risorse. I computer collegano più sistemi informatici con diverse posizioni geografiche e funzioni indipendenti attraverso apparecchiature e linee di comunicazione e si combinano con il software di rete (protocolli di rete, metodi di scambio di informazioni, sistemi operativi di rete, ecc.) per realizzare la condivisione di diverse risorse informatiche.
2. basi della comunicazione
La comunicazione si riferisce allo scambio e alla trasmissione di informazioni tra persone e tra persone e natura attraverso determinati comportamenti o media. La comunicazione elettrica (ottica) si riferisce al processo di trasmissione e scambio di informazioni da un luogo a un altro. Lo scopo della comunicazione è fornire le informazioni contenute nel messaggio. I messaggi continui si riferiscono a messaggi il cui stato cambia continuamente nel tempo, come ad esempio la voce. I messaggi discreti si riferiscono a messaggi il cui stato è discreto, come simboli, dati, ecc.
Sistemi e modelli di comunicazione
Un sistema di comunicazione è composto da tre parti: sistema di origine (mittente o mittente), sistema di trasmissione (rete di trasmissione) e sistema di destinazione (destinatario o ricevitore).
Tecnologie chiave per le comunicazioni moderne
(1) In generale, la tecnologia della comunicazione è in realtà tecnologie correlate dei sistemi di comunicazione e delle reti di comunicazione. Un sistema di comunicazione si riferisce a tutte le strutture necessarie per la comunicazione punto a punto, mentre una rete di comunicazione è l'insieme di strutture che possono comunicare tra loro tra più punti composti da molti sistemi di comunicazione.
(2) Includere
1||| tecnologia della comunicazione digitale
È un metodo di comunicazione che utilizza segnali digitali come portante per trasmettere informazioni o utilizza segnali digitali per eseguire il debug digitale dell'onda portante prima di trasmetterla. Può trasmettere segnali digitali come telegrammi e dati digitali, nonché segnali analogici come voce e immagini digitalizzate.
2||| tecnologia di trasmissione delle informazioni
È un termine generale utilizzato principalmente per varie tecnologie utilizzate per gestire ed elaborare le informazioni. Applica principalmente l'informatica e la tecnologia della comunicazione per progettare, sviluppare, installare e implementare sistemi informativi e software applicativi; è spesso chiamata anche tecnologia dell'informazione e della comunicazione.
3||| Tecnologia delle reti di comunicazione
Connetti fisicamente dispositivi isolati per realizzare collegamenti per lo scambio di informazioni tra persone, persone e computer e computer per raggiungere lo scopo di condivisione e comunicazione delle risorse.
3. Nozioni di base sulla rete
(1) Classificazione per ambito di rete
1||| Rete personale (PersonalAreaNetwork,PAN)
Una rete ad hoc che collega dispositivi elettronici personali (come computer portatili, ecc.) utilizzando la tecnologia wireless sul posto di lavoro di una persona, per questo viene spesso chiamata rete personale wireless WPAN (Wireless PAN). Dal punto di vista della rete di computer, PAN è una rete locale e la sua portata è solitamente di circa 10 metri.
2||| Rete locale (LAN)
Di solito si riferisce all'utilizzo di microcomputer o workstation collegati tramite linee di comunicazione ad alta velocità (la velocità è solitamente superiore a 10 Mb/s) e la sua portata geografica è solitamente di circa 1 km. Di solito copre un campus, un'unità, un edificio, ecc.
3||| Rete metropolitana (MAN)
Il raggio d'azione può estendersi su diversi isolati o addirittura sull'intera città, ed è di circa 5-50 km.
4||| Rete geografica (WAN)
Gli switch di nodo vengono utilizzati per connettere ciascun host e i collegamenti di connessione tra gli switch di nodo sono generalmente collegamenti ad alta velocità con grande capacità di comunicazione. La portata di una rete geografica è solitamente di decine o migliaia di chilometri e può trasmettere dati su lunghe distanze attraverso un paese o un continente.
(2) Classificazione dal punto di vista degli utenti della rete
1||| Rete pubblica
Si riferisce a una rete su larga scala finanziata e costruita da società di telecomunicazioni per fornire servizi al pubblico, nota anche come rete pubblica.
2||| Rete privata
Si riferisce alla rete costruita da un determinato dipartimento per soddisfare il lavoro aziendale speciale dell'unità. Questa rete non fornisce servizi a persone esterne all'unità. Ad esempio, l'energia elettrica, l'esercito, le ferrovie, le banche, ecc. hanno tutte reti dedicate questo sistema.
4. Apparecchiature Internet
(1) La trasmissione di informazioni in rete comprende principalmente la tecnologia Ethernet e la tecnologia di commutazione di rete. La commutazione di rete si riferisce a una forma di commutazione che utilizza determinate apparecchiature (come interruttori, ecc.) per convertire segnali o forme di segnale diversi in tipi di segnali che possono essere riconosciuti dall'altra parte per raggiungere scopi di comunicazione. Quelli comuni includono la commutazione di dati, linea commutazione e commutazione di messaggi e commutazione di pacchetto.
(2) Nelle reti di computer, la commutazione di rete può essere suddivisa in:
1||| Commutazione del livello fisico (come la rete telefonica)
2||| Commutazione del livello di collegamento (commutazione del livello 2: modifica dell'indirizzo MAC)
3||| Commutazione del livello di rete (commutazione a tre livelli: modifica dell'indirizzo IP)
4||| Commutazione del livello di trasporto (commutazione a quattro livelli: cambio di porte, relativamente raro)
5||| commutazione del livello dell'applicazione
(3) Durante l'interconnessione di rete, ciascun nodo generalmente non può essere semplicemente collegato direttamente, ma necessita di essere implementato attraverso apparecchiature di interconnessione di rete. Secondo il principio di stratificazione del modello di riferimento OSI, il dispositivo intermedio deve implementare la funzione di conversione del protocollo tra reti diverse.
(4) Sono classificati in base ai diversi livelli di protocollo su cui lavorano:
1||| Ripetitore (implementa la conversione del protocollo del livello fisico e converte i segnali binari tra i cavi);
2||| Bridge di rete (implementazione della conversione del protocollo del livello fisico e del livello di collegamento dati);
3||| Router (che implementa la conversione del protocollo tra lo strato di rete e gli strati successivi);
4||| Gateway (che fornisce la conversione del protocollo dal livello più basso al livello di trasporto o superiore);
5||| interruttore
(5) Nelle applicazioni reali, le apparecchiature fornite da ciascun produttore sono multifunzionali e retrocompatibili.
(6) Con l'uso sempre più diffuso della tecnologia wireless, attualmente sul mercato sono disponibili molti prodotti basati su reti wireless, tra cui schede di rete wireless, AP wireless, bridge wireless e router wireless.
5. protocollo standard di rete
(1) Un protocollo di rete è un insieme di regole, standard o convenzioni stabiliti per lo scambio di dati in una rete di computer. I protocolli di rete sono costituiti da tre elementi: semantica, sintassi e tempistica. La semantica è la spiegazione del significato di ciascuna parte delle informazioni di controllo. Stabilisce quale tipo di informazioni di controllo devono essere inviate, le azioni completate e quale tipo di risposta dovrebbe essere data, la struttura e il formato dei dati utente e del controllo informazioni e l'ordine in cui appaiono i dati: la cronologia è una descrizione dettagliata dell'ordine in cui si verificano gli eventi. Le persone descrivono vividamente questi tre elementi come: la semantica rappresenta cosa fare, la sintassi rappresenta come farlo e il tempismo rappresenta l'ordine in cui farlo.
(2) OSI
Il modello di riferimento dell'interconnessione del sistema aperto (Open System Interconnect, OSI) sviluppato congiuntamente dall'Organizzazione internazionale per la standardizzazione (ISO) e dal Comitato consultivo sul telegrafo e telefono internazionale (CCITT).
Il suo scopo è fornire una base comune e un quadro standard per l'interconnessione di computer eterogenei e fornire un riferimento comune per mantenere la coerenza e la compatibilità degli standard correlati.
OSI utilizza una tecnologia strutturata a più livelli, divisa in sette livelli dal basso verso l'alto: livello fisico, livello di collegamento dati, livello di rete, livello di trasporto, livello di sessione, livello di presentazione e livello di applicazione.
I protocolli WAN operano ai tre livelli inferiori del modello di riferimento OSI e definiscono le comunicazioni su diversi media WAN. I protocolli WAN includono principalmente: protocollo punto-punto PPP, rete digitale di servizi integrati ISDN, xDSL (nome generale delle linee digitali di abbonato DSL: HDSL, SDSL, MVL, ADSL), linea digitale dedicata DDN, x.25, FR frame relè , modalità di trasmissione asincrona ATM.
(3) Famiglia di protocolli IEEE802
La specifica IEEE802 definisce il modo in cui la scheda di rete accede al mezzo di trasmissione (come cavo ottico, doppino intrecciato, wireless, ecc.) e il metodo di trasmissione dei dati sul mezzo di trasmissione. Definisce inoltre la creazione, la manutenzione e l'interruzione delle connessioni tra la rete dispositivi che trasmettono informazioni. I prodotti conformi allo standard IEEE802 includono schede di rete, bridge, router e altri componenti utilizzati per stabilire reti locali.
La specifica IEEE802 comprende una serie di famiglie di protocolli standard, tra cui la specifica Ethernet IEEE 802.3 è un importante protocollo LAN, tra cui:
(4) TCP/IP
Il protocollo TCP/IP è il cuore del protocollo Internet. Nel livello dell'applicazione, il protocollo TCP/IP definisce molti protocolli orientati all'applicazione. Le applicazioni utilizzano la rete per completare le attività di interazione dei dati attraverso questo livello di protocolli. Tali accordi riguardano principalmente:
Basato su TCP
1||| FTP (File Transfer Protocol, protocollo di trasferimento file)
È un protocollo per il trasferimento di file tra due computer in rete. È un modo per copiare file dal client al server tramite Internet. Le modalità di trasmissione includono Bin (binario) e ASCII (file di testo), ad eccezione dei file di testo, per la trasmissione deve essere utilizzata la modalità binaria.
2||| HTTP (protocollo di trasferimento ipertestuale, protocollo di trasferimento ipertestuale)
È un protocollo di trasporto utilizzato per trasmettere l'ipertesto da un server WWW a un browser locale. Può rendere il browser più efficiente e ridurre la trasmissione in rete. Non solo garantisce che il computer trasmetta i documenti ipertestuali in modo corretto e rapido, ma determina anche quale parte del documento trasmesso e quale parte del contenuto viene visualizzata per prima.
3||| SMTP (Simple Mail Transfer Protocol, protocollo di trasferimento della posta semplice)
È un protocollo che fornisce una trasmissione affidabile ed efficiente di e-mail. SMTP è un servizio di posta elettronica basato sul servizio di trasferimento file FTP. Viene utilizzato principalmente per trasferire informazioni di posta elettronica tra sistemi e fornire notifiche relative alla posta elettronica.
4||| Telnet (protocollo di accesso remoto)
È un programma di accesso ed emulazione la cui funzione di base è consentire agli utenti di accedere e accedere a sistemi informatici remoti. In precedenza, Telnet era un semplice programma terminale che inviava tutti gli input dell'utente al computer remoto per l'elaborazione. Attualmente, alcune delle versioni più recenti eseguono una maggiore elaborazione a livello locale, forniscono una risposta migliore e riducono la quantità di informazioni inviate tramite il collegamento al computer remoto.
Basato sull'UDP
1||| TFTP (Trivial File Transfer Protocol, protocollo di trasferimento file semplice)
È un protocollo utilizzato per il semplice trasferimento di file tra client e server, fornendo servizi di trasferimento file semplici ed economici. Basato su UDP, fornisce servizi di trasmissione del flusso di dati inaffidabili, non fornisce meccanismi di autorizzazione e autenticazione per l'archiviazione e utilizza la ritrasmissione timeout per garantire l'arrivo dei dati.
2||| DHCP (Dynamic Host Configuration Protocol, protocollo di configurazione host dinamico)
È progettato in base alla struttura client/server. Tutti i dati di impostazione della rete IP sono gestiti centralmente dal server DHCP e sono responsabili dell'elaborazione delle richieste DHCP del client, il client utilizzerà i dati dell'ambiente IP assegnati dal server; Gli indirizzi IP allocati tramite DHCP possono essere suddivisi in tre metodi: allocazione fissa, allocazione dinamica e allocazione automatica.
3||| DNS (Domain Name System, sistema dei nomi di dominio)
Esiste una corrispondenza uno a uno tra i nomi di dominio e gli indirizzi IP su Internet Sebbene i nomi di dominio siano facili da ricordare, le macchine possono riconoscere solo gli indirizzi IP degli altri. La conversione tra loro è chiamata risoluzione dei nomi di dominio la risoluzione richiede il completamento di un server specializzato per la risoluzione dei nomi di dominio, DNS è il server che esegue la risoluzione dei nomi di dominio. Il DNS trova computer e servizi con nomi user-friendly.
4||| SNMP (Simple Network Management Protocol, protocollo semplice di gestione della rete)
È stato proposto per risolvere i problemi di gestione dei router su Internet. Può essere utilizzato su IP, IPX, AppleTalk e altri protocolli di trasmissione. SNMP si riferisce a una raccolta di specifiche di gestione della rete, incluso il protocollo stesso, la definizione delle strutture dati e alcuni concetti correlati. Attualmente, SNMP è diventato di fatto lo standard industriale nel campo della gestione della rete ed è ampiamente supportato e applicato. La maggior parte dei sistemi e delle piattaforme di gestione della rete sono basati su SNMP.
(5) TCP e UDP
Esistono due importanti protocolli di trasmissione nel livello di trasporto OSI, vale a dire TCP (Transmission Control Protocol) e UDP (User Datagram Protocol). Questi protocolli sono responsabili del controllo del flusso, del controllo degli errori e dell'ordinamento.
TCP è uno dei protocolli più importanti dell'intera suite di protocolli TCP/IP. Basato sui servizi dati inaffidabili forniti dal protocollo IP, utilizza la tecnologia di ritrasmissione per fornire alle applicazioni un servizio di trasferimento dati affidabile, orientato alla connessione. . Il protocollo TCP viene generalmente utilizzato in situazioni in cui la quantità di dati trasmessi è relativamente piccola e i requisiti di affidabilità sono elevati.
UDP è un protocollo inaffidabile e senza connessione che garantisce la comunicazione tra i processi applicativi. Rispetto al TCP, UDP è un protocollo senza connessione e la sua funzione di rilevamento degli errori è molto più debole. Si può dire che TCP aiuta a fornire affidabilità mentre UDP aiuta ad aumentare la velocità di trasferimento. Il protocollo UDP viene generalmente utilizzato in situazioni in cui viene trasmessa una grande quantità di dati e i requisiti di affidabilità non sono molto elevati, ma è richiesta una velocità elevata.
6. SDN di rete definito dal software
Software Defined Network (SDN) è una nuova architettura di rete innovativa e un metodo di implementazione della virtualizzazione della rete. Può definire e controllare la rete attraverso la programmazione software. Combina il piano di controllo delle apparecchiature di rete con i dati. ottenendo così un controllo flessibile del traffico di rete, rendendo la rete più intelligente e fornendo una buona piattaforma per l'innovazione delle reti e delle applicazioni principali.
Utilizzando l’idea della stratificazione, SDN separa dati e controllo. Il livello di controllo include un controller logicamente centralizzato e programmabile in grado di padroneggiare le informazioni della rete globale e facilitare agli operatori e ai ricercatori la gestione e la configurazione della rete e l'implementazione di nuovi protocolli. Il livello dati, compresi gli switch stupidi (diversi dai tradizionali switch Layer 2, si riferisce specificamente ai dispositivi utilizzati per inoltrare i dati), fornisce solo semplici funzioni di inoltro dati, che possono elaborare rapidamente i pacchetti di dati corrispondenti per adattarsi alla crescente velocità di flusso. I due livelli utilizzano interfacce unificate aperte (come Openflow, ecc.) per interagire. Il controller fornisce regole standard unificate allo switch tramite un'interfaccia standard e lo switch deve solo eseguire le azioni corrispondenti in base a queste regole. SDN rompe la natura chiusa delle apparecchiature di rete tradizionali.
L'architettura complessiva dell'SDN è divisa in piano dati, piano di controllo e piano applicativo dal basso verso l'alto (da sud a nord). Tra questi, il piano dati è composto da hardware di rete generale come gli switch, e vari dispositivi di rete sono collegati tramite percorsi dati SDN formati da regole diverse; il piano di controllo include il controller SDN logicamente centrato, che gestisce le informazioni della rete globale e ne è responsabile tutti gli aspetti della rete. Controllo delle regole di inoltro; il piano applicativo include varie applicazioni di rete basate su SDN e gli utenti possono programmare e distribuire nuove applicazioni senza preoccuparsi dei dettagli sottostanti.
Il piano di controllo e il piano dati comunicano tramite l'interfaccia SDN Control-Data-Plane (CDPI), che ha uno standard di comunicazione unificato ed è principalmente responsabile della fornitura delle regole di inoltro nel controller al dispositivo di inoltro. L'applicazione principale è il protocollo OpenFlow . Il piano di controllo e il piano applicativo comunicano tramite l'SDN North Bound Interface (NBI) che non è uno standard unificato e consente agli utenti di personalizzare e sviluppare varie applicazioni di gestione della rete in base alle proprie esigenze.
Le interfacce in SDN sono aperte, con il controller come centro logico, l'interfaccia in direzione sud è responsabile della comunicazione con il piano dati, l'interfaccia in direzione nord è responsabile della comunicazione con il piano applicativo e l'interfaccia est-ovest è responsabile della comunicazione tra più controllori. L'interfaccia CDP in direzione sud più diffusa utilizza il protocollo OpenFlow. La caratteristica più basilare di OpenFlow è quella di abbinare le regole di inoltro in base al concetto di flusso. Ogni switch mantiene una tabella di flusso (FlowTable) e inoltra secondo le regole di inoltro nella tabella di flusso tutto fatto dal controllore. Per l'interfaccia in direzione nord, l'applicazione richiama le varie risorse di rete richieste attraverso la programmazione dell'interfaccia in direzione nord per ottenere una rapida configurazione e implementazione della rete. Il gate est-ovest rende il controller scalabile e fornisce garanzia tecnica per il bilanciamento del carico e il miglioramento delle prestazioni.
7. tecnologia di comunicazione mobile di quinta generazione
La tecnologia di comunicazione mobile di quinta generazione (5G) è una nuova generazione di tecnologia di comunicazione mobile con le caratteristiche di alta velocità, basso ritardo e connessione ampia.
L’Unione Internazionale delle Telecomunicazioni (JTU) definisce otto principali indicatori del 5G:
Gli standard tecnici internazionali 5G si concentrano sul soddisfare le esigenze di un’Internet delle cose flessibile e diversificata. Basato sulle tecnologie di base di accesso multiplo a divisione di frequenza ortogonale (OFDMA) e uscita multipla a ingresso multiplo (MIMO), il 5G adotta un design di sistema nuovo e flessibile per supportare tre principali scenari applicativi. In termini di bande di frequenza, a differenza del 4G, che supporta le bande di media e bassa frequenza, il 5G supporta sia le bande di frequenza medio-bassa che quelle di alta frequenza. Per supportare la trasmissione ad alta velocità e una migliore copertura, il 5G adotta LDPC (un codice di correzione degli errori di gruppo con una matrice di controllo sparsa) e Polar (un codice a blocchi lineari basato sulla teoria della polarizzazione dei canali), nuovi schemi di codifica dei canali con prestazioni più elevate tecnologia dell'antenna, ecc. Per supportare bassa latenza e alta affidabilità, il 5G utilizza tecnologie come frame brevi, feedback rapido e ritrasmissione dati multistrato/multistazione.
L’Unione Internazionale delle Telecomunicazioni (ITU) ha definito tre principali scenari applicativi per il 5G, vale a dire la banda larga mobile potenziata (eMBB), le comunicazioni ultra affidabili a bassa latenza (uRLLC) e le comunicazioni massicce di tipo macchina (mMTC). La banda larga mobile avanzata è mirata principalmente alla crescita esplosiva del traffico Internet mobile e offre agli utenti Internet mobili un'esperienza applicativa più estrema e la comunicazione a bassa latenza è principalmente finalizzata al controllo industriale, alla telemedicina, alla guida autonoma, ecc ha una latenza e un'affidabilità estremamente elevate. Esigenze applicative richieste dal settore verticale: le comunicazioni di massa di tipo macchina sono principalmente orientate alle esigenze applicative mirate al rilevamento e alla raccolta dati, come città intelligenti, case intelligenti e monitoraggio ambientale.
iv. Archiviazione e database
1. tecnologia di archiviazione
(1) La classificazione dello storage è suddivisa in storage di sistema chiuso e storage di sistema aperto in base al tipo di server. I sistemi chiusi si riferiscono principalmente a server come i mainframe. I sistemi aperti si riferiscono a server basati su sistemi operativi tra cui Kirin, Euler, UNIX, Linux e altri sistemi operativi. Lo spazio di archiviazione del sistema aperto è suddiviso in: spazio di archiviazione integrato e spazio di archiviazione plug-in.
(2) Lo spazio di archiviazione plug-in è suddiviso in
1||| Storage collegato direttamente (DAS)
DAS, noto anche come SAS (Server-Attached Storage, storage collegato al server). DAS è definito come un dispositivo di archiviazione dati collegato direttamente a varie interfacce di espansione server o client. Si basa sul server ed è uno stack di hardware senza alcun sistema operativo di archiviazione. In questo approccio, il dispositivo di archiviazione è collegato direttamente al server tramite un cavo (solitamente un cavo di interfaccia SCSI) e le richieste I/O (input/output) vengono inviate direttamente al dispositivo di archiviazione.
2||| Lo storage di rete (Fabric-Attached Storage, FAS) è suddiviso in
a. Archiviazione collegata alla rete (NAS)
Il NAS è anche chiamato dispositivo di archiviazione collegato direttamente alla rete o array di dischi di rete. È un dispositivo di archiviazione e backup di file di rete professionale. Si basa su LAN (rete locale) e comunica in conformità con il protocollo TCP/IP. Utilizza la modalità file I/O O (input/output) per la trasmissione dei dati. Un NAS include un processore core, strumenti di gestione dei servizi file e uno o più dischi rigidi per l'archiviazione dei dati.
b. Rete di archiviazione (SAN)
SAN è una sottorete dedicata ad alta velocità che collega dispositivi di archiviazione come array di dischi e nastri ai server correlati tramite hub in fibra ottica, router in fibra ottica, switch in fibra ottica e altri dispositivi di connessione. La SAN è composta da tre componenti di base: interfacce (come SCSI, Fibre Channel, ESCON, ecc.), dispositivi di connessione (apparecchiature di commutazione, gateway, router, hub, ecc.) e protocolli di controllo della comunicazione (come IP e SCSI, ecc. .). Questi tre componenti, oltre a dispositivi di storage aggiuntivi e server SAN indipendenti, formano un sistema SAN. La SAN comprende principalmente FC SAN e IP SAN. Il mezzo di rete della FC SAN è Fibre Channel, mentre IP SAN utilizza Ethernet standard. IP SAN può ben combinare le funzionalità di condivisione fornite dalla SAN per i server con la facilità d'uso delle reti IP e fornire agli utenti un'esperienza ad alte prestazioni simile all'archiviazione locale sul server.
(3) Virtualizzazione dello spazio di archiviazione
La virtualizzazione dello storage è una delle tecnologie principali del "cloud storage". Integra le risorse di storage da una o più reti e fornisce agli utenti una vista logica astratta. Gli utenti possono utilizzare la logica unificata in questa visualizzazione per interfacciarsi per accedere alle risorse di storage integrate.
La virtualizzazione dello storage consente di convertire i dispositivi di storage in archivi dati logici. Una macchina virtuale viene archiviata come un insieme di file in una directory nel datastore. L'archiviazione dei dati è un contenitore logico simile a un file system. Nasconde le caratteristiche di ciascun dispositivo di archiviazione e forma un modello unificato per fornire dischi alle macchine virtuali. La tecnologia di virtualizzazione dello storage aiuta il sistema a gestire le risorse di storage dell'infrastruttura virtuale, segnalando l'utilizzo e la flessibilità delle risorse e il tempo di attività delle applicazioni.
(4) deposito verde
La tecnologia di storage verde si riferisce alla tecnologia utilizzata dal punto di vista del risparmio energetico e della protezione ambientale per progettare e produrre prodotti di storage con una migliore efficienza energetica, ridurre il consumo energetico dei dispositivi di archiviazione dati e migliorare le prestazioni per watt dei dispositivi di archiviazione.
Il fulcro della tecnologia di storage verde è progettare processori e sistemi più efficienti che funzionino a temperature più basse, producano sistemi di storage o componenti con un consumo energetico inferiore e riducano i composti di carbonio elettronici prodotti dai prodotti. L’obiettivo finale è migliorare le prestazioni di tutta la rete di storage dispositivi Efficienza energetica, utilizzando la minima capacità di stoccaggio dell'acqua per soddisfare le esigenze aziendali, consumando così la minor quantità di energia. Un sistema di accumulo guidato da concetti ecologici è in definitiva un equilibrio tra capacità di accumulo, prestazioni e consumo energetico.
La tecnologia di storage verde coinvolge tutte le tecnologie di condivisione dello storage, inclusi sistemi a disco e a nastro, connessioni server, dispositivi di storage, architettura di rete e altre architetture di rete di storage, servizi file e software applicativo di storage, eliminazione dei dati di ripristino, thin provisioning automatico e tecnologia di backup basata su nastro. Le tecnologie che possono migliorare l’utilizzo dello storage e ridurre i costi di costruzione e di esercizio mirano a migliorare l’efficienza energetica di tutte le tecnologie di storage di rete.
2. modello di struttura dei dati
(1) Il modello della struttura dei dati è il nucleo del sistema di database. La trasformazione della struttura dei dati descrive il metodo di strutturazione e manipolazione dei dati nel database. La parte strutturale del modello specifica come vengono descritti i dati (come alberi, tabelle, ecc.). La parte di manipolazione del modello specifica operazioni come l'aggiunta, l'eliminazione, la visualizzazione, la manutenzione, la stampa, la ricerca, la selezione, la disposizione e l'aggiornamento dei dati.
(2) Esistono tre modelli comuni di struttura dei dati: modello gerarchico, modello di rete e modello relazionale. Il modello gerarchico e il modello di rete sono collettivamente chiamati modello dei dati formattati.
1||| modello gerarchico
Il modello gerarchico è il primo modello utilizzato nei sistemi di database. Utilizza una struttura ad "albero" per rappresentare l'associazione tra insiemi di entità, in cui gli insiemi di entità (rappresentati da riquadri rettangolari) sono nodi, e le connessioni tra i nodi nell'albero. rappresentano la relazione tra loro. (Può gestire solo relazioni di entità uno-a-molti)
Qualsiasi valore del record specificato nel modello gerarchico può essere visualizzato solo in base al relativo percorso gerarchico. Nessun valore del record figlio può esistere indipendentemente dal valore del record padre.
I principali vantaggi includono:
a. La struttura dei dati del modello gerarchico è relativamente semplice e chiara
b. L'efficienza delle query del database gerarchico è elevata e le sue prestazioni sono migliori rispetto al modello relazionale e non meno del modello di rete.
c. 3: Il modello gerarchico fornisce un buon supporto all’integrità.
I principali svantaggi includono:
a. Molte relazioni nel mondo reale non sono gerarchiche e non è opportuno utilizzare modelli gerarchici per rappresentare relazioni molti-a-molti tra i nodi.
b. Se un nodo ha più nodi principali, ecc., l'utilizzo di un modello gerarchico per rappresentare tali connessioni è goffo e può essere risolto solo introducendo dati ridondanti o creando strutture di dati innaturali.
c. Esistono molte restrizioni sulle operazioni di inserimento ed eliminazione, quindi la scrittura delle applicazioni è più complicata.
d. L'interrogazione dei nodi secondari deve passare attraverso i nodi principali.
e. A causa della sua struttura ristretta, i comandi gerarchici tendono ad essere procedurali.
2||| modello a maglie
Un modello di struttura dati che utilizza una struttura grafica diretta per rappresentare i tipi di entità e le relazioni tra entità è chiamato modello di rete.
Nel modello di rete, i record vengono utilizzati come unità di archiviazione dei dati. Un record contiene diversi elementi di dati. Gli elementi di dati in un database di rete possono essere dati multivalore e compositi. Ogni record ha un identificatore interno che lo identifica in modo univoco, chiamato codice (DatabaseKey, DBK), che viene assegnato automaticamente dal sistema di gestione del database DBMS quando un record viene archiviato nel database. DBK può essere considerato come l'indirizzo logico del record, può essere utilizzato come "sostituto" del record o può essere utilizzato per trovare record. Il database di rete è un database di navigazione Quando si utilizza il database, gli utenti non solo spiegano cosa fare, ma anche come farlo. Ad esempio, nell'istruzione di ricerca, non deve essere specificato solo l'oggetto di ricerca, ma anche il percorso di accesso.
I principali vantaggi includono:
a. Può descrivere il mondo reale in modo più diretto ed esprimere varie relazioni complesse tra entità.
b. Ha buone prestazioni e un'elevata efficienza di accesso.
I principali svantaggi includono:
a. La struttura è relativamente complessa e non facile da usare per gli utenti.
b. L'indipendenza dei dati è scarsa Poiché la relazione tra le entità è essenzialmente rappresentata da percorsi di accesso, le applicazioni devono specificare i percorsi di accesso quando accedono ai dati.
3||| modello relazionale
Il modello relazionale è un modello che utilizza una tabella bidimensionale per rappresentare le entità e le connessioni tra entità in un database strutturato relazionale. Il modello relazionale è sviluppato sulla base del concetto relazionale della teoria degli insiemi. Nel modello relazionale sia le entità che le connessioni tra entità sono rappresentate da un'unica relazione di tipo strutturale.
I principali vantaggi includono:
a. Struttura dati unica:
Nel modello relazionale, sia le entità che le connessioni tra entità sono rappresentate da relazioni e le relazioni corrispondono a una tabella dati bidimensionale e la struttura dei dati è semplice e chiara.
b. Le relazioni sono standardizzate e basate su rigide basi teoriche:
Le norme fondamentali che costituiscono una relazione richiedono che ogni attributo della relazione non possa essere suddiviso e che la relazione sia basata su concetti matematici rigorosi con un solido fondamento teorico.
c. Concetto semplice e facile da usare:
Il più grande vantaggio del modello relazionale è che è semplice e facile da comprendere e padroneggiare per gli utenti. Una relazione è una tabella bidimensionale. Gli utenti devono solo utilizzare semplici linguaggi di query per gestire il database.
I principali svantaggi includono:
a. Il percorso di accesso è trasparente per gli utenti e l'efficienza delle query spesso non è buona quanto il modello di dati formattato.
b. Per migliorare le prestazioni è necessario ottimizzare le richieste di query degli utenti, il che aumenta la difficoltà di sviluppo di un sistema di gestione di database.
3. Tipi di database comuni
(1) Database relazionale (SQL)
I database di rete e i database gerarchici hanno risolto bene i problemi di centralizzazione e condivisione dei dati, ma ci sono ancora grandi carenze nell’indipendenza dei dati e nei livelli di astrazione. Quando gli utenti accedono a questi due database, devono comunque chiarire la struttura di archiviazione dei dati e indicare il percorso di accesso. Per risolvere questo problema è nato il database relazionale, che utilizza il modello relazionale come modalità di organizzazione dei dati.
Un database relazionale è una raccolta di tutte le entità e delle relazioni tra entità in un determinato dominio applicativo. I database relazionali supportano i principi ACID delle transazioni, ovvero i quattro principi di atomicità, coerenza, isolamento e durabilità garantiscono la correttezza dei dati durante il processo di transazione.
Le caratteristiche principali includono
1||| L'ordine delle righe e delle colonne nella tabella non è importante
2||| Riga: ogni riga della tabella, chiamata anche record
3||| Colonna: ogni colonna della tabella, nota anche come attributi e campi
4||| Chiave primaria PK (Chiave primaria): il campo FK della chiave esterna utilizzato per determinare in modo univoco un record
5||| Dominio: l'intervallo di valori dell'attributo. Ad esempio, il sesso può avere solo due valori: "maschio" e "femmina".
(2) Database non relazionale (non solo SQL, NoSQL)
Il database di data mining non relazionale è un sistema di archiviazione dati distribuito e non relazionale che non garantisce la conformità ai principi ACID. L'archiviazione dei dati NoSQL non richiede una struttura di tabella fissa e in genere non sono previste operazioni di unione. Presenta vantaggi in termini di prestazioni che i database relazionali non possono eguagliare in termini di accesso ai big data.
Le caratteristiche principali includono
1||| stoccaggio non strutturato
2||| Basato sul modello relazionale multidimensionale
3||| Avere scenari di utilizzo specifici
I database non relazionali comuni sono suddivisi in:
1||| database di valori-chiave
Simile alle tabelle hash utilizzate nei linguaggi tradizionali. È possibile aggiungere, interrogare o eliminare il database tramite chiave, poiché l'utilizzo della chiave di accesso con chiave primaria consentirà di ottenere prestazioni e scalabilità elevate. Per i sistemi informativi, i vantaggi del tipo Chiave/Valore sono la semplicità, la facilità di implementazione e l'elevata concorrenza.
2||| Database orientato alle colonne
Archiviare i dati in famiglie di colonne. Un archivio di famiglie di colonne viene spesso interrogato insieme. Ad esempio, le persone spesso eseguono query sul nome e sull'età di una persona anziché sullo stipendio. In questo caso, il nome e l'età verranno inseriti in una famiglia di colonne e lo stipendio verrà inserito in un'altra famiglia di colonne. Questo tipo di database viene solitamente utilizzato per gestire l'archiviazione distribuita di enormi quantità di dati.
3||| Database orientato ai documenti
Il database dei documenti può essere considerato come una versione aggiornata del database dei valori-chiave, che consente di annidare i valori delle chiavi e l'efficienza delle query del database dei documenti è superiore a quella del database dei valori-chiave. I database orientati ai documenti archiviano i dati sotto forma di documenti.
4||| banca dati grafica
Consente alle persone di archiviare i dati come grafici. Le entità agiranno come vertici e le relazioni tra le entità agiranno come bordi.
4. Banca dati
I sistemi di database tradizionali mancano delle informazioni sui dati storici del mercato necessari per l’analisi del processo decisionale, perché i database tradizionali generalmente conservano solo le informazioni sui dati attuali o recenti. Per soddisfare le esigenze di previsione e di analisi decisionale dei manager di medio e alto livello, è stato creato un ambiente dati – un data warehouse – in grado di soddisfare le esigenze di previsione e di analisi decisionale sulla base dei database tradizionali.
I concetti di base relativi al data warehouse includono
1||| Estratto/Trasformazione/Caricamento, ETL
L'utente estrae tutti i dati dall'origine dati e, dopo la pulizia e la conversione dei dati, i dati vengono infine caricati nel data warehouse secondo il modello di data warehouse predefinito.
2||| metadati
I dati sui dati si riferiscono ai dati chiave relativi alle definizioni delle origini dati, alle definizioni dei target, alle regole di conversione, ecc. generati durante il processo di costruzione del data warehouse. I metadati contengono anche informazioni aziendali sul significato dei dati. I metadati tipici includono: la struttura della tabella del data warehouse, gli attributi della tabella del data warehouse, i dati di origine del data warehouse (sistema di registrazione), la mappatura dal sistema di registrazione al data warehouse, la specifica del modello di dati, l'estrazione dei log e l'utilità di accesso ai dati, routine, ecc.
3||| granularità
Il livello di granularità o completezza dei dati archiviati nel data warehouse di un data warehouse. Maggiore è il grado di perfezionamento, minore è il livello di granularità, viceversa, minore è il grado di perfezionamento, maggiore è il livello di granularità;
4||| segmentazione
I dati con la stessa struttura sono divisi in più unità fisiche di dati. Ogni data unità di dati è soggetta esattamente ad una partizione.
5||| datamart
Data warehouse di piccole dimensioni, a livello di reparto o gruppo di lavoro.
6||| Archivio dati operativi (ODS)
Una raccolta dati in grado di supportare le applicazioni globali quotidiane di un'organizzazione è un nuovo ambiente dati diverso dal DB ed è una forma ibrida ottenuta dopo l'espansione del DW. Ha quattro caratteristiche fondamentali: orientato all'argomento, integrato, variabile e attuale o quasi attuale.
7||| modello di dati
Struttura logica dei dati, comprese le operazioni e i vincoli forniti da un sistema di gestione del database per un'elaborazione efficiente del database; un sistema utilizzato per rappresentare i dati.
8||| Relazione artificiale
Una tecnica di progettazione che utilizza 1-1 per rappresentare l'integrità referenziale in un ambiente di sistema di supporto decisionale.
Un data warehouse è una raccolta di dati orientata al soggetto, integrata, non volatile e variabile nel tempo, utilizzata per supportare le decisioni gestionali.
Architettura
1||| fonte di dati
È il fondamento del sistema di data warehouse e l'origine dati dell'intero sistema. Di solito include informazioni interne all'organizzazione e informazioni esterne all'organizzazione. Le informazioni interne includono la memorizzazione di vari dati di elaborazione aziendale e di vari dati di documenti nel sistema di gestione del database relazionale. Le informazioni esterne includono varie leggi e regolamenti, informazioni sul mercato, informazioni sulla concorrenza, ecc.
2||| Archiviazione e gestione dei dati
È il nucleo dell'intero sistema di data warehouse. La modalità di organizzazione e gestione del data warehouse ne determina la differenza rispetto ai database tradizionali, ma ne determina anche la rappresentazione dei dati esterni. Estrai, digerisci e integra in modo efficace i dati dai sistemi aziendali esistenti e organizzali in base ai temi. I data warehouse possono essere suddivisi in data warehouse a livello organizzativo e data warehouse a livello di reparto (spesso chiamati data mart) in base all'ambito di copertura dei dati.
3||| Server di elaborazione analitica in linea (On-LineAnalyticProcessing, OLAP).
OLAP integra efficacemente i dati richiesti per l'analisi e li organizza secondo modelli multidimensionali per condurre analisi multiangolo e multilivello e scoprire tendenze. La sua implementazione specifica può essere suddivisa in: OLAP (Relational OLAP, ROLAP) basato su database relazionale, OLAP (Multidimensional OLAP, MOLAP) basato sull'organizzazione multidimensionale dei dati e OLAP (Hybrid OLAP, HOLAP) basato sull'organizzazione ibrida dei dati. I dati di base e i dati aggregati ROLAP sono archiviati in RDBMS; i dati di base e i dati aggregati MOLAP sono archiviati in database multidimensionali; i dati di base HOLAP sono archiviati nel sistema di gestione di database relazionali (RDBMS) e i dati aggregati sono archiviati in un database multidimensionale.
4||| Strumenti front-end
Gli strumenti front-end includono principalmente vari strumenti di query, strumenti di report, strumenti di analisi, strumenti di data mining e vari strumenti di sviluppo di applicazioni basati su data warehouse o data mart. Tra questi, gli strumenti di analisi dei dati sono principalmente rivolti ai server OLAP, mentre gli strumenti di reporting e gli strumenti di data mining sono principalmente rivolti ai data warehouse.
v. informazioni di sicurezza
i. I problemi comuni di sicurezza delle informazioni includono principalmente: proliferazione di virus informatici, intrusioni di malware, attacchi di hacker, uso di crimini informatici, proliferazione di informazioni illegali su Internet, fughe di privacy personale, ecc. Con la diffusa applicazione delle tecnologie informatiche di nuova generazione come l’Internet delle cose, il cloud computing, l’intelligenza artificiale e i big data, anche la sicurezza delle informazioni si trova ad affrontare nuovi problemi e sfide.
ii. Nozioni di base sulla sicurezza delle informazioni
Attributi di sicurezza delle informazioni
1. Riservatezza
Senso
È proprietà che le informazioni non vengano divulgate o utilizzate da individui, entità e processi non autorizzati.
Garantisce che i dati trasmessi vengano letti solo dal destinatario previsto
Modo per raggiungere
1||| crittografia
2||| Controllo di accesso
3||| steganografia dell'informazione
2. integrità
Senso
"Tutela del carattere corretto e completo del bene."
Assicurarsi che i dati ricevuti siano quelli inviati e che i dati non vengano modificati.
Tre aspetti del controllo dell’integrità:
1||| Blocca le modifiche da parte di soggetti non autorizzati
2||| Impedire ai soggetti autorizzati di apportare modifiche non autorizzate, come ad esempio un uso improprio
3||| Assicurati che i dati non siano stati modificati, ciò richiede un modo per verificarli
3. Disponibilità
Senso
Funzionalità a cui le entità autorizzate possono accedere e utilizzare quando necessario.
Assicurati che i dati siano disponibili quando necessario.
Triade della sicurezza delle informazioni = Obiettivi della sicurezza delle informazioni
4. Altri attributi e obiettivi
(1) autenticità
(2) Verificabilità
(3) non ripudio
(4) affidabilità
La sicurezza del sistema informativo può essere suddivisa in quattro livelli:
(1) Sicurezza del dispositivo
La sicurezza delle apparecchiature del sistema informativo è la questione principale della sicurezza del sistema informativo. La sicurezza delle apparecchiature dei sistemi informativi costituisce la base materiale per la sicurezza dei sistemi informativi. Oltre ai dispositivi hardware, anche i sistemi software sono dispositivi e deve essere garantita anche la sicurezza dei dispositivi software.
includere principalmente
1||| Stabilità dell'attrezzatura
La probabilità che l'apparecchiatura non presenti malfunzionamenti entro un certo periodo di tempo.
2||| Affidabilità dell'attrezzatura
La probabilità che l'apparecchiatura possa svolgere normalmente i propri compiti entro un certo periodo di tempo.
3||| Disponibilità dell'attrezzatura
La probabilità che il dispositivo sia pronto per l'uso normale in qualsiasi momento.
(2) La sicurezza dei dati
In molti casi, anche se le apparecchiature del sistema informativo non sono danneggiate, la sicurezza dei dati potrebbe essere stata compromessa, ad esempio a causa di fuga di dati, manomissione dei dati, ecc. Poiché i comportamenti che mettono in pericolo la sicurezza dei dati sono altamente nascosti e gli utenti delle applicazioni dati spesso non ne sono consapevoli, sono molto dannosi.
Le sue proprietà di sicurezza includono
1||| segretezza
2||| integrità
3||| Disponibilità
(3) Sicurezza dei contenuti
La sicurezza dei contenuti è un requisito per la sicurezza delle informazioni a livello politico, legale e morale.
La sicurezza dei contenuti include
1||| Il contenuto informativo è politicamente sano.
2||| Il contenuto delle informazioni è conforme alle leggi e ai regolamenti nazionali.
3||| Il contenuto delle informazioni è conforme agli ottimi standard morali della nazione cinese.
Comprende anche la sicurezza dei contenuti in senso lato
1||| Contenuti riservati
2||| Tutela della proprietà intellettuale
3||| Nascondere le informazioni e tutelare la privacy
Se i dati sono pieni di contenuti malsani, illegali e non etici, anche se sono riservati e non sono stati manomessi, non si può dire che siano sicuri.
(4) sicurezza comportamentale
La sicurezza dei dati è essenzialmente una sicurezza statica, mentre la sicurezza comportamentale è una sicurezza dinamica.
includere
1||| Segretezza di comportamento:
Il procedimento e gli esiti del comportamento non devono mettere a repentaglio la riservatezza dei dati. Se necessario, anche il processo e i risultati delle azioni dovrebbero essere tenuti segreti.
2||| Integrità comportamentale:
Il processo e i risultati del comportamento non possono mettere a repentaglio l'integrità dei dati e il processo e i risultati del comportamento sono attesi.
3||| Controllabilità del comportamento:
Capacità di rilevare, controllare o correggere quando i processi comportamentali si discostano dalle aspettative.
La sicurezza comportamentale pone l'accento sulla sicurezza dei processi, che si riflette nel fatto che le procedure di lavoro coordinate (sequenze di esecuzione) dei dispositivi hardware, dei dispositivi software e dei sistemi applicativi che compongono il sistema informativo soddisfano le aspettative della progettazione del sistema sia garantita la sicurezza complessiva del sistema informativo.
iii. Crittografia e decrittografia
1. Al fine di garantire la sicurezza delle informazioni, è necessario utilizzare la tecnologia di crittografia delle informazioni per mascherare le informazioni in modo che i ladri illegali di informazioni non possano comprendere il vero significato delle informazioni. Il proprietario legale delle informazioni può utilizzare la firma per verificarne l'integrità l'informazione. Gli algoritmi di crittografia vengono utilizzati per autenticare, identificare e confermare l'identità degli utenti delle informazioni per controllare l'utilizzo delle informazioni.
2. La tecnologia di crittografia è composta da due elementi: algoritmo e chiave. Il sistema crittografico della tecnologia di crittografia a chiave è suddiviso in sistema a chiave simmetrica e sistema a chiave asimmetrica. Di conseguenza, le tecnologie di crittografia dei dati sono divise in due categorie, vale a dire la crittografia simmetrica (crittografia a chiave privata) e la crittografia asimmetrica (crittografia a chiave di litro). La crittografia simmetrica è generalmente rappresentata dall'algoritmo Data Encryption Standard (DES), mentre la crittografia asimmetrica è solitamente rappresentata dall'algoritmo RSA (Rivest Shamir Adleman). La chiave di crittografia e la chiave di decrittografia della crittografia simmetrica sono le stesse, mentre le chiavi di crittografia e decrittografia della crittografia asimmetrica sono diverse. La chiave di crittografia può essere resa pubblica ma la chiave di decrittografia deve essere mantenuta segreta.
3. Tecnologia di crittografia simmetrica
La crittografia simmetrica utilizza la tecnologia di codifica della crittografia simmetrica, caratterizzata dall'utilizzo della stessa chiave per la crittografia e la decrittografia dei file. Entrambe le parti che ricevono le informazioni devono conoscere in anticipo la chiave e l'algoritmo di crittografia e decrittografia e le chiavi sono le stesse. Quindi i dati vengono crittografati e decrittografati. Gli algoritmi di crittografia simmetrica vengono utilizzati per crittografare dati sensibili e altre informazioni. Gli algoritmi di crittografia simmetrica sono semplici e veloci da usare, hanno chiavi brevi e sono difficili da decifrare.
4. Tecnologia di crittografia asimmetrica
L'idea di base della crittografia a chiave pubblica è quella di dividere la chiave K della cifratura tradizionale in due, nella chiave di crittografia Ke e nella chiave di decrittografia Kd. La chiave di crittografia Ke viene utilizzata per controllare la crittografia e viene utilizzata la chiave di decrittografia Kd per controllare la decrittazione in questo modo, anche se rendere pubblico Ke non esporrà Kd, né comprometterà la sicurezza della password. Poiché Ke è pubblico e solo Kd è segreto, si supera sostanzialmente la difficoltà della distribuzione delle chiavi nella crittografia tradizionale. Poiché il codice RSA può essere utilizzato sia per la crittografia che per le firme digitali, è sicuro e facile da comprendere, pertanto il codice RSA è diventato il codice a chiave pubblica più utilizzato.
5. Funzione hash
La funzione Hash mappa un messaggio M di qualsiasi lunghezza in un codice Hash di lunghezza fissa, chiamato anche digest del messaggio. È una funzione di tutti i bit del messaggio e ha capacità di controllo degli errori: ovvero, modifica uno o più bit del messaggio , Tutto porterà a modifiche nel codice hash. Durante il processo di autenticazione, il mittente allega il codice hash al messaggio da inviare e lo invia al destinatario. Il destinatario autentica il messaggio ricalcolando il codice hash, realizzando così le funzioni di riservatezza, autenticazione del messaggio e firma digitale.
6. firma digitale
Una firma è un'informazione che prova l'identità della parte e l'autenticità dei dati. Nell'ambiente informativo, nell'elaborazione delle transazioni basata sulla rete come base per la trasmissione delle informazioni, tutte le parti coinvolte nell'elaborazione delle transazioni dovrebbero utilizzare firme elettroniche, ovvero firme digitali (firma digitale). Attualmente, le firme digitali hanno supporto legale in alcuni paesi.
Un sistema di firma digitale completo dovrebbe soddisfare le seguenti tre condizioni:
1||| Il firmatario non può successivamente ripudiare la propria firma.
2||| Nessun altro può falsificare la firma.
3||| Se le parti contestano l'autenticità di una firma, possono confermarne l'autenticità verificando la firma davanti a un arbitro imparziale.
Le firme digitali e la crittografia dei dati possono essere ottenute contemporaneamente utilizzando la crittografia RSA.
7. Certificazione
L'autenticazione, nota anche come identificazione e conferma, è un processo per verificare se qualcosa è degno del suo nome o valido.
La differenza tra autenticazione e crittografia è che la crittografia viene utilizzata per garantire la riservatezza dei dati e prevenire attacchi passivi da parte di oppositori, come intercettazioni, intercettazioni, ecc., mentre l'autenticazione viene utilizzata per garantire l'autenticità del mittente e del destinatario del messaggio; l'integrità del messaggio Impedire agli avversari attacchi attivi, come impersonificazione, manomissione, riproduzione, ecc. L'autenticazione è spesso la prima linea di protezione della sicurezza in molti sistemi applicativi, quindi è estremamente importante.
I parametri comunemente utilizzati nei sistemi di autenticazione includono password, identificatori, chiavi, token, smart card, impronte digitali, modelli visivi, ecc.
Le tecnologie di autenticazione e firma digitale sono entrambe misure per garantire l'autenticità dei dati, ma esistono evidenti differenze tra le due:
1||| L'autenticazione si basa sempre su qualche tipo di dati riservati condivisi sia dal mittente che dal destinatario per verificare l'autenticità dell'oggetto da autenticare, mentre i dati utilizzati per verificare la firma in una firma digitale sono pubblici.
2||| L'autenticazione consente alle parti mittente e ricevente di verificare l'autenticità reciproca e non consente a terzi di verificare, mentre le firme digitali consentono sia alle parti mittente e ricevente che a terzi di verificare.
3||| Le firme digitali non possono essere ripudiate dal mittente, non possono essere falsificate dal destinatario e hanno la capacità di risolvere le controversie davanti a un notaio, mentre la certificazione non ne ha necessariamente la capacità.
iv. Sicurezza del sistema informativo
1. I sistemi informativi sono generalmente costituiti da sistemi informatici, sistemi di rete, sistemi operativi, sistemi di database e sistemi applicativi.
2. Di conseguenza, la sicurezza del sistema informativo comprende principalmente
(1) Sicurezza delle apparecchiature informatiche
Garantire il funzionamento sicuro delle apparecchiature informatiche è uno degli aspetti più importanti della sicurezza del sistema informativo
Oltre all'integrità, alla riservatezza e alla disponibilità, include anche
1||| Resistenza alla negazione
L'anti-ripudio si riferisce alla funzionalità che garantisce che gli utenti non possano negare la generazione, l'emissione e la ricezione delle informazioni in un secondo momento. I servizi anti-ripudio sono generalmente forniti tramite firma digitale.
2||| Verificabilità
Utilizzando il metodo di audit è possibile eseguire audit trail dettagliati sul processo di lavoro del sistema informativo del computer e allo stesso tempo salvare registrazioni di audit e registri di audit, da cui è possibile scoprire problemi.
3||| affidabilità
La probabilità che un computer completi una funzione predeterminata in condizioni specificate ed entro un dato tempo.
(2) sicurezza informatica
In quanto principale vettore di raccolta, archiviazione, distribuzione, trasmissione e applicazione delle informazioni, la sicurezza della rete svolge un ruolo vitale o addirittura decisivo nella sicurezza dell'intera informazione. L'ambiente di rete crea uno spazio ideale per la condivisione delle informazioni, lo scambio di informazioni e i servizi di informazione. Le caratteristiche intrinseche di apertura, interattività e decentralizzazione di Internet, pur consentendo alle persone di condividere le informazioni in modo aperto, flessibile e rapido, comportano anche problemi legati alla sicurezza della rete.
Problemi relativi alla sicurezza della rete:
1||| Perdita di informazioni, inquinamento delle informazioni, informazioni non facili da controllare
2||| Perdita di informazioni, distruzione di informazioni, violazione di informazioni e penetrazione di informazioni
3||| Il sito web ha subito attacchi dannosi che hanno provocato danni e paralisi
Le minacce informatiche comuni includono:
1||| monitoraggio della rete
2||| Attacco alla password
3||| Attacchi Denial of Service (DoS) e attacchi Distributed Denial of Service (DDos).
4||| attacco di vulnerabilità
5||| Botnet
6||| Phishing
7||| Spoofing su Internet
8||| Minacce alla sicurezza del sito web: attacchi SQL injection, attacchi cross-site, attacchi side note, ecc.
9||| Minaccia persistente avanzata (APT)
(3) Sicurezza del sistema operativo
Secondo le manifestazioni delle minacce alla sicurezza, sono le seguenti:
1||| virus informatico
2||| bomba logica
3||| cavallo di Troia
4||| Backdoor: si riferisce a un pezzo di codice illegale incorporato nel sistema operativo
5||| Canale nascosto: un percorso di fuga di informazioni non pubblico nel sistema che non è controllato dalle politiche di sicurezza, viola le politiche di sicurezza ed è non pubblico.
(4) Sicurezza del sistema di database
Un sistema di database è una piattaforma per l'archiviazione, la gestione, l'utilizzo e il mantenimento dei dati. La sicurezza del database si riferisce principalmente alla sicurezza dei sistemi di gestione dei database e i suoi problemi di sicurezza possono essere considerati problemi di sicurezza per i dati utilizzati per l'archiviazione piuttosto che per la trasmissione.
(5) Sicurezza del sistema applicativo
La sicurezza del sistema applicativo si basa sulla sicurezza delle apparecchiature informatiche, sulla sicurezza della rete e sulla sicurezza dei database. Allo stesso tempo, vengono adottati efficaci antivirus, anti-manomissione e controllo e verifica della versione per garantire la legalità e l'integrità dei programmi di esecuzione e dei file di configurazione del sistema, che sono misure di garanzia della sicurezza estremamente importanti.
v. tecnologia di sicurezza della rete
1. firewall
Un firewall è un meccanismo di filtraggio costruito sul confine tra reti interne ed esterne. La rete interna è considerata sicura e affidabile, mentre la rete esterna (solitamente Internet) è considerata non sicura e inaffidabile. I firewall possono monitorare il traffico in entrata e in uscita dalla rete, consentendo l'ingresso solo di informazioni sicure e approvate e bloccando al contempo le minacce alla sicurezza avviate all'interno dell'azienda. Le principali tecnologie di implementazione dei firewall includono: filtraggio dei pacchetti, gateway applicativo e servizi proxy, ecc.
2. Rilevamento e prevenzione delle intrusioni
Esistono due tipi principali di tecnologie di rilevamento e prevenzione delle intrusioni: Intrusion Detection System (IDS) e Intrusion Prevention System (IPS).
Il sistema di rilevamento delle intrusioni (IDS) si concentra sulla supervisione dello stato di sicurezza della rete monitorando le risorse della rete o del sistema, cerca comportamenti che violano le politiche di sicurezza o tracce di attacchi ed emette allarmi. Pertanto la stragrande maggioranza dei sistemi IDS sono passivi.
I sistemi di prevenzione delle intrusioni (IPS) tendono a fornire protezione attiva e si concentrano sul controllo del comportamento delle intrusioni. È progettato per intercettare in anticipo le attività di intrusione e il traffico di rete offensivo per evitare perdite. IPS realizza questa funzione incorporandolo direttamente nel traffico di rete, ovvero riceve il traffico da sistemi esterni attraverso una porta di rete. Dopo aver verificato che non contenga attività anomale o contenuti sospetti, lo trasmette attraverso un'altra porta sistema interno. In questo modo, il pacchetto incriminato, così come tutti i pacchetti successivi dello stesso flusso di dati, possono essere cancellati nel dispositivo IPS.
3. rete privata virtuale
VPN (Virtual Private Network) è una tecnologia che si affida all'ISP (Internet Service Provider) e ad altri NSP (Network Service Provider) per stabilire un canale di comunicazione dati dedicato e sicuro in una rete pubblica. La VPN può essere considerata come l'applicazione della tecnologia di crittografia e autenticazione nella trasmissione di rete.
La connessione di rete VPN è composta da tre parti: client, mezzo di trasmissione e server. La connessione VPN non utilizza mezzi di trasmissione fisici, ma utilizza una tecnologia chiamata "tunnel" come mezzo di trasmissione. Questo tunnel viene stabilito su una rete pubblica o privata SU. Le tecnologie di tunnel più comuni includono: protocollo di tunneling punto a punto (PPTP), protocollo di tunneling di livello 2 (L2TP) e protocollo di sicurezza IP (IPSec).
4. scansione di sicurezza
La scansione di sicurezza include la scansione delle vulnerabilità, la scansione delle porte, la scansione delle password (scoperta di password deboli), ecc.
La scansione di sicurezza può essere completata applicando un software chiamato scanner. Lo scanner è uno degli strumenti di rilevamento della sicurezza di rete più efficaci. È in grado di rilevare automaticamente i punti deboli della sicurezza negli host remoti o locali e nei sistemi di rete, nonché le vulnerabilità del sistema esistenti che potrebbero essere sfruttate .
5. Tecnologia honeypot di rete
La tecnologia Honeypot è una tecnologia di difesa attiva e un'importante direzione di sviluppo della tecnologia di rilevamento delle intrusioni. È anche una trappola per "intrappolare" gli aggressori. Un sistema honeypot è un sistema esca che contiene vulnerabilità e fornisce a un utente malintenzionato un bersaglio facile simulando uno o più host e servizi vulnerabili. Gli aggressori spesso perdono tempo con gli honeypot, ritardando gli attacchi ai loro obiettivi reali. Grazie alle caratteristiche e ai principi della tecnologia honeypot, può fornire informazioni importanti e indizi utili per l'analisi forense delle intrusioni, rendendo più semplice lo studio del comportamento di attacco dell'intruso.
vi. Tecnologia di protezione dalle minacce Web
1. Tecnologia di controllo dell'accesso al web
Il controllo degli accessi è la strategia principale per la prevenzione e la protezione della sicurezza dei siti Web. Il suo compito principale è garantire che i visitatori illegali non accedano alle risorse di rete.
2. Tecnologia Single Sign-On (SSO).
Fornire un'autenticazione dell'identità centralizzata e unificata per i sistemi applicativi per ottenere "login a un punto, più punti di accesso".
3. Tecnologia anti-manomissione delle pagine web
(1) tecnologia di polling temporale
Utilizzare il programma di rilevamento della pagina Web per leggere la pagina Web da monitorare in modalità polling, confrontarla con la pagina Web reale per giudicare l'integrità del contenuto della pagina Web e allarmare e ripristinare la pagina Web manomessa.
(2) Tecnologia integrata nel nucleo
La cosiddetta tecnologia core embedded è la tecnologia di watermarking delle password. Questa tecnologia incorpora il modulo di rilevamento delle manomissioni nel software del server Web, esegue controlli di integrità quando ciascun membro della rete lascia la rete, blocca le pagine Web manomesse in tempo reale e fornisce allarmi e ripristino.
(3) tecnologia di attivazione di eventi
Consiste nell'utilizzare il file system o l'interfaccia del driver del sistema operativo per verificare la legalità quando il file della pagina Web viene modificato e per allarmare e ripristinare operazioni illegali.
(4) Tecnologia del driver del filtro file
È una tecnologia anti-manomissione semplice, efficiente, sicura ed estremamente elevata. Attraverso il metodo di attivazione degli eventi, il contenuto dei file in tutte le cartelle del server Web viene confrontato con gli attributi del file sottostante e l'algoritmo hash fast integrato viene utilizzato per il monitoraggio in tempo reale se vengono rilevate modifiche agli attributi, il contenuto del file la cartella del percorso di backup viene copiata nel file di monitoraggio. La posizione del file corrispondente della cartella rende la pagina manomessa invisibile al pubblico.
4. Sicurezza dei contenuti web
La gestione della sicurezza dei contenuti è suddivisa in tre tecnologie: filtro e-mail, filtro Web e anti-spyware.
vii. firewall di prossima generazione
1. Next Generation Firewall (NGFW) è un firewall ad alte prestazioni in grado di rispondere in modo completo alle minacce a livello di applicazione. Attraverso approfondimenti su utenti, applicazioni e contenuti nel traffico di rete e con l'aiuto di un nuovo motore di elaborazione parallela eterogenea a percorso singolo e ad alte prestazioni, NGFW può fornire agli utenti un'efficace protezione di sicurezza integrata a livello di applicazione, aiutando gli utenti a condurre affari in modo sicuro e semplificare l’architettura di sicurezza della rete.
2. Con l’uso diffuso di SOA e Web2.0 nei sistemi informativi, una maggiore quantità di traffico viene trasportata solo attraverso poche porte e un numero limitato di protocolli, il che significa che la correlazione tra le politiche di sicurezza basate su porta/protocollo e l’efficienza sta diminuendo e inferiori, e i firewall tradizionali non sono sostanzialmente in grado di rilevare le minacce che utilizzano le botnet come metodi di trasmissione.
3. Sulla base del tradizionale filtraggio dei pacchetti del firewall, della traduzione degli indirizzi di rete (NAT), dell'ispezione dello stato del protocollo e delle funzioni VPN, NGFW aggiunge le seguenti nuove funzioni:
(1) Sistema di prevenzione delle intrusioni (IPS)
La funzione DPI di NGFW include IPS
(2) Visualizzazione basata sul riconoscimento dell'applicazione
NGFW blocca o consente i pacchetti a seconda di dove sono diretti. Lo fanno analizzando il traffico al livello 7 (il livello dell'applicazione). I firewall tradizionali non hanno questa funzionalità perché analizzano solo il traffico di livello 3 e livello 4.
(3) Firewall intelligente:
Diversi tipi di informazioni al di fuori del firewall possono essere raccolte e utilizzate per migliorare le decisioni di blocco o servire come base per ottimizzare le regole di blocco. Ad esempio, utilizza l'integrazione della directory per applicare il blocco in base all'identità dell'utente o la lista nera e la lista bianca in base all'indirizzo.
viii. Tecnologia di analisi del comportamento di sicurezza
I prodotti, le tecnologie e le soluzioni di sicurezza tradizionali si basano fondamentalmente sulla corrispondenza delle regole di funzionalità note per l'analisi e il rilevamento. Basata su caratteristiche, regole e analisi umane, l'analisi di rilevamento con "caratteristiche" poiché il nucleo ha punti ciechi di visibilità della sicurezza, effetti di isteresi, facile da aggirare e difficoltà ad adattarsi alla realtà della rete di confronto offensivo e difensivo, l'organizzazione in rapida evoluzione ambiente e minacce esterne e altri problemi. D'altro canto, anche se la maggior parte degli attacchi può provenire dall'esterno dell'organizzazione, i danni gravi vengono spesso causati dagli interni. Solo gestendo le minacce interne è possibile garantire la sicurezza delle informazioni e della rete.
User and Entity Behavior Analytics (UEBA) fornisce la profilazione degli utenti e il rilevamento delle anomalie in base a vari metodi di analisi, combinando metodi di analisi di base (utilizzando regole di firma, corrispondenza di modelli, statistiche semplici, soglie, ecc.) e metodi di analisi avanzati (apprendimento automatico supervisionato e non supervisionato , ecc.), utilizzare analisi pacchettizzate per valutare utenti e altre entità (host, applicazioni, reti, database, ecc.) e scoprire attività correlate a profili standard o comportamenti anomali di potenziali eventi di utenti o entità.
UEBA è un sistema completo, che coinvolge parti di ispezione come le forze dell'ordine e l'ingegneria, nonché lo scambio di utenti e l'antiblocco come l'ordinamento e la regolazione del punteggio di rischio di utenti ed entità. Da un punto di vista architetturale, i sistemi UEBA solitamente includono uno strato di acquisizione dati, uno strato di analisi degli algoritmi e uno strato di applicazione del campo.
ix. Consapevolezza situazionale della sicurezza della rete
1. La consapevolezza della situazione di sicurezza della rete è l'acquisizione, la comprensione e la visualizzazione dei fattori di sicurezza che possono causare cambiamenti nella situazione della rete in un ambiente di rete su larga scala e, sulla base di ciò, la previsione delle future tendenze di sviluppo della sicurezza della rete. Si tratta di una capacità basata sull'ambiente, dinamica e globale di acquisire informazioni sui rischi per la sicurezza. Sulla base della sicurezza vengono eseguiti big data, integrazione dei dati, estrazione di funzionalità, ecc., quindi vengono applicati una serie di metodi di valutazione della situazione per generare la situazione complessiva della rete. Vengono utilizzati algoritmi di previsione della situazione per prevedere lo sviluppo della situazione e la tecnologia di visualizzazione dei dati viene utilizzata per combinare situazione e situazione. La situazione prevista viene mostrata al personale di sicurezza, consentendo al personale di sicurezza di comprendere in modo intuitivo e conveniente lo stato attuale della rete e i rischi previsti.
2. Le tecnologie chiave per la consapevolezza situazionale della sicurezza della rete includono principalmente:
(1) Tecnologia di convergenza e fusione di grandi quantità di dati eterogenei
(2) Tecnologia di valutazione delle minacce alla sicurezza della rete per più tipi
(3) Valutazione della situazione della sicurezza della rete e tecnologia di supporto alle decisioni
(4) Visualizzazione della situazione della sicurezza della rete
vi. Sviluppo della tecnologia dell'informazione
Come fondamento della tecnologia dell'informazione, software e hardware, reti, archiviazione e database, sicurezza delle informazioni, ecc. sono in costante sviluppo e innovazione, guidando l'attuale tendenza dello sviluppo della tecnologia dell'informazione.
In termini di software e hardware, la tecnologia hardware del computer si svilupperà nella direzione dell'altissima velocità, delle dimensioni ultraridotte, dell'elaborazione parallela e dell'intelligenza. Le apparecchiature hardware del computer diventeranno sempre più piccole, sempre più veloci, con capacità maggiori e consumo energetico inferiore. Sta diventando sempre più basso e l'affidabilità sta diventando sempre più alta. Il software per computer sta diventando sempre più abbondante e le sue funzioni stanno diventando sempre più potenti. Il concetto di "il software definisce tutto" è diventato la corrente principale dello sviluppo attuale.
Nella tecnologia di rete il collegamento tra rete informatica e tecnologia della comunicazione diventa sempre più stretto e addirittura integrato. Essendo una delle infrastrutture più importanti del Paese, il 5G è diventato l'attuale mainstream, mirando all'Internet delle cose e agli scenari a bassa latenza dell'Internet delle cose a banda stretta (NB-IoT) e alle comunicazioni potenziate di tipo macchina (tecnologie delle macchine potenziate come Type Communication (eMTC), Industrial Internet of Things (lloT) e Ultra Reliable Low Latency Communication (URLC) saranno ulteriormente sviluppati.
In termini di archiviazione e database, la crescita esplosiva del volume di dati ha promosso la continua evoluzione della tecnologia dei database nella direzione dell’espansione del modello e del disaccoppiamento dell’architettura.
In termini di sicurezza delle informazioni, il tradizionale concetto di sicurezza informatica passerà alla sicurezza informatica con il concetto di Trusted Computing come nucleo centrale. I cambiamenti nella tecnologia e nei modelli applicativi causati dalla divulgazione e dall’applicazione della rete stanno promuovendo ulteriormente l’innovazione delle tecnologie chiave per la sicurezza delle informazioni in rete; allo stesso tempo, le informazioni La ricerca e la formulazione di standard di sicurezza e l'integrazione e l'integrazione di prodotti e servizi per la sicurezza delle informazioni stanno guidando l'attuale standardizzazione e lo sviluppo dell'integrazione della tecnologia di sicurezza delle informazioni.
三、 Tecnologie e applicazioni informatiche di nuova generazione
I. L'Internet delle cose, il cloud computing, i big data, la blockchain, l'intelligenza artificiale, la realtà virtuale e altre tecnologie informatiche di nuova generazione e nuovi formati di business che utilizzano pienamente le risorse informative sono le principali tendenze nello sviluppo dell'informatizzazione e il principale ambito di business delle informazioni settore dell’integrazione dei sistemi in futuro.
II. Internet delle cose
i. L’Internet of Things risolve principalmente l’interconnessione tra cose (Thing to Thing, T2T), persone e cose (Human to Thing, H2T), e persone e persone (Human to Human, H2H). Inoltre, molti studiosi introducono spesso il concetto di M2M quando parlano di Internet of Things: può essere interpretato come Man to Man, Man to Machine o Machine to Machine.
ii. fondamento tecnico
1. L’architettura IoT può essere divisa in tre livelli
(1) Strato percettivo
È composto da vari sensori, inclusi sensori di temperatura, tag con codice QR, tag RFID, lettori, fotocamere, GPS e altri terminali di rilevamento. Lo strato di percezione è la fonte per identificare gli oggetti e raccogliere informazioni nell’Internet delle cose.
(2) Livello di rete
È composto da varie reti, tra cui Internet, reti radiofoniche e televisive, sistemi di gestione della rete e piattaforme di cloud computing. È il fulcro dell'intero Internet of Things ed è responsabile della trasmissione e dell'elaborazione delle informazioni ottenute dallo strato di percezione.
(3) Livello di applicazione
È l'interfaccia tra l'Internet delle cose e gli utenti. Si combina con le esigenze dell'industria per realizzare applicazioni intelligenti dell'Internet delle cose.
2. La catena industriale dell’Internet delle cose comprende sensori e chip, apparecchiature, operazioni e servizi di rete, sviluppo di software e applicazioni e integrazione di sistemi. La tecnologia Internet of Things ha applicazioni molto critiche e importanti nelle reti intelligenti, nella logistica intelligente, nelle case intelligenti, nei trasporti intelligenti, nell’agricoltura intelligente, nella protezione ambientale, nella sanità medica, nella gestione urbana (città intelligenti), nei servizi finanziari e assicurativi, nella sicurezza pubblica, ecc.
iii. Tecnologia chiave
1. Tecnologia dei sensori
Un sensore è un dispositivo di rilevamento in grado di "sentire" le informazioni misurate e convertire le informazioni rilevate in segnali elettrici o altre forme di output di informazioni secondo determinate regole per soddisfare le esigenze di trasmissione, elaborazione e archiviazione, visualizzazione, registrazione e requisiti di controllo. È il collegamento principale per ottenere il rilevamento e il controllo automatici ed è anche il mezzo di base per l'Internet delle cose per ottenere informazioni sul mondo fisico.
L'identificazione a radiofrequenza (RFID) è una tecnologia di sensori utilizzata nell'Internet delle cose e ha attirato molta attenzione nello sviluppo dell'Internet delle cose. Il RIFD può identificare target specifici e leggere e scrivere i dati correlati tramite segnali radio senza stabilire un contatto meccanico o ottico tra il sistema di identificazione e il target specifico. L'RFID è un semplice sistema wireless costituito da un interrogatore (o lettore) e da numerosi transponder (o tag). Il tag è composto da un elemento di accoppiamento e un chip. Ciascun tag ha un codice elettronico univoco per il periodo esteso ed è attaccato all'oggetto per identificare l'oggetto target. Trasmette informazioni in radiofrequenza al lettore attraverso l'antenna e il lettore è il dispositivo che legge le informazioni. La tecnologia RFID permette agli oggetti di "parlare". Ciò conferisce all’Internet delle cose una caratteristica che è la tracciabilità. Vale a dire, le persone possono cogliere in qualsiasi momento la posizione esatta degli oggetti e dell'ambiente circostante.
2. rete di sensori
I sistemi microelettromeccanici (MEMS) sono sistemi di microdispositivi integrati composti da microsensori, microattuatori, circuiti di elaborazione e controllo del segnale, interfacce di comunicazione, alimentatori e altri componenti. Il suo obiettivo è integrare l'acquisizione, l'elaborazione e l'esecuzione delle informazioni per formare un microsistema multifunzionale e integrarlo in un sistema su larga scala, migliorando così notevolmente il livello di automazione, intelligenza e affidabilità del sistema. I MEMS danno nuova vita agli oggetti ordinari. Hanno i propri canali di trasmissione dati, funzioni di archiviazione, sistemi operativi e applicazioni specializzate, formando così un'enorme rete di sensori.
3. Inquadramento del sistema applicativo
Il framework del sistema applicativo Internet of Things è un'applicazione e un servizio in rete con l'interazione intelligente del terminale della macchina come nucleo. Consentirà il controllo intelligente degli oggetti, coinvolgendo cinque importanti parti tecniche: macchine, hardware dei sensori, reti di comunicazione, middleware e applicazioni. Questo quadro si basa su una piattaforma di cloud computing e una rete intelligente e può prendere decisioni sulla base dei dati ottenuti dalle reti di sensori, modificando il controllo del comportamento e il feedback degli oggetti.
iv. Applicazione e sviluppo
Le applicazioni nei settori delle infrastrutture come l'industria, l'industria dell'abbigliamento, l'ambiente, i trasporti, la logistica e la sicurezza hanno effettivamente promosso lo sviluppo intelligente di queste aree, consentendo di utilizzare e distribuire in modo più razionale risorse limitate nei settori dell'arredamento della casa, della sanità, della sanità e dell'edilizia; istruzione, L'applicazione del Golden Touch nel settore dei servizi, nel turismo e in altri campi, attraverso la piena integrazione con le scienze sociali e la governance sociale, ha ottenuto grandi cambiamenti e progressi nell'ambito del servizio, nei metodi di servizio e nella qualità del servizio.
III. cloud computing
i. Il cloud computing è un tipo di elaborazione distribuita Agli albori del cloud computing, si trattava di semplice elaborazione distribuita, distribuzione delle attività e fusione dei risultati dei calcoli. L’attuale cloud computing non è solo una sorta di calcolo distribuito, ma il risultato dell’evoluzione mista e del salto di tecnologie informatiche come il calcolo distribuito, l’utility computing, il bilanciamento del carico, il calcolo parallelo, l’archiviazione di rete, la ridondanza del backup a caldo e la virtualizzazione.
ii. fondamento tecnico
1. Il cloud computing è un metodo informatico basato su Internet in cui risorse software condivise, risorse di calcolo, risorse di archiviazione e risorse informative sono configurate sulla rete e fornite su richiesta ai dispositivi terminali online e agli utenti finali. Il cloud computing può anche essere inteso come un’architettura di elaborazione distribuita che protegge gli utenti dalle differenze sottostanti. In un ambiente di cloud computing, gli utenti sono separati dalle risorse informatiche fornite dai servizi effettivi e il cloud raccoglie dispositivi e risorse informatiche.
2. Quando utilizzano i servizi di cloud computing, gli utenti non hanno bisogno di organizzare personale di manutenzione dedicato. I fornitori di servizi di cloud computing forniranno un livello relativamente elevato di protezione per la sicurezza dei dati e dei server. Poiché il cloud computing memorizza i dati nel cloud (la parte di un dispositivo di cloud computing distribuito che svolge funzioni di calcolo e archiviazione), la logica aziendale e i relativi calcoli vengono completati nel cloud. Pertanto, il terminale necessita solo di un normale dispositivo in grado di soddisfare le applicazioni di base .
3. In base al livello di risorse fornite dai servizi di cloud computing, possono essere suddivisi in tre tipologie: Infrastruttura come servizio (IaaS), Piattaforma come servizio (PaaS) e Software come servizio (SaaS).
(1) IaaS fornisce agli utenti servizi infrastrutturali come alimentazione del computer e spazio di archiviazione. Questo modello di servizio richiede grandi investimenti infrastrutturali ed esperienza operativa e gestionale a lungo termine, e la sua redditività semplicemente affittando le risorse è limitata.
(2) PaaS fornisce agli utenti servizi di piattaforma come sistemi operativi virtuali, sistemi di gestione di database e applicazioni Web. Il focus dei servizi PaaS non è sui benefici economici diretti, ma sulla costruzione e la formazione di un vicino ecosistema industriale.
(3) SaaS fornisce agli utenti software applicativo (come CRM, software per ufficio, ecc.), componenti, flussi di lavoro e altri servizi software virtualizzati SaaS utilizza generalmente la tecnologia Web e l'architettura SOA per fornire agli utenti funzionalità applicative multi-tenant e personalizzabili attraverso Internet. riduzione Riduce la complessità degli aggiornamenti, della personalizzazione, del funzionamento e della manutenzione del software e consente ai fornitori di software di trasformarsi da produttori di prodotti software a operatori di servizi applicativi.
iii. Tecnologia chiave
1. Le tecnologie chiave del cloud computing coinvolgono principalmente
(1) tecnologia di virtualizzazione
Virtualizzazione è un termine ampio che generalmente si riferisce a elementi informatici eseguiti su base virtuale piuttosto che su base reale. La tecnologia di virtualizzazione può espandere la capacità dell'hardware e semplificare il processo di riconfigurazione del software. La tecnologia di virtualizzazione della CPU può simulare più CPU in parallelo con una singola CPU, consentendo a una piattaforma di eseguire più sistemi operativi contemporaneamente e le applicazioni possono essere eseguite in spazi indipendenti senza influenzarsi a vicenda, migliorando così significativamente l'efficienza del lavoro del computer.
La tecnologia container è una nuova tecnologia di virtualizzazione in un nuovo senso, che appartiene alla categoria della virtualizzazione del sistema operativo, ovvero il sistema operativo fornisce il supporto per la virtualizzazione. L'ambiente container più popolare attualmente è Docker. La tecnologia dei contenitori divide le risorse di un singolo sistema operativo in gruppi isolati per bilanciare meglio le esigenze contrastanti di utilizzo delle risorse tra i gruppi isolati. L'uso della tecnologia dei contenitori può isolare l'applicazione in un ambiente di esecuzione indipendente, riducendo così il consumo aggiuntivo causato dall'esecuzione del programma e può essere eseguito allo stesso modo quasi ovunque.
(2) Tecnologia di archiviazione nel cloud
La tecnologia di archiviazione cloud è un nuovo metodo di archiviazione e gestione delle informazioni sviluppato sulla base dei sistemi multimediali tradizionali. Questo metodo integra i vantaggi software e hardware dei sistemi informatici e può elaborare grandi quantità di dati online in modo rapido ed efficiente attraverso una varietà di applicazioni cloud le piattaforme consentono un'analisi approfondita del data mining e della gestione della sicurezza.
Essendo una parte importante della tecnologia di archiviazione cloud, i file system distribuiti migliorano la replica del sistema e le funzioni di tolleranza agli errori mantenendo la compatibilità.
(3) Gestione multi-tenancy e controllo accessi
Si tratta di una delle questioni centrali nelle applicazioni del cloud computing. La ricerca sul controllo degli accessi al cloud computing si concentra principalmente sui modelli di controllo degli accessi al cloud computing, sul controllo degli accessi sul cloud computing basato sulla crittografia ABE, sul controllo degli accessi multi-tenant e sulla virtualizzazione nel cloud.
Il modello di controllo degli accessi del cloud computing è un metodo per descrivere il sistema di sicurezza in base a politiche di accesso specifiche e stabilire un modello di sicurezza. In base alle diverse funzioni del modello di controllo degli accessi, anche i contenuti e i metodi di ricerca sono diversi. Quelli comuni includono il modello di controllo degli accessi basato sulle attività, il controllo degli accessi sul cloud computing basato su modelli di attributi, il controllo degli accessi sul cloud computing basato sul modello UCON e BLP. cloud computing basato su modelli, controllo degli accessi, ecc.
Il controllo dell'accesso al cloud computing basato sul meccanismo della password ABE comprende quattro parti: fornitori di dati, centri di autorizzazione di terze parti affidabili, server di archiviazione cloud e utenti. Innanzitutto, il centro di autorizzazione attendibile genera la chiave master e i parametri pubblici e passa la chiave pubblica del sistema al fornitore di dati. Dopo che il fornitore di dati ha ricevuto la chiave pubblica del sistema, utilizza l'albero delle politiche e la chiave pubblica del sistema per crittografare il file converte il testo cifrato e la policy L'albero viene caricato sul server cloud quindi, quando un nuovo utente si unisce al sistema, carica il suo set di attributi nel centro di autorizzazione attendibile e invia una richiesta di applicazione della chiave privata set di attributi e chiave master inviati dall'utente La chiave privata viene passata all'utente; infine, l'utente scarica i dati di interesse. Se il suo insieme di attributi soddisfa la struttura ad albero delle politiche dei dati del testo cifrato, il testo cifrato può essere decrittografato, altrimenti l'accesso ai dati fallisce;
(4) Tecnologia di sicurezza nel cloud
La ricerca sulla sicurezza del cloud comprende principalmente due aspetti: il primo è la protezione della sicurezza della stessa tecnologia del cloud, che implica l'integrità e la disponibilità dei dati, la protezione della privacy, la disponibilità dei servizi, ecc.; l'altro è l'uso dei servizi cloud degli utenti dei clienti, la sicurezza di Internet viene ottenuta attraverso la tecnologia del cloud computing, che prevede la prevenzione dei virus basata sul cloud computing e la tecnologia di rilevamento dei trojan, ecc.
In termini di ricerca sulla tecnologia di sicurezza cloud, include principalmente:
1||| Sicurezza del cloud computing
Analizza principalmente il cloud stesso e i servizi applicativi coinvolti, concentrandosi sui relativi problemi di sicurezza. Riguarda principalmente come implementare in modo efficace l'isolamento della sicurezza, garantire la sicurezza dei dati degli utenti di Internet e come proteggere efficacemente il sistema da attacchi di rete dannosi sicurezza della piattaforma di cloud computing, nonché autenticazione dell'accesso degli utenti e corrispondente controllo e sicurezza della trasmissione delle informazioni.
2||| Protezione dell'infrastruttura cloud
La cosa principale è come utilizzare le risorse corrispondenti delle corrispondenti apparecchiature dell'infrastruttura di sicurezza Internet per ottimizzare in modo efficace i servizi cloud, in modo che P&I possa soddisfare i requisiti di protezione della sicurezza previsti.
3||| Servizi tecnologici di sicurezza cloud
Come garantire i requisiti dei servizi di sicurezza degli utenti finali di Internet e implementare in modo efficace la prevenzione dei virus informatici e altri servizi correlati sul lato client. A giudicare dallo sviluppo dell’architettura di sicurezza del cloud, se il livello di sicurezza dei servizi di cloud computing non è elevato, gli utenti del servizio dovranno disporre di capacità di sicurezza più forti e assumersi maggiori responsabilità di gestione.
2. Al fine di migliorare le capacità del sistema di sicurezza del cloud e garantirne la forte affidabilità, la tecnologia di sicurezza del cloud deve essere considerata dal punto di vista dell’apertura e dell’architettura di garanzia della sicurezza.
(1) Il sistema di sicurezza cloud ha un certo grado di apertura e deve garantire un'autenticazione affidabile in un ambiente aperto:
(2) In termini di sistemi di sicurezza cloud, dobbiamo adottare attivamente tecnologie di rete avanzate e tecnologie di protezione antivirus;
(3) Durante il processo di costruzione del sistema di sicurezza cloud, è necessario garantirne la stabilità per far fronte ai cambiamenti dinamici di enormi quantità di dati.
iv. Applicazione e sviluppo
1. Dopo più di dieci anni di sviluppo, il cloud computing è gradualmente entrato in una fase matura e sta svolgendo un ruolo sempre più importante in molti campi. "Andare al cloud" diventerà per varie organizzazioni il primo passo per accelerare la trasformazione digitale, incoraggiare l'innovazione tecnologica, e promuovere la crescita aziendale. Una scelta, anzi un presupposto necessario.
2. Il cloud computing diventerà ulteriormente un importante vettore e un banco di prova per tecnologie innovative e migliori pratiche ingegneristiche. Dall'intelligenza artificiale e dall'apprendimento automatico, dall'IoT all'edge computing, dalla blockchain al DevOps, dal cloud nativo e dalla rete di servizi nella pratica ingegneristica, i fornitori di cloud computing partecipano attivamente, investono e promuovono. Prendendo come esempio l’intelligenza artificiale, dalla fornitura di risorse di GPU Computing nel TaaS menzionata sopra, all’apertura di capacità di modelli maturi in campi specifici (come le API per l’elaborazione di vari linguaggi naturali, il riconoscimento delle immagini e la sintesi linguistica), per contribuire a creare una piattaforma di apprendimento automatico personalizzata del modello AJ, il cloud computing è effettivamente diventato la base delle tecnologie legate all'intelligenza artificiale.
3. Il cloud computing seguirà il trend dell’Internet industriale, affonderà negli scenari industriali e si svilupperà in profondità verso la verticalizzazione e l’industrializzazione.
4. Lo sviluppo porta nuovi problemi:
(1) Sebbene il cloud possa già fornire una disponibilità molto elevata, per evitare il rischio di fallimento di un singolo fornitore, le applicazioni critiche devono comunque creare la necessaria ridondanza tecnica;
(2) Quando la scala aziendale è ampia, dal punto di vista della strategia aziendale, è anche necessario evitare un accordo troppo stretto con il produttore al fine di ricercare un certo livello di controlli, equilibri e iniziativa aziendale.
5. Le quattro principali tendenze di “innovazione, verticalità, ibridazione ed ecologia” sono accompagnate dal rapido sviluppo del cloud computing. Il cloud computing standardizza, astrae e ridimensiona le risorse hardware e i componenti software IT. In un certo senso, sovverte e ricostruisce la catena di fornitura del settore IT. Si tratta di un’enorme innovazione e progresso nello sviluppo dell’attuale nuova generazione di tecnologia dell’informazione.
IV. Grandi dati
i. I Big Data si riferiscono a una raccolta di dati che non può essere acquisita, gestita ed elaborata entro un certo periodo di tempo utilizzando strumenti software convenzionali. Si tratta di una raccolta di dati massiccia, ad alta crescita e ad alto volume con un forte potere decisionale, scoperta di informazioni e capacità di ottimizzazione dei processi. Asset informativi diversificati.
ii. fondamento tecnico
1. I big data sono dati con caratteristiche di grande volume, struttura diversificata e forte tempestività. L’elaborazione dei big data richiede l’uso di nuove tecnologie come nuove architetture contabili e di prestito e algoritmi intelligenti. Dalla fonte dei dati alla realizzazione del valore finale, i big data richiedono generalmente processi quali la preparazione dei dati, l'archiviazione e la gestione dei dati, l'analisi e il calcolo dei dati, la governance dei dati e la presentazione della conoscenza, che coinvolgono modelli di dati, modelli di elaborazione, teoria informatica e relativo calcolo distribuito, ricerca su tecnologia della piattaforma di archiviazione distribuita, tecnologia di pulizia e mining dei dati, tecnologia di streaming computing e di elaborazione incrementale, controllo della qualità dei dati, ecc.
2. In generale, le principali caratteristiche dei big data includono:
(1) Dati enormi
Passa dal livello TB al livello PB (IPB=l024TB), al livello EB (IEB=I024PB) e raggiungi persino il livello ZB (IZB=I024EB).
(2) Vari tipi di dati
Esistono molti tipi di dati nei big data, generalmente suddivisi in dati strutturati e dati non strutturati. Rispetto ai dati strutturati basati su testo archiviati in passato, esistono sempre più dati non strutturati, inclusi registri web, audio, video, immagini, informazioni sulla posizione geografica, ecc. Questi molteplici tipi di dati hanno maggiori capacità di elaborazione dei dati Sono state avanzate richieste più elevate.
(3) Bassa densità del valore dei dati
Il livello di densità del valore dei dati è inversamente proporzionale alla dimensione dell'abbondanza totale di dati. Prendiamo ad esempio il video. Per un video di un'ora, sotto monitoraggio continuo e ininterrotto, i dati utili potrebbero essere solo uno o due secondi. Come "depurare" il valore dei dati più rapidamente attraverso potenti algoritmi delle macchine è diventato un problema urgente da risolvere nell'attuale contesto dei big data.
(4) Elaborazione rapida dei dati
Per estrarre rapidamente il valore dei dati da enormi quantità di dati, è generalmente necessario elaborare rapidamente diversi tipi di dati. Questa è la caratteristica più significativa dei big data che li distingue dal data mining tradizionale.
iii. Tecnologia chiave
1. Essendo una tecnologia emergente nell'era dell'informazione, la tecnologia dei big data coinvolge molti aspetti come l'elaborazione, la gestione e l'applicazione dei dati. Nello specifico, l'architettura tecnica studia e analizza dal punto di vista tecnico l'acquisizione, la gestione, l'elaborazione distribuita e l'applicazione dei big data.
2. L'architettura della tecnologia Big Data include principalmente
(1) Tecnologia di acquisizione dei big data
La ricerca sull’acquisizione dei big data si concentra principalmente su tre aspetti: raccolta dei dati, integrazione e pulizia. La tecnologia di acquisizione dati realizza l'acquisizione delle origini dati e quindi garantisce la qualità dei dati attraverso l'integrazione e la tecnologia di pulizia.
La tecnologia di raccolta dati ottiene principalmente informazioni sui dati dai siti Web attraverso la scansione distribuita, la raccolta dati distribuita ad alta velocità e alta affidabilità e la tecnologia di imaging dei dati dell'intera rete ad alta velocità. Oltre ai contenuti contenuti nella rete, la raccolta degli addebiti sul traffico di rete può essere elaborata utilizzando tecnologie di gestione della larghezza di banda come DPI o DFI.
La tecnologia di integrazione dei dati si basa sulla raccolta dei dati e sul riconoscimento delle entità per ottenere un'integrazione di alta qualità dei dati nelle informazioni. La tecnologia di integrazione dei dati include modelli di integrazione delle informazioni multi-sorgente e multimodale, modelli di conversione intelligente di dati eterogenei, algoritmi intelligenti di estrazione di modelli e corrispondenza di modelli per l'integrazione di dati eterogenei, mappatura automatica con tolleranza agli errori e calibrazione e algoritmi di conversione, e metodi di verifica della correttezza per sistemi integrati informazioni, metodi di valutazione dell'usabilità dell'informazione integrata, ecc.
La tecnologia di pulizia dei dati generalmente rimuove dati irragionevoli ed errati in base a condizioni di correttezza e regole di vincolo dei dati, ripara informazioni importanti e garantisce l'integrità dei dati. Compreso il modello semantico della correttezza dei dati, il modello di associazione e le regole di vincolo dei dati, il modello di errore dei dati e il quadro di apprendimento per il riconoscimento degli errori, algoritmi di rilevamento e riparazione automatici per diversi tipi di errore, modelli di valutazione e metodi di valutazione dei risultati di rilevamento e riparazione degli errori, ecc.
(2) Tecnologia di elaborazione dati distribuita
Il calcolo distribuito è emerso con lo sviluppo di sistemi distribuiti. Il suo nucleo è scomporre le attività in tante piccole parti e assegnarle a più computer per l'elaborazione. Attraverso il meccanismo del lavoro parallelo, è possibile risparmiare tempo di elaborazione complessivo e migliorare l'efficienza del calcolo . Attualmente, i principali sistemi informatici distribuiti includono Hadoop, Spark e Storm. Hadoop viene spesso utilizzato per l'elaborazione complessa di Big Data offline, Spark viene spesso utilizzato per l'elaborazione rapida di Big Data offline e Storm viene spesso utilizzato per l'elaborazione di Big Data online in tempo reale.
L'analisi dei big data e la tecnologia di mining si riferiscono principalmente al miglioramento delle tecnologie di data mining e machine learning esistenti: nuove tecnologie di data mining come il mining di reti di dati Shengfa, il mining di gruppi specifici e il mining di grafici che innovano i big data come le connessioni dati basate su oggetti e le connessioni di somiglianza Tecnologia di fusione: scoperte nelle tecnologie di big data mining orientate al campo come l'analisi degli interessi degli utenti, l'analisi del comportamento della rete e l'analisi semantica emotiva.
(3) Tecnologia di gestione dei big data
La tecnologia di gestione dei Big Data si concentra principalmente sull’archiviazione dei Big Data, sulla collaborazione dei Big Data, sulla sicurezza e sulla privacy.
La tecnologia di archiviazione dei big data presenta principalmente tre aspetti:
1||| Un nuovo cluster di database che utilizza l'architettura MPP;
2||| Le tecnologie Big Data correlate sono state derivate da Hadoop;
3||| Sulla base di server integrati, dispositivi di archiviazione, sistemi operativi e sistemi di gestione di database, viene realizzata una macchina all-in-one per big data con buona stabilità e scalabilità.
La tecnologia di gestione collaborativa di più data center è un'altra direzione importante della ricerca sui big data. Attraverso il motore del flusso di lavoro distribuito, vengono realizzati la pianificazione del flusso di lavoro e il bilanciamento del carico e le risorse di archiviazione ed elaborazione di più data center vengono integrate per fornire supporto per la creazione di una piattaforma di servizi Big Data.
La ricerca sulla tecnologia della privacy dei big data si concentra principalmente sulle nuove tecnologie di rilascio dei dati, cercando di massimizzare la privacy degli utenti riducendo al minimo la perdita di informazioni sui dati, soddisfacendo così le esigenze di sicurezza dei dati e protezione della privacy.
(4) Applicazione e tecnologia dei servizi Big Data
1||| Le tecnologie applicative e di servizio dei Big Data comprendono principalmente la tecnologia applicativa di analisi e la tecnologia di visualizzazione.
2||| Le applicazioni di analisi dei big data sono principalmente applicazioni di analisi orientate al business. Basata sull'analisi e sull'estrazione di dati distribuiti sul livello del mare, la tecnologia applicativa di analisi dei big data è guidata dalle esigenze aziendali, esegue analisi dei dati speciali per diversi tipi di esigenze aziendali e fornisce agli utenti servizi di analisi dei dati altamente disponibili e facili da usare .
3||| La visualizzazione aiuta le persone a esplorare e comprendere dati complessi attraverso rappresentazioni visive interattive. La tecnologia di visualizzazione dei big data si concentra principalmente sulla tecnologia di visualizzazione del testo, sulla tecnologia di visualizzazione di rete (grafico), sulla tecnologia di visualizzazione dei dati spaziotemporali, sulla visualizzazione di dati multidimensionali e sulla visualizzazione interattiva, ecc.
iv. Applicazione e sviluppo
1. Nel settore Internet, l'estrazione del comportamento degli utenti dai dati di Dalan e la sua ritrasmissione al campo aziendale supporta marketing sociale e pubblicità più accurati, che possono aumentare le entrate aziendali e promuovere lo sviluppo del business.
2. Nel campo dei dati pubblici governativi, in combinazione con la raccolta, la gestione e l'integrazione dei big data, le informazioni raccolte da vari dipartimenti vengono analizzate e condivise, il che può scoprire lacune gestionali, aumentare le entrate fiscali e tributarie, aumentare la supervisione del mercato e cambiare notevolmente il modello di gestione del governo. Migliorare il livello di governance sociale.
3. In ambito finanziario, il reporting creditizio basato sui big data costituisce un importante campo di applicazione. Fornire un supporto efficace ai servizi finanziari attraverso l’analisi e la profilazione dei big data.
4. In campo industriale, combinato con l'analisi dei dati sulla pressione del mare, può fornire una guida accurata per il processo di produzione industriale.
5. Nel campo del sostentamento sociale e delle persone, l’analisi e l’applicazione dei big data possono servire meglio il sostentamento delle persone.
V. Blockchain
i. Il concetto di "blockchain" è stato proposto per la prima volta nel 2008 in "Bitcoin: A Peer-to-Peer Electronic Cash System" ed è stato applicato con successo nel sistema valutario di crittografia dei dati del sistema Bitcoin. È diventato il focus di governi, organizzazioni e studiosi e punti caldi della ricerca. La tecnologia Blockchain ha le caratteristiche di archiviazione multicentrica, protezione della privacy e resistenza alle manomissioni. Fornisce un meccanismo di transazione aperto, decentralizzato e tollerante ai guasti ed è diventata il nucleo di una nuova generazione di pagamenti online anonimi, rimesse e risorse digitali. È ampiamente utilizzata nelle principali transazioni. La piattaforma di trading ha apportato profondi cambiamenti nei settori della finanza, delle agenzie di regolamentazione, dell'innovazione tecnologica, dell'agricoltura e della politica.
ii. fondamento tecnico
1. Il concetto di blockchain può essere inteso come un database di archiviazione distribuito basato su un algoritmo di crittografia asimmetrica, un Merkle Tree migliorato (MerkleTree) come struttura dati e una combinazione di meccanismo di consenso, rete peer-to-peer, contratto intelligente e altre tecnologie . tecnologia.
2. La Blockchain si divide in quattro grandi categorie:
(1) Blockchain pubblica
(2) Consorzio Blockchain
(3) Blockchain privata
(4) Catena ibrida (HybridBlcokchain)
3. In generale, le caratteristiche tipiche della blockchain includono:
(1) Policentralizzazione
La verifica, la contabilità, l'archiviazione, la manutenzione e la trasmissione dei dati sulla catena si basano tutti sulla struttura del sistema distribuito. Vengono utilizzati metodi matematici puri per sostituire le organizzazioni centralizzate per costruire relazioni di fiducia tra più nodi distribuiti, stabilendo così un sistema distribuito affidabile.
(2) Manutenzione multipartitica
Il meccanismo di incentivazione garantisce che tutti i nodi del sistema distribuito possano partecipare al processo di verifica dei blocchi di dati e selezionare nodi specifici attraverso il meccanismo di consenso per aggiungere i blocchi appena generati alla blockchain.
(3) Dati di serie temporali
Blockchain utilizza una struttura a catena con informazioni di timestamp per archiviare informazioni sui dati e aggiunge attributi di dimensione temporale alle informazioni sui dati, ottenendo così la tracciabilità delle informazioni sui dati.
(4) contratto intelligente
La tecnologia Blockchain può fornire agli utenti codici script flessibili e variabili per supportare la creazione di nuovi contratti intelligenti.
(5) non può essere manomesso
Nel sistema blockchain, poiché i blocchi successivi tra blocchi adiacenti possono verificare i blocchi precedenti, se le informazioni sui dati di un determinato blocco vengono manomesse, il blocco e tutti i blocchi successivi verranno modificati in modo ricorsivo. Tuttavia, il costo di ogni ricalcolo dell'hash è enorme e deve essere completato entro un tempo limitato, in modo da garantire la non manomissione dei dati sulla catena.
(6) consenso aperto
Nella rete blockchain, ogni dispositivo fisico può fungere da nodo nella rete e qualsiasi nodo può unirsi liberamente e avere una copia completa del database.
(7) Sicuro e affidabile
La sicurezza dei dati può essere ottenuta crittografando i dati sulla catena basata sulla tecnologia di crittografia asimmetrica. Ciascun nodo del sistema distribuito utilizza la potenza di calcolo formata dall'algoritmo di consenso blockchain per resistere agli attacchi esterni e garantire che i dati sulla catena non vengano manomessi o manomessi. contraffatto. Di conseguenza, ha maggiore riservatezza, credibilità e sicurezza.
iii. Tecnologia chiave
1. Dal punto di vista del sistema tecnico blockchain, la blockchain si basa sulla tecnologia sottostante di elaborazione, gestione e archiviazione dei dati, con gestione dei dati a blocchi, dati strutturati a catena, firme digitali, funzioni hash, alberi Merkel, crittografia asimmetrica, ecc., organizzati i nodi parteciperanno alla diffusione e alla verifica dei dati attraverso una rete simmetrica basata sulla rete P2P Ciascun nodo sarà responsabile dell'instradamento della rete, della verifica dei dati dei blocchi, della diffusione dei dati dei blocchi, della registrazione dei dati delle transazioni, della scoperta di nuovi nodi, ecc. Funzione, compreso il meccanismo di propagazione e. meccanismo di verifica. Al fine di garantire la sicurezza del livello di applicazione blockchain, attraverso il meccanismo di emissione e il meccanismo di distribuzione del livello di incentivi, il consenso viene raggiunto nel modo più efficiente tra i nodi dell’intera rete distribuita.
2. Registro distribuito
Il registro distribuito è uno dei nuclei della tecnologia blockchain. L'idea centrale del registro distribuito è che la contabilità delle transazioni è completata da più nodi distribuiti in luoghi diversi e ciascun nodo salva una copia unica e fedele del registro. Possono partecipare alla supervisione della legalità della transazione, e possono anche farlo fornire congiuntamente supporto per la transazione testimoniare; eventuali modifiche nel registro si rifletteranno in tutte le copie.
La tecnologia dei registri distribuiti può garantire la sicurezza e l’accuratezza delle risorse e ha un’ampia gamma di scenari applicativi, soprattutto nel campo dei servizi pubblici. Può ridefinire il rapporto tra governo e cittadini in termini di condivisione dei dati, trasparenza e fiducia è stato ampiamente utilizzato nella finanza, nella tassazione governativa, nella registrazione della proprietà fondiaria, nella gestione dei passaporti, nell'assistenza sociale e in altri campi.
3. Algoritmo di crittografia
Algoritmo hash
Chiamato anche data digest o algoritmo hash, il suo principio è quello di convertire un'informazione in una stringa di lunghezza fissa con le seguenti caratteristiche: Se due informazioni sono uguali, anche i caratteri sono uguali: anche se le due informazioni di informazioni sono molto simili, ma finché sono diverse, le stringhe saranno molto disordinate, casuali e non avranno alcuna relazione tra le due stringhe. Gli algoritmi di hashing tipici includono MD5, SHA e SM3 Attualmente, la blockchain utilizza principalmente l'algoritmo SHA256.
algoritmo di crittografia asimmetrica
Un metodo di crittografia costituito da una corrispondente coppia di chiavi univoche (ovvero, chiave pubblica e chiave privata). Chiunque conosca la chiave pubblica dell'utente può utilizzarla per crittografare le informazioni e ottenere un'interazione sicura delle informazioni con l'utente. A causa della dipendenza tra la chiave pubblica e la chiave privata, solo l'utente stesso può decifrare le informazioni e nessun utente non autorizzato e nemmeno il mittente delle informazioni può decifrare le informazioni. Gli algoritmi di crittografia asimmetrica comunemente utilizzati includono RSA, Elgamal, D-H, ECC (algoritmo di crittografia a curva ellittica), ecc.
4. meccanismo di consenso
I problemi di consenso sulla blockchain devono essere risolti attraverso il meccanismo di consenso sulla blockchain. L'algoritmo di consenso può garantire che computer distribuiti o programmi software lavorino insieme e rispondano correttamente agli input e all'output del sistema.
L'idea del meccanismo di consenso della blockchain è: in assenza di coordinamento generale da un punto centrale, quando un certo nodo contabile propone un aumento o una diminuzione dei dati del blocco e trasmette la proposta a tutti i nodi partecipanti, tutti i nodi devono seguire un certo Le regole e i meccanismi vengono utilizzati per calcolare ed elaborare se questa proposta può raggiungere il consenso.
Attualmente, i meccanismi di consenso comunemente utilizzati includono principalmente PoW, PoS, DPoS, Paxos, PBFT, ecc.
A seconda delle caratteristiche dei vari meccanismi di consenso nei diversi scenari applicativi della blockchain, l’analisi dei meccanismi di consenso può basarsi su:
(1) Supervisione della conformità
Se supportare i nodi di super autorità per supervisionare i nodi e i dati dell'intera rete.
(2) Efficienza delle prestazioni
L'efficienza con cui le transazioni raggiungono il consenso e vengono confermate.
(3) LF
La CPU, l'input e l'output della rete, lo spazio di archiviazione e altre risorse consumate durante il processo di consenso.
(4) tolleranza ai guasti
La capacità di prevenire attacchi e frodi.
iv. Applicazione e sviluppo
1. La Blockchain diventerà uno dei protocolli base di Internet.
Essendo un protocollo in grado di trasmettere la proprietà, la blockchain creerà un nuovo livello di protocollo di base basato sull’architettura del protocollo Internet esistente. Blockchain (protocollo) diventerà il protocollo di base del futuro Internet come il protocollo TCP/IP (Transmission Control Protocol/Internet Protocol), costruendo una rete di archiviazione e trasferimento di valori efficiente e multicentrica.
2. Diversi strati dell’architettura blockchain svolgeranno funzioni diverse.
Similmente alla struttura a strati dello stack di protocolli TCP/IP, abbiamo sviluppato una varietà di protocolli a livello di applicazione sopra il protocollo a livello di trasporto unificato e, infine, abbiamo costruito la colorata Internet di oggi. In futuro, la struttura blockchain svilupperà anche vari protocolli a livello applicativo basati su un protocollo sottostante unificato e multicentralizzato.
3. L’applicazione e lo sviluppo della blockchain seguono una tendenza a spirale ascendente.
Essendo la tecnologia chiave della prossima fase dell’ondata digitale, la blockchain avrà un ciclo di sviluppo più lungo del previsto e la portata e la profondità del suo impatto supereranno di gran lunga l’immaginazione delle persone. Costruirà un valore ecologico diversificato, cambiando così profondamente il mondo struttura della futura società imprenditoriale e della vita di tutti.
VI. AI
i. L'intelligenza artificiale è una scienza tecnica che studia e sviluppa teorie, metodi, tecnologie e sistemi applicativi per simulare, estendere ed espandere l'intelligenza umana.
ii. fondamento tecnico
Dalla sua nascita ad oggi, il processo di sviluppo dell’intelligenza artificiale ha attraversato sei fasi principali:
1. Periodo di sviluppo iniziale (dal 1956 ai primi anni '60)
2. Periodo di sviluppo riflessivo (dagli anni '60 all'inizio degli anni '70)
3. Periodo di sviluppo dell'applicazione (dall'inizio degli anni '70 alla metà degli anni '80)
4. Periodo di sviluppo recessivo (da metà anni ’80 a metà anni ’90)
5. Periodo di sviluppo costante (dalla metà degli anni '90 al 2010)
6. Periodo di sviluppo vigoroso (dal 2011 ad oggi)
Dall'analisi dell'attuale tecnologia dell'intelligenza artificiale, si può vedere che la sua ricerca tecnica si concentra principalmente su tre aspetti: tecnologia calda, tecnologia comune e tecnologia emergente.
iii. Tecnologia chiave
1. apprendimento automatico
L'apprendimento automatico è una tecnologia che abbina automaticamente un modello ai dati e "impara" dai dati addestrando il modello. La ricerca sull'apprendimento automatico si concentra principalmente su algoritmi e applicazioni di apprendimento automatico, algoritmi di apprendimento di rinforzo, algoritmi di approssimazione e ottimizzazione e problemi di pianificazione comuni che includono principalmente algoritmi di base come regressione, clustering, classificazione, approssimazione, stima e ricerca di miglioramento , i metodi di apprendimento per rinforzo come l'apprendimento di trasferimento, l'apprendimento multi-core e l'apprendimento multi-vista sono gli attuali punti caldi della ricerca.
Le reti neurali sono una forma di apprendimento automatico emersa negli anni '60 e vengono utilizzate nelle applicazioni di classificazione. Analizza i problemi in termini di input, output e pesi variabili o "caratteristiche" che mettono in relazione gli input con gli output. È simile al modo in cui migliaia di neuroni elaborano i segnali. L'apprendimento profondo è un modello di rete neurale che prevede i risultati attraverso funzionalità e indici multilivello. Grazie alla maggiore velocità di elaborazione dell'attuale architettura informatica, questo tipo di modello ha la capacità di gestire migliaia di funzionalità. A differenza delle forme precedenti di analisi statistica, ciascuna caratteristica di un modello di deep learning ha in genere poco significato per un osservatore umano, rendendo il modello difficile da utilizzare e da interpretare. I modelli di deep learning utilizzano una tecnica chiamata backpropagation per fare previsioni o classificare gli output attraverso il modello. L'apprendimento per rinforzo è un'altra forma di apprendimento automatico, il che significa che il sistema di apprendimento automatico fissa un obiettivo e riceve una qualche forma di ricompensa per ogni passo verso l'obiettivo.
I modelli di machine learning si basano su statistiche e dovrebbero essere confrontati con l’analisi convenzionale per determinarne il valore incrementale. Tendono ad essere più accurati dei tradizionali modelli analitici "fatti a mano" basati su presupposti umani e analisi di regressione, ma sono anche più complessi e difficili da interpretare. Rispetto all’analisi statistica tradizionale, i modelli di machine learning automatizzati sono più facili da creare e possono rivelare più dettagli sui dati.
2. elaborazione del linguaggio naturale
L'elaborazione del linguaggio naturale (NLP) è una direzione importante nei campi dell'informatica e dell'intelligenza artificiale. Studia varie teorie e metodi che consentono una comunicazione efficace tra esseri umani e computer utilizzando il linguaggio naturale. L’elaborazione del linguaggio naturale è una scienza che integra linguistica, informatica e matematica.
L'elaborazione del linguaggio naturale viene utilizzata principalmente nella traduzione automatica, nel monitoraggio dell'opinione pubblica, nel riepilogo automatico, nell'estrazione delle opinioni, nella classificazione del testo, nella risposta alle domande, nel confronto semantico del testo, nel riconoscimento vocale, nell'OCR cinese, ecc.
L’elaborazione del linguaggio naturale (cioè realizzare la comunicazione in linguaggio naturale tra esseri umani e macchine, o realizzare la comprensione e la generazione del linguaggio naturale) è molto difficile. La ragione fondamentale della difficoltà è che esistono vari tipi di problemi che esistono ampiamente a tutti i livelli del testo e del dialogo in linguaggio naturale Ambiguità o polisemia. I problemi principali risolti dall'elaborazione del linguaggio naturale sono l'estrazione delle informazioni, il riepilogo automatico/segmentazione delle parole, il riconoscimento e la trasformazione, ecc., che vengono utilizzati per risolvere la definizione efficace del contenuto, la disambiguazione e l'ambiguità, l'input difettoso o non standard, la comprensione del comportamento linguistico. e interazione. Attualmente, la tecnologia di deep learning è un importante supporto tecnico per l'elaborazione del linguaggio naturale, è necessario applicare modelli di deep learning, come reti neurali convoluzionali, reti neurali ricorrenti, ecc., per apprendere dalle parole generate per formare parole naturali. parole.Il processo di classificazione e comprensione del linguaggio.
3. sistema esperto
Un sistema esperto è un sistema di programma informatico intelligente, che di solito è composto da sei parti: interfaccia di interazione uomo-computer, base di conoscenza, motore di inferenza, interprete, database completo e acquisizione di conoscenza. Contiene un gran numero di conoscenze e conoscenze a livello di esperto in un determinato campo, può applicare la tecnologia dell'intelligenza artificiale e la tecnologia informatica per condurre ragionamenti e giudizi basati sulla conoscenza e sull'esperienza del sistema e simulare il processo decisionale di esperti classificati al fine di risolvere problemi complessi che richiedono l'intervento umano. esperti con cui confrontarsi. In breve, un sistema esperto è un sistema di programmazione per computer che simula esperti umani per risolvere problemi di dominio.
Nel processo di sviluppo dell'intelligenza artificiale, lo sviluppo dei sistemi esperti ha attraversato tre fasi e sta passando e sviluppandosi alla quarta generazione. La prima generazione di sistemi esperti era caratterizzata da un elevato grado di specializzazione e dalla capacità di risolvere problemi specializzati. Tuttavia, ci sono carenze nell’integrità dell’architettura, nella portabilità, nella trasparenza e nella flessibilità del sistema. Il sistema esperto di seconda generazione è un sistema professionale a soggetto singolo e basato su applicazioni. La sua struttura di sistema è relativamente completa e la sua portabilità è stata migliorata. Presenta anche molti vantaggi nell'interfaccia uomo-macchina, nel meccanismo di spiegazione e nella tecnologia di acquisizione della conoscenza , tecnologia di ragionamento sull'incertezza e sistema esperto migliorato La rappresentazione della conoscenza e i metodi di ragionamento del sistema sono stati migliorati in termini di euristica e versatilità. Il sistema esperto di terza generazione è un sistema completo multidisciplinare che utilizza più linguaggi di intelligenza artificiale, adotta in modo completo vari metodi di rappresentazione della conoscenza e molteplici meccanismi di ragionamento e strategie di controllo e utilizza vari linguaggi di ingegneria della conoscenza, sistemi scheletrici e strumenti e ambienti di sviluppo di sistemi esperti per sviluppare grandi dimensioni sistemi esperti completi su larga scala.
L'attuale ricerca sui sistemi esperti nell'intelligenza artificiale è entrata nella quarta fase, ricercando principalmente sistemi di collaborazione multiesperti su larga scala, rappresentazioni multiple della conoscenza, basi di conoscenza complete, meccanismi di risoluzione dei problemi auto-organizzanti, risoluzione collaborativa multidisciplinare dei problemi e ragionamento parallelo, strumenti e ambiente di sistemi esperti, meccanismo di acquisizione e apprendimento della conoscenza della rete neurale artificiale, ecc.
iv. Applicazione e sviluppo
Dopo oltre 60 anni di sviluppo, l'intelligenza artificiale ha fatto importanti passi avanti in termini di algoritmi, capacità di calcolo e calcoli (dati). Tuttavia, ci sono ancora molti colli di bottiglia prima che diventi “molto utile”. Realizzare il salto di qualità dall’intelligenza artificiale specializzata all’intelligenza artificiale generale è una tendenza inevitabile nello sviluppo della prossima generazione di intelligenza artificiale.
1. Dall’intelligenza artificiale all’intelligenza ibrida uomo-macchina.
Attingere ai risultati della ricerca della scienza del cervello e delle scienze cognitive è un’importante direzione di ricerca dell’intelligenza artificiale. L’intelligenza ibrida uomo-macchina mira a introdurre funzioni umane o modelli cognitivi nei sistemi di intelligenza artificiale per migliorare le prestazioni dei sistemi di intelligenza artificiale, rendendo l’intelligenza artificiale un’estensione ed espansione naturale dell’intelligenza umana e risolvendo problemi complessi in modo più efficiente attraverso la collaborazione uomo-macchina. .
2. Dall’“intelligenza artificiale” ai sistemi intelligenti autonomi.
L’attuale importante ricerca nel campo dell’intelligenza artificiale si concentra sul deep learning, ma il limite del deep learning è che richiede molto intervento manuale. Pertanto, i ricercatori scientifici hanno iniziato a prestare attenzione ai metodi di intelligenza autonoma che riducono l’intervento manuale e migliorano la capacità dell’intelligenza artificiale di apprendere autonomamente dall’ambiente.
3. L’intelligenza artificiale accelererà la penetrazione incrociata con altre aree tematiche.
L’intelligenza artificiale è una disciplina completa e all’avanguardia e una disciplina composita altamente interdisciplinare che richiede una profonda integrazione con discipline come l’informatica, la matematica, le scienze cognitive, le neuroscienze e le scienze sociali. Con l’aiuto delle scoperte nel campo della biologia, delle scienze del cervello, delle scienze della vita, della psicologia e di altre discipline, e della trasformazione dei meccanismi in modelli computabili, l’intelligenza artificiale si compenetrerà profondamente con più discipline.
4. L’industria dell’intelligenza artificiale prospererà.
Il modello innovativo di “Intelligenza Artificiale
5. All’ordine del giorno ci sarà la sociologia dell’intelligenza artificiale.
Al fine di garantire uno sviluppo sano e sostenibile dell’intelligenza artificiale e far sì che i suoi risultati di sviluppo vadano a beneficio delle persone, è necessario studiare in modo sistematico e completo l’impatto dell’intelligenza artificiale sulla società umana da una prospettiva sociologica e formulare e migliorare le leggi sull’intelligenza artificiale e regolamenti.
VII. Realta virtuale
i. Come collegare direttamente la capacità di percezione umana con l'esperienza cognitiva e l'ambiente di elaborazione delle informazioni del computer è lo sfondo del settore per l'emergere della realtà virtuale.
ii. fondamento tecnico
1. La realtà virtuale (VR) è un sistema informatico in grado di creare e sperimentare un mondo virtuale. Lo spazio informativo stabilito attraverso il sistema di realtà virtuale è uno spazio informativo multidimensionale (Cyberspazio) che contiene una varietà di informazioni Le capacità cognitive percettive e razionali umane possono essere pienamente esercitate in questo spazio informativo multidimensionale. In termini di hardware, sono necessari software e hardware per computer ad alte prestazioni e vari sensori avanzati. In termini di software, è principalmente necessario fornire un set di strumenti in grado di generare un ambiente virtuale;
2. Le caratteristiche principali della tecnologia della realtà virtuale includono
(1) immersione
(2) interattività
(3) multisensoriale
(4) fantasioso (fantasioso)
(5) autonomia
3. Con il rapido sviluppo della tecnologia della realtà virtuale, a seconda del grado di "immersione" e del grado di interazione, la tecnologia della realtà virtuale si è evoluta da sistemi di realtà virtuale desktop, sistemi di realtà virtuale immersiva, sistemi di realtà virtuale distribuita, ecc., alla realtà aumentata Lo sviluppo di sistemi di realtà virtuale (Realtà Aumentata, AR) e il Metaverso.
iii. Tecnologia chiave
1. Tecnologia di interazione uomo-macchina
Diversamente dalla modalità di interazione tradizionale composta solo da tastiera e mouse, è un nuovo tipo di tecnologia di interazione tridimensionale che utilizza occhiali VR, maniglie di controllo e altri dispositivi sensori per consentire agli utenti di sentire veramente l'esistenza delle cose intorno a loro. Ne combina tre tecnologia di interazione bidimensionale con riconoscimento vocale La combinazione della tecnologia di input vocale e di altri dispositivi utilizzati per monitorare il comportamento dell'utente è attualmente il metodo principale di interazione uomo-computer.
2. Tecnologia dei sensori
Il progresso della tecnologia VR è limitato dallo sviluppo della tecnologia dei sensori. Le carenze delle apparecchiature VR esistenti sono strettamente legate alla sensibilità dei sensori.
3. Tecnologia di modellazione dell'ambiente dinamico
La progettazione dell'ambiente virtuale è una parte importante della tecnologia VR, che utilizza dati tridimensionali per costruire un modello di ambiente virtuale ampliato. Lo strumento di modellazione dell'ambiente virtuale attualmente comunemente utilizzato è il Computer Aided Design (CAD). Gli operatori possono ottenere i dati richiesti tramite la tecnologia CAD e utilizzare i dati ottenuti per costruire un modello di ambiente virtuale che soddisfi le esigenze reali. Oltre a ottenere dati tridimensionali tramite la tecnologia CAD, nella maggior parte dei casi è possibile utilizzare anche la tecnologia di modellazione visiva. La combinazione delle due può ottenere dati in modo più efficace.
4. Tecnologia di integrazione del sistema
Compresa la sincronizzazione delle informazioni, la conversione dei dati, la calibrazione del modello, il riconoscimento e la sintesi, ecc. Poiché il sistema VR memorizza molte informazioni di input vocale, informazioni sulla percezione e modelli di dati, la tecnologia di integrazione nel sistema VR diventa sempre più importante.
iv. Applicazione e sviluppo
1. Le iterazioni di ottimizzazione delle prestazioni hardware sono accelerate.
La sottigliezza e l'altissima definizione hanno accelerato la rapida espansione del mercato dei terminali di realtà virtuale. Gli indicatori di prestazione come la risoluzione del display, il frame rate, il grado di libertà, il ritardo, le prestazioni interattive, il trasferimento e le vertigini delle apparecchiature di realtà virtuale sono sempre più ottimizzati.
2. Lo sviluppo della tecnologia di rete ha effettivamente promosso la sua applicazione.
Le comunicazioni di rete onnipresenti e le velocità di rete ad alta velocità hanno effettivamente migliorato l'esperienza della tecnologia della realtà virtuale dal punto di vista applicativo. Con l’aiuto della tecnologia 5G leggera e mobile del terminale, l’elevata velocità di picco, il ritardo di trasmissione a livello di millisecondi e centinaia di milioni di capacità di connessione hanno ridotto i requisiti per il lato terminale della realtà virtuale.
3. L’integrazione degli elementi del settore della realtà virtuale sta accelerando.
L'industria della realtà virtuale mostra una tendenza industriale dalle applicazioni innovative alle applicazioni normali ed è ampiamente utilizzata nei campi dell'arte scenica, della visione sportiva intelligente, della promozione di nuova cultura, dell'istruzione, dell'assistenza medica e in altri campi. Le "fiere aziendali in realtà virtuale" sono diventate la nuova normalità futura nell'era post-epidemia, la "produzione industriale in realtà virtuale" è la nuova forza trainante per la trasformazione digitale organizzativa, la "vita intelligente in realtà virtuale" ha notevolmente migliorato la futura esperienza di vita intelligente, e "intrattenimento e tempo libero in realtà virtuale" "Diventare un nuovo vettore di nuovi modelli di consumo delle informazioni, ecc.
4. Le nuove tecnologie guidano nuove imprese.
Concetti emergenti come il metaverso hanno portato nuovi concetti di business come "immersione e sovrapposizione", "radicale e progressivo" e "aperto e chiuso" alla tecnologia della realtà virtuale, migliorandone notevolmente il valore applicativo e il valore sociale, e cambieranno gradualmente il modo in cui le persone ci sono abituate. Le regole fisiche del mondo reale stimolano l’innovazione tecnologica industriale in modi nuovi e guidano la transizione e l’aggiornamento delle industrie correlate verso nuovi modelli e nuovi formati di business.
四、 Prospettive per lo sviluppo delle tecnologie informatiche di nuova generazione
(1) Le strutture di connessione di rete intelligenti e onnipresenti saranno al centro dello sviluppo della tecnologia di rete, consentendo un'evoluzione fluida e l'aggiornamento di reti, applicazioni e terminali all'Internet di prossima generazione. La nuova infrastruttura di rilevamento dell'IoT e della comunicazione dei dati diventerà parte integrante parte della strategia nazionale. La costruzione e lo sviluppo integrati del cloud e della rete realizzeranno l'integrazione organica delle risorse del cloud computing e delle strutture di rete, e la costruzione di centri di potenza di calcolo e algoritmi fornirà bassa latenza, alta affidabilità e forte sicurezza. capacità di elaborazione all'avanguardia.
(2) La tecnologia dei big data continuerà a diventare la corrente principale dello sviluppo futuro, concentrandosi sullo sviluppo e sull'utilizzo delle risorse di dati, sulla condivisione e circolazione, sulla governance dell'intero ciclo di vita e sulla garanzia della sicurezza, stabilendo e migliorando il sistema di risorse degli elementi di dati, stimolando il valore degli elementi dei dati e il rafforzamento del ruolo abilitante degli elementi dei dati, la tecnologia di governance dei dati, la tecnologia di applicazione e servizio dei dati e la tecnologia di sicurezza dei dati saranno ulteriormente rafforzate.
(3) L'innovazione continua della nuova generazione di tecnologie dell'informazione diventerà una strategia nazionale, insistendo sulla posizione centrale dell'innovazione nello sviluppo dell'informatizzazione nazionale, assumendo l'autosufficienza e la fiducia in se stessi nelle principali tecnologie chiave come supporto strategico di La Cina digitale, di fronte alle frontiere tecnologiche del mondo e al principale campo di battaglia economico, affrontando le principali esigenze del paese, la vita e la salute delle persone, attua completamente la strategia di sviluppo guidata dall'innovazione e costruisce un sistema di sviluppo innovativo guidato da due ruote di innovazione tecnologica. e innovazione istituzionale per liberare pienamente la produttività digitale.
(4) Il passaggio dalla tecnologia dell'informazione alla tecnologia digitale costituirà un importante sostegno alla futura trasformazione digitale del paese, della società e dell'industria. Le innovazioni nelle principali tecnologie software e hardware continueranno a essere all’avanguardia nello sviluppo tecnologico. L’ecologia avanzata dei chip per scopi speciali, l’ecologia del software e dell’hardware ottimizzata in modo collaborativo e la migliore ecologia mobile open source diventeranno il fondamento della futura ecologia dell’informazione.
(5) La nuova generazione di tecnologie dell'informazione continuerà a essere profondamente integrata con le industrie e guiderà lo sviluppo della trasformazione digitale industriale. Internet, i big data, l’intelligenza artificiale e altri settori saranno profondamente integrati, promuoveranno la trasformazione collaborativa della digitalizzazione industriale e dell’ecologizzazione, svilupperanno catene di approvvigionamento moderne, miglioreranno la produttività totale dei fattori, promuoveranno il risparmio energetico e la riduzione delle emissioni e miglioreranno efficacemente la qualità economica e l’efficienza. e la competitività fondamentale, che diventerà la tecnologia. Un importante punto d'appoggio e di sostegno per lo sviluppo.
(6) Lo sviluppo di una nuova generazione di tecnologie dell'informazione sosterrà efficacemente lo sviluppo di una moderna governance sociale, costruendo così efficacemente un sistema di governance sociale digitale di co-costruzione, co-governance e condivisione. L’approfondimento dell’applicazione dei big data, dell’intelligenza artificiale e di altre tecnologie dell’informazione nei sistemi tridimensionali intelligenti di prevenzione e controllo della sicurezza sociale, nei sistemi intelligenti integrati di sicurezza pubblica e nei sistemi di sicurezza informatica di emergenza che combinano tempo di pace e tempo di guerra promuoverà efficacemente l’alta qualità delle nuove tecnologie intelligenti. sviluppare le città.
(7) Lo sviluppo integrato delle tecnologie dell'informazione di nuova generazione creerà un sistema di servizi governativi digitali collaborativo ed efficiente, migliorerà il livello di costruzione dell'informatizzazione dei partiti e delle agenzie governative, promuoverà la condivisione e la circolazione dei dati governativi, promuoverà il "servizio unico" rendere le cose più convenienti per le masse e creare un mercato Legalizzare e internazionalizzare l'ambiente imprenditoriale.
(8) L'obiettivo dello sviluppo della tecnologia dell'informazione sarà più focalizzato sull'"uso della tecnologia dell'informazione per migliorare il sistema dei servizi pubblici di base, migliorare la qualità della vita delle persone e consentire alle persone di condividere i risultati dello sviluppo dell'informazione". L’educazione digitale, l’assistenza medica digitale inclusiva, la sicurezza sociale digitale, i servizi per l’occupazione e le risorse umane, il turismo culturale digitale e i servizi sportivi diventeranno manifestazioni importanti del valore della tecnologia dell’informazione.
(9) Migliorare la competitività internazionale della tecnologia dell'informazione, partecipare attivamente alla riforma del sistema di governance globale del ciberspazio, promuovere lo sviluppo di alta qualità della "Via della seta digitale", ricercare e formulare regole internazionali nel campo digitale, costruire multi-nazionalità partenariati digitali globali a livello globale e di alta qualità L'integrazione e la globalizzazione ad alto livello diventeranno un'importante manifestazione della competitività della tecnologia dell'informazione.
(10) Il sistema di governance per lo sviluppo ordinato della tecnologia dell'informazione costituisce il fondamento della tecnologia di regolamentazione per la sicurezza della rete, la sicurezza dell'informazione e la sicurezza dei dati, il meccanismo di revisione delle applicazioni della tecnologia digitale, il sistema giuridico di regolamentazione, il sistema di garanzia della sicurezza della rete e. la costruzione di capacità tecniche diventerà tecnologica e una direzione importante per l'integrazione gestionale.