Galería de mapas mentales Ingeniero de gestión de proyectos de integración de sistemas, tercera ediciónÉxito de la prueba suaveCapítulo 2 Desarrollo de tecnologías de la información
Ingeniero de gestión de proyectos de integración de sistemas 3.ª edición/Prueba suave de mitad de período/Capítulo 2 Desarrollo de tecnología de la información es el término general para la tecnología de aplicación de adquisición de información, procesamiento de información, transmisión de información y uso de información bajo los principios y métodos básicos de la ciencia de la información. .
Editado a las 2024-03-14 10:17:07,Desarrollo de tecnología de la información
一、 resumen
Tecnología de la información es un término general para las tecnologías aplicadas que adquieren información, procesan información, transmiten información y utilizan información bajo los principios y métodos básicos de la ciencia de la información.
La tecnología de la información es un medio para lograr la informatización y la base para la construcción de sistemas de información.
La nueva generación de tecnologías de la información se ha convertido en una industria estratégica en la que países de todo el mundo invierten y se centran en el desarrollo.
二、 La tecnología de la información y su desarrollo.
i. resumen
La tecnología de la información está formada por la combinación de tecnología informática y tecnología de telecomunicaciones basada en microelectrónica. Adquiere, procesa, procesa, almacena y almacena información de señales de sonido, imágenes, texto, digitales y diversas, difusión y uso de tecnología.
Según diferentes formas de expresión, la tecnología de la información se puede dividir en tecnología dura (tecnología materializada) y tecnología blanda (tecnología no materializada). El primero se refiere a diversos equipos de información y sus funciones, como sensores, servidores, teléfonos inteligentes, satélites de comunicaciones y computadoras portátiles. Este último se refiere a diversos conocimientos, métodos y habilidades relacionados con la adquisición y el procesamiento de información, como la tecnología del lenguaje y la escritura, la tecnología de análisis estadístico de datos, la tecnología de planificación y toma de decisiones, la tecnología de software informático, etc.
ii. Hardware y software de computadora
1. Hardware de la computadora
(1) Se refiere al término general para varios dispositivos físicos compuestos de componentes electrónicos, mecánicos y optoelectrónicos en un sistema informático. Estos dispositivos físicos forman un todo orgánico según los requisitos de la estructura del sistema y proporcionan una base material para el funcionamiento del software.
(2) Dividido principalmente en: fórmula: equipo de acceso para almacenamiento de transporte aéreo
1||| controlador
Controlador: emite información de control de acuerdo con comandos predeterminados, de modo que todo el proceso de ejecución de instrucciones de la computadora avanza paso a paso. Es el centro neurálgico de la computadora. Su función es interpretar la información de control especificada por el programa y controlarla de acuerdo. a sus requerimientos, y programar el programa, datos y direcciones, coordinar el trabajo de varias partes del ordenador y el acceso a la memoria y periféricos, etc.
La función principal: Recuperar una instrucción de la memoria e indicar la ubicación de la siguiente instrucción en la memoria, decodificar o probar la instrucción y generar las señales de control de operación correspondientes para iniciar acciones específicas y controlar la CPU, la memoria y la dirección de entrada/salida de los datos; flujo entre dispositivos.
2||| operador
La función de la unidad aritmética es realizar diversas operaciones aritméticas y operaciones lógicas con datos, es decir, procesar los datos.
Las operaciones básicas de la unidad aritmética incluyen las cuatro operaciones aritméticas de suma, resta, multiplicación y división, operaciones lógicas como AND, OR, NOT y XOR, así como operaciones como desplazamientos, comparaciones y transmisiones. También llamada Unidad Aritmética Lógica (ALU). Cuando la computadora está en funcionamiento, el controlador determina el funcionamiento y el tipo de operación de la unidad aritmética. La unidad aritmética acepta los comandos del controlador y realiza acciones, es decir, todas las operaciones realizadas por la unidad aritmética están dirigidas por el. señales de control enviadas por el controlador.
3||| memoria
La función de la memoria es almacenar programas, datos, diversas señales, comandos y otra información, y proporcionar esta información cuando sea necesario. La memoria se divide en memoria dentro de la computadora (denominada memoria) y memoria fuera de la computadora (denominada memoria externa). La memoria interna se puede dividir en dos categorías: memoria RAM de lectura y escritura y memoria ROM de solo lectura.
La capacidad de almacenamiento de la computadora se mide en bytes, los cuales son: byte B (1Byte=8bit), kilobyte (1KB=1024B), megabyte (1MB=1024KB), gigabyte (1GB=1024MB), sección de terabyte (1TB = 1024GB).
Las memorias externas de las computadoras generalmente incluyen: disquetes y unidades de disquete, discos duros, discos ópticos, etc., así como discos duros móviles basados en interfaz USB, discos duros electrónicos regrabables, unidades flash USB, etc.
4||| dispositivo de entrada
Los dispositivos de entrada son una parte importante de la computadora. Los dispositivos de entrada y los dispositivos de salida se denominan colectivamente dispositivos externos, conocidos como periféricos. La función del dispositivo de entrada es ingresar información como programas, datos originales, texto, caracteres, comandos de control o. datos recopilados en el sitio en la computadora.
Los dispositivos de entrada de uso común incluyen teclados, ratones, micrófonos, cámaras, escáneres, escáneres de códigos, blocs de escritura a mano, pantallas táctiles, etc.
5||| dispositivo de salida
El dispositivo de salida también es una parte importante de la computadora. Genera los resultados intermedios o finales de la computadora externa, varios símbolos de datos y texto en la computadora, o varias señales de control y otra información.
Los dispositivos de salida más utilizados incluyen: monitores, impresoras, impresoras láser, trazadores, etc.
2. Software de ordenador
(1) Se refiere al programa y su documentación en el sistema informático. El programa es la descripción del objeto de procesamiento y las reglas de procesamiento de la tarea informática. La documentación es el material ilustrativo utilizado para facilitar la comprensión del programa.
(2) Si se compara una computadora con una persona, entonces el hardware representa el cuerpo humano, mientras que el software representa la mente y el alma humanas. Una computadora sin ningún software instalado se llama "bare metal".
(3) dividido en
1||| software del sistema
El software del sistema se refiere a un sistema que controla y coordina computadoras y dispositivos externos, y apoya el desarrollo y operación de software de aplicación. Es una colección de varios programas que no requieren la intervención del usuario. Su función principal es programar, monitorear y mantener la computadora. sistemas; es responsable de administrar varios aspectos de los sistemas informáticos. El hardware independiente les permite trabajar en armonía. El software del sistema permite a los usuarios de computadoras y otro software tratar la computadora como un todo sin tener en cuenta cómo funciona el hardware subyacente.
2||| solicitud
El software de aplicación es una colección de varios lenguajes de programación que los usuarios pueden usar y programas de aplicación compilados en varios lenguajes de programación. Se divide en paquetes de software y programas de usuario.
Un paquete de software de aplicación es una colección de programas diseñados para usar computadoras para resolver ciertos tipos de problemas, principalmente para que los utilicen los usuarios. El software de aplicación es software proporcionado para satisfacer las necesidades de aplicación de los usuarios en diferentes campos y problemas.
3||| software intermedio
El middleware es un software que se encuentra entre el sistema operativo y las aplicaciones. Utiliza los servicios básicos (funciones) proporcionados por el software del sistema para conectar varias partes del sistema de aplicaciones o diferentes aplicaciones en la red, y puede lograr el propósito de compartir recursos y funciones. El middleware es un servicio común ubicado entre la plataforma (hardware y sistema operativo) y la aplicación. Estos servicios tienen interfaces y protocolos de programa estándar. Para diferentes sistemas operativos y plataformas de hardware, no importa cómo se actualicen el hardware y el software del sistema subyacentes, siempre que se actualice el middleware y la definición de la interfaz externa del middleware permanezca sin cambios, el software de la aplicación apenas necesita modificaciones, por lo que se garantiza la funcionamiento continuo y estable del software de aplicación.
3. El hardware y el software son interdependientes. El hardware es la base material sobre la que funciona el software, y el funcionamiento normal del software es una forma importante para que funcione el hardware. Con el desarrollo de la tecnología informática, en muchos casos, determinadas funciones de la computadora pueden implementarse mediante hardware o software. Por tanto, en cierto sentido, no existe una frontera absolutamente estricta entre hardware y software.
iii. Red de computadoras
1. En el campo de la informática, una red utiliza enlaces físicos para conectar estaciones de trabajo o hosts aislados para formar un enlace de datos, logrando así el propósito de compartir recursos y comunicarse. Las computadoras conectan múltiples sistemas informáticos con diferentes ubicaciones geográficas y funciones independientes a través de equipos y líneas de comunicación, y se combinan con software de red (protocolos de red, métodos de intercambio de información, sistemas operativos de red, etc.) para compartir diferentes recursos informáticos.
2. conceptos básicos de comunicación
La comunicación se refiere al intercambio y transmisión de información entre personas y entre las personas y la naturaleza a través de ciertos comportamientos o medios. La comunicación eléctrica (óptica) se refiere al proceso de transmisión e intercambio de información de un lugar a otro. El propósito de la comunicación es entregar la información contenida en el mensaje. Los mensajes continuos se refieren a mensajes cuyo estado cambia continuamente con el tiempo, como la voz. Los mensajes discretos se refieren a mensajes cuyo estado es discreto, como símbolos, datos, etc.
Sistemas y modelos de comunicación.
Un sistema de comunicación consta de tres partes: sistema de origen (emisor o emisor), sistema de transmisión (red de transmisión) y sistema de destino (receptor o receptor).
Tecnologías clave para las comunicaciones modernas
(1) En términos generales, la tecnología de la comunicación son en realidad tecnologías relacionadas de sistemas de comunicación y redes de comunicación. Un sistema de comunicación se refiere a todas las instalaciones necesarias para la comunicación punto a punto, mientras que una red de comunicación son todas las instalaciones que pueden comunicarse entre sí entre múltiples puntos compuestos por muchos sistemas de comunicación.
(2) Incluir
1||| tecnología de comunicación digital
Es un método de comunicación que utiliza señales digitales como portadora para transmitir información, o utiliza señales digitales para depurar digitalmente la onda portadora antes de transmitirla. Puede transmitir señales digitales como telegramas y datos digitales, así como señales analógicas como voz e imágenes digitalizadas.
2||| tecnología de transmisión de información
Es un término general que se utiliza principalmente para diversas tecnologías utilizadas para gestionar y procesar información. Aplica principalmente la informática y la tecnología de la comunicación para diseñar, desarrollar, instalar e implementar sistemas de información y software de aplicación.
3||| Tecnología de redes de comunicación.
Conecte físicamente dispositivos aislados para realizar vínculos para el intercambio de información entre personas, personas y computadoras, y computadoras para lograr el propósito de compartir recursos y comunicarse.
3. Conceptos básicos de la red
(1) Clasificación por alcance de la red
1||| Red de área personal (PersonalAreaNetwork,PAN)
Una red ad hoc que conecta dispositivos electrónicos personales (como computadoras portátiles, etc.) utilizando tecnología inalámbrica en el lugar de trabajo de una persona, por lo que a menudo se la denomina red de área personal inalámbrica WPAN (Wireless PAN). Desde la perspectiva de una red informática, PAN es una red de área local y su alcance suele ser de unos 10 m.
2||| Red de área local (LAN)
Generalmente se refiere al uso de microcomputadoras o estaciones de trabajo conectadas a través de líneas de comunicación de alta velocidad (la velocidad suele ser superior a 10 Mb/s), y su alcance geográfico suele ser de aproximadamente 1 km. Generalmente cubre un campus, una unidad, un edificio, etc.
3||| Red de Área Metropolitana (MAN)
El rango de acción puede abarcar varias cuadras o incluso toda la ciudad, y su alcance es de aproximadamente 5 a 50 km.
4||| Red de área amplia (WAN)
Los conmutadores de nodo se utilizan para conectar cada host y los enlaces de conexión entre los conmutadores de nodo son generalmente enlaces de alta velocidad con una gran capacidad de comunicación. El alcance de una red de área amplia suele ser de decenas a miles de kilómetros y puede transmitir datos a largas distancias a través de un país o continente.
(2) Clasificación desde la perspectiva de los usuarios de la red.
1||| Red pública
Se refiere a una red a gran escala financiada y construida por empresas de telecomunicaciones para brindar servicios al público, también conocida como red pública.
2||| Red privada
Se refiere a la red construida por un determinado departamento para cumplir con el trabajo comercial especial de la unidad. Esta red no brinda servicios a personas fuera de la unidad. Por ejemplo, energía eléctrica, militares, ferrocarriles, bancos, etc., todos tienen redes dedicadas. este sistema.
4. equipo de internet
(1) La transmisión de información en la red incluye principalmente tecnología Ethernet y tecnología de conmutación de red. La conmutación de red se refiere a una forma de conmutación que utiliza ciertos equipos (como conmutadores, etc.) para convertir diferentes señales o formas de señales en tipos de señales que la otra parte puede reconocer para lograr propósitos de comunicación. Los más comunes incluyen conmutación de datos y línea. conmutación, conmutación de mensajes y conmutación de paquetes.
(2) En las redes informáticas, la conmutación de red se puede dividir en:
1||| Conmutación de capa física (como red telefónica)
2||| Conmutación de capa de enlace (conmutación de capa 2: cambie la dirección MAC)
3||| Conmutación de capa de red (conmutación de tres capas: cambio de dirección IP)
4||| Conmutación de la capa de transporte (conmutación de cuatro capas: cambio de puertos, relativamente raro)
5||| cambio de capa de aplicación
(3) Durante la interconexión de la red, cada nodo generalmente no se puede conectar simplemente directamente, sino que debe implementarse a través del equipo de interconexión de la red. Según el principio de capas del modelo de referencia OSI, el dispositivo intermedio debe implementar la función de conversión de protocolo entre diferentes redes.
(4) Se clasifican según las diferentes capas de protocolo sobre las que trabajan:
1||| Repetidor (implementa la conversión del protocolo de capa física y convierte señales binarias entre cables);
2||| Puente de red (que implementa la conversión de protocolo de capa física y capa de enlace de datos);
3||| Enrutador (que implementa la conversión de protocolo entre la capa de red y las siguientes capas);
4||| Puerta de enlace (que proporciona conversión de protocolo desde la capa más baja a la capa de transporte o superior);
5||| cambiar
(5) En aplicaciones reales, el equipo proporcionado por cada fabricante es multifuncional y compatible con versiones anteriores.
(6) Con el uso cada vez más generalizado de la tecnología inalámbrica, actualmente existen en el mercado muchos productos basados en redes inalámbricas, incluidas tarjetas de red inalámbricas, puntos de acceso inalámbricos, puentes inalámbricos y enrutadores inalámbricos.
5. protocolo estándar de red
(1) Un protocolo de red es un conjunto de reglas, estándares o convenciones establecidos para el intercambio de datos en una red informática. Los protocolos de red constan de tres elementos: semántica, sintaxis y temporización. La semántica es la explicación del significado de cada parte de la información de control. Estipula qué tipo de información de control debe enviarse, las acciones que deben completarse y qué tipo de respuesta dar, la estructura y el formato de los datos del usuario; información de control y el orden en que aparecen los datos: La cronología es una descripción detallada del orden en que ocurren los eventos. La gente describe vívidamente estos tres elementos como: la semántica representa qué hacer, la sintaxis representa cómo hacerlo y el tiempo representa el orden en que se hace.
(2) OSI
El modelo de referencia Open System Interconnect (Open System Interconnect, OSI) desarrollado conjuntamente por la Organización Internacional de Normalización (ISO) y el Comité Consultivo Internacional Telegráfico y Telefónico (CCITT).
Su propósito es proporcionar una base común y un marco estándar para la interconexión de computadoras heterogéneas, y proporcionar una referencia común para mantener la coherencia y compatibilidad de los estándares relacionados.
OSI utiliza una tecnología estructurada en capas, que se divide en siete capas de abajo hacia arriba: capa física, capa de enlace de datos, capa de red, capa de transporte, capa de sesión, capa de presentación y capa de aplicación.
Los protocolos WAN operan en las tres capas inferiores del modelo de referencia OSI y definen las comunicaciones a través de diferentes medios WAN. Los protocolos WAN incluyen principalmente: protocolo punto a punto PPP, red digital de servicios integrados RDSI, xDSL (nombre general para líneas de abonado digitales DSL: HDSL, SDSL, MVL, ADSL), línea dedicada digital DDN, x.25, retransmisión de tramas FR , Modo de transmisión asíncrona ATM.
(3) Familia de protocolos IEEE802
La especificación IEEE802 define cómo la tarjeta de red accede al medio de transmisión (como cable óptico, par trenzado, inalámbrico, etc.) y el método de transmisión de datos en el medio de transmisión. También define el establecimiento, mantenimiento y desmontaje de conexiones entre redes. Dispositivos que transmiten información. Los productos que cumplen con el estándar IEEE802 incluyen tarjetas de red, puentes, enrutadores y otros componentes utilizados para establecer redes de área local.
La especificación IEEE802 incluye una serie de familias de protocolos estándar, entre las cuales la especificación Ethernet IEEE 802.3 es un protocolo LAN importante, que incluye:
(4) TCP/IP
El protocolo TCP/IP es el núcleo del protocolo de Internet. En la capa de aplicación, el protocolo TCP/IP define muchos protocolos orientados a aplicaciones. Las aplicaciones utilizan la red para completar tareas de interacción de datos a través de esta capa de protocolos. Estos acuerdos incluyen principalmente:
Basado en TCP
1||| FTP (Protocolo de transferencia de archivos, protocolo de transferencia de archivos)
Es un protocolo para transferir archivos entre dos computadoras en la red. Es una forma de copiar archivos del cliente al servidor a través de Internet. Los modos de transmisión incluyen Bin (binario) y ASCII (archivo de texto). Excepto en el caso de archivos de texto, se debe utilizar el modo binario para la transmisión.
2||| HTTP (Protocolo de transferencia de hipertexto, Protocolo de transferencia de hipertexto)
Es un protocolo de transporte utilizado para transmitir hipertexto desde un servidor WWW a un navegador local. Puede hacer que el navegador sea más eficiente y reducir la transmisión de la red. No solo garantiza que la computadora transmita documentos de hipertexto de manera correcta y rápida, sino que también determina qué parte del documento transmitido y qué parte del contenido se muestra primero.
3||| SMTP (Protocolo simple de transferencia de correo, protocolo simple de transferencia de correo)
Es un protocolo que proporciona una transmisión de correo electrónico confiable y eficiente. SMTP es un servicio de correo electrónico basado en el servicio de transferencia de archivos FTP. Se utiliza principalmente para transferir información de correo electrónico entre sistemas y proporcionar notificaciones relacionadas con el correo electrónico.
4||| Telnet (protocolo de inicio de sesión remoto)
Es un programa de inicio de sesión y emulación cuya función básica es permitir a los usuarios iniciar sesión e ingresar a sistemas informáticos remotos. Anteriormente, Telnet era un programa de terminal simple que enviaba todas las entradas del usuario a la computadora remota para su procesamiento. Actualmente, algunas de sus versiones más nuevas realizan más procesamiento localmente, brindan mejor respuesta y reducen la cantidad de información enviada a través del enlace a la computadora remota.
Basado en UDP
1||| TFTP (Protocolo trivial de transferencia de archivos, protocolo simple de transferencia de archivos)
Es un protocolo utilizado para la transferencia de archivos simple entre el cliente y el servidor, proporcionando servicios de transferencia de archivos sencillos y de bajo costo. Construido sobre UDP, proporciona servicios de transmisión de flujo de datos poco confiables, no proporciona autorización de almacenamiento ni mecanismos de autenticación y utiliza retransmisión de tiempo de espera para garantizar la llegada de datos.
2||| DHCP (Protocolo de configuración dinámica de host, protocolo de configuración dinámica de host)
Está diseñado en base a la estructura cliente/servidor. Todos los datos de configuración de la red IP son administrados centralmente por el servidor DHCP y son responsables de procesar las solicitudes DHCP del cliente; el cliente utilizará los datos del entorno IP asignados desde el servidor. Las direcciones IP asignadas por DHCP se pueden dividir en tres métodos: asignación fija, asignación dinámica y asignación automática.
3||| DNS (Sistema de nombres de dominio, sistema de nombres de dominio)
Existe una correspondencia uno a uno entre los nombres de dominio y las direcciones IP en Internet. Aunque los nombres de dominio son fáciles de recordar, las máquinas solo pueden reconocer las direcciones IP de las demás. La conversión entre ellos se denomina resolución de nombres de dominio. La resolución requiere un servidor de resolución de nombres de dominio especializado para completarse, DNS es el servidor que realiza la resolución de nombres de dominio. DNS busca computadoras y servicios por nombres fáciles de usar.
4||| SNMP (Protocolo simple de administración de red, protocolo simple de administración de red)
Fue propuesto para resolver problemas de administración de enrutadores en Internet. Puede usarse en IP, IPX, AppleTalk y otros protocolos de transmisión. SNMP se refiere a una colección de especificaciones de gestión de red, incluido el protocolo en sí, la definición de estructuras de datos y algunos conceptos relacionados. En la actualidad, SNMP se ha convertido en el estándar industrial de facto en el campo de la gestión de redes y cuenta con un amplio apoyo y aplicación. La mayoría de los sistemas y plataformas de gestión de redes se basan en SNMP.
(5) TCP y UDP
Hay dos protocolos de transmisión importantes en la capa de transporte OSI, a saber, TCP (Protocolo de control de transmisión) y UDP (Protocolo de datagramas de usuario). Estos protocolos son responsables de proporcionar control de flujo, verificación de errores y clasificación.
TCP es uno de los protocolos más importantes de todo el conjunto de protocolos TCP/IP. Basado en los servicios de datos poco confiables proporcionados por el protocolo IP, utiliza tecnología de retransmisión para proporcionar a las aplicaciones un servicio de transferencia de datos completamente doble, confiable y orientado a la conexión. . El protocolo TCP se utiliza generalmente en situaciones donde la cantidad de datos transmitidos es relativamente pequeña y los requisitos de confiabilidad son altos.
UDP es un protocolo sin conexión y poco confiable que garantiza la comunicación entre procesos de aplicaciones. En comparación con TCP, UDP es un protocolo sin conexión y su función de detección de errores es mucho más débil. Se puede decir que TCP ayuda a brindar confiabilidad, mientras que UDP ayuda a aumentar la tasa de transferencia. El protocolo UDP se utiliza generalmente en situaciones donde se transmite una gran cantidad de datos y los requisitos de confiabilidad no son muy altos, pero se requiere una velocidad rápida.
6. Redes definidas por software SDN
La red definida por software (SDN) es una nueva arquitectura de red innovadora y un método de implementación de virtualización de red. Puede definir y controlar la red a través de la programación de software. Combina el plano de control de los equipos de red con los datos. logrando así un control flexible del tráfico de la red, haciendo la red más inteligente y proporcionando una buena plataforma para la innovación de redes y aplicaciones centrales.
Utilizando la idea de capas, SDN separa datos y control. La capa de control incluye un controlador lógicamente centralizado y programable que puede captar información de la red global y facilitar a los operadores e investigadores la gestión y configuración de la red y el despliegue de nuevos protocolos. En la capa de datos, incluidos los conmutadores tontos (que son diferentes de los conmutadores tradicionales de capa 2 y están diseñados específicamente para reenviar datos), solo proporcionan funciones simples de reenvío de datos, que pueden procesar rápidamente paquetes de datos coincidentes y adaptarse al aumento del flujo. . Las dos capas utilizan interfaces unificadas abiertas (como Openflow, etc.) para interactuar. El controlador entrega reglas estándar unificadas al conmutador a través de una interfaz estándar, y el conmutador solo necesita realizar las acciones correspondientes de acuerdo con estas reglas. SDN rompe la naturaleza cerrada de los equipos de red tradicionales.
La arquitectura general de SDN se divide en plano de datos, plano de control y plano de aplicación de abajo hacia arriba (de sur a norte). Entre ellos, el plano de datos se compone de hardware de red general, como conmutadores, y varios dispositivos de red están conectados a través de rutas de datos SDN formadas por diferentes reglas; el plano de control incluye el controlador SDN centrado lógicamente, que controla la información de la red global y es responsable de ella; todos los aspectos de la red control de las reglas de reenvío; el plano de la aplicación incluye varias aplicaciones de red basadas en SDN, y los usuarios pueden programar e implementar nuevas aplicaciones sin preocuparse por los detalles subyacentes.
El plano de control y el plano de datos se comunican a través de la interfaz de plano de datos de control (CDPI) SDN, que tiene un estándar de comunicación unificado y es el principal responsable de entregar las reglas de reenvío en el controlador al dispositivo de reenvío. La aplicación principal es el protocolo OpenFlow. . El plano de control y el plano de aplicación se comunican a través de la interfaz SDN North Bound (NBI) que no es un estándar unificado. Permite a los usuarios personalizar y desarrollar varias aplicaciones de administración de red según sus propias necesidades.
Las interfaces en SDN son abiertas, con el controlador como centro lógico. La interfaz sur es responsable de comunicarse con el plano de datos, la interfaz norte es responsable de comunicarse con el plano de aplicación y la interfaz este-oeste es responsable de la comunicación entre ellos. múltiples controladores. ¡El CDP de interfaz sur más convencional utiliza el protocolo OpenFlow. La característica más básica de OpenFlow es hacer coincidir las reglas de reenvío según el concepto de flujo. Cada conmutador mantiene una tabla de flujo (FlowTable) y reenvía el establecimiento, mantenimiento y distribución de la tabla de flujo de acuerdo con las reglas de reenvío en la tabla de flujo. todo hecho por el controlador. Para la interfaz norte, la aplicación llama a varios recursos de red necesarios a través de la programación de la interfaz norte para lograr una configuración e implementación rápidas de la red. La puerta este-oeste hace que el controlador sea escalable y proporciona garantía técnica para el equilibrio de carga y la mejora del rendimiento.
7. tecnología de comunicación móvil de quinta generación
La tecnología de comunicaciones móviles de quinta generación (5G) es una nueva generación de tecnología de comunicaciones móviles con las características de alta velocidad, bajo retraso y gran conexión.
La Unión Internacional de Telecomunicaciones (JTU) define ocho indicadores principales de 5G:
Los estándares técnicos internacionales 5G se centran en satisfacer las necesidades de una Internet de las cosas flexible y diversa. Basado en las tecnologías básicas de acceso múltiple por división de frecuencia ortogonal (OFDMA) y salida múltiple de entrada múltiple (MIMO), 5G adopta un diseño de sistema nuevo y flexible para admitir tres escenarios de aplicación principales. En términos de bandas de frecuencia, a diferencia de 4G, que admite bandas de frecuencia media y baja, 5G admite bandas de frecuencia media-baja y alta. Para admitir una transmisión de alta velocidad y una mejor cobertura, 5G adopta nuevos esquemas de codificación de canales LDPC (un código de corrección de errores grupales con una matriz de verificación dispersa) y Polar (un código de bloque lineal basado en la teoría de la polarización de canales) con un rendimiento más sólido. tecnología de antena, etc. Para admitir una baja latencia y una alta confiabilidad, 5G utiliza tecnologías como fotogramas cortos, retroalimentación rápida y retransmisión de datos multicapa/multiestación.
La Unión Internacional de Telecomunicaciones (UIT) ha definido tres escenarios de aplicación principales para 5G, a saber, banda ancha móvil mejorada (eMBB), comunicaciones ultra confiables de baja latencia (uRLLC) y comunicaciones masivas de tipo máquina (mMTC). La banda ancha móvil mejorada tiene como objetivo principal el crecimiento explosivo del tráfico de Internet móvil y proporciona a los usuarios de Internet móvil una experiencia de aplicación más extrema, confiabilidad ultraalta y comunicación de baja latencia, principalmente para control industrial, telemedicina, conducción autónoma, etc. tiene una latencia y confiabilidad extremadamente altas. Necesidades de aplicaciones industriales verticales requeridas: las comunicaciones masivas tipo máquina están orientadas principalmente a las necesidades de aplicaciones dirigidas a la detección y la recopilación de datos, como ciudades inteligentes, hogares inteligentes y monitoreo ambiental.
iv. Almacenamiento y base de datos
1. tecnología de almacenamiento
(1) La clasificación del almacenamiento se divide en almacenamiento de sistema cerrado y almacenamiento de sistema abierto según el tipo de servidor. Los sistemas cerrados se refieren principalmente a servidores como mainframes. Los sistemas abiertos se refieren a servidores basados en sistemas operativos, incluidos Kirin, Euler, UNIX, Linux y otros sistemas operativos. El almacenamiento del sistema abierto se divide en: almacenamiento integrado y almacenamiento enchufable.
(2) El almacenamiento de complementos se divide en
1||| Almacenamiento adjunto directo (DAS)
DAS, también conocido como SAS (Server-Attached Storage, almacenamiento conectado al servidor). DAS se define como un dispositivo de almacenamiento de datos conectado directamente a varias interfaces de expansión de servidor o cliente. Depende del servidor y es una pila de hardware sin ningún sistema operativo de almacenamiento. En este enfoque, el dispositivo de almacenamiento se conecta directamente al servidor mediante un cable (normalmente un cable de interfaz SCSI) y las solicitudes de E/S (entrada/salida) se envían directamente al dispositivo de almacenamiento.
2||| El almacenamiento en red (Fabric-Attached Storage, FAS) se divide en
a. Almacenamiento conectado a la red (NAS)
NAS también se denomina dispositivo de almacenamiento conectado directamente a la red o matriz de discos de red. Es un dispositivo profesional de almacenamiento y copia de seguridad de archivos en red. Se basa en LAN (red de área local) y se comunica de acuerdo con el protocolo TCP/IP. Utiliza el modo de E/S de archivos (entrada/salida) para la transmisión de datos. Un NAS incluye un procesador central, herramientas de administración de servicios de archivos y uno o más discos duros para almacenamiento de datos.
b. Red de área de almacenamiento (SAN)
SAN es una subred dedicada de alta velocidad que conecta dispositivos de almacenamiento, como matrices de discos y cintas, a servidores relacionados a través de concentradores de fibra óptica, enrutadores de fibra óptica, conmutadores de fibra óptica y otros dispositivos de conexión. SAN se compone de tres componentes básicos: interfaces (como SCSI, Fibre Channel, ESCON, etc.), dispositivos de conexión (equipos de conmutación, puertas de enlace, enrutadores, concentradores, etc.) y protocolos de control de comunicación (como IP y SCSI, etc. .). Estos tres componentes, más dispositivos de almacenamiento adicionales y servidores SAN independientes, forman un sistema SAN. SAN incluye principalmente FC SAN e IP SAN. El medio de red de FC SAN es Fibre Channel, mientras que IP SAN utiliza Ethernet estándar. IP SAN puede combinar las funciones de uso compartido proporcionadas por SAN para servidores y la facilidad de uso de las redes IP, y brindar a los usuarios una experiencia de alto rendimiento similar al almacenamiento local en el servidor.
(3) Virtualización de almacenamiento
La virtualización del almacenamiento es una de las tecnologías centrales del "almacenamiento en la nube". Integra recursos de almacenamiento de una o más redes y proporciona a los usuarios una vista lógica abstracta. Los usuarios pueden utilizar la lógica unificada en esta vista para acceder a los recursos de almacenamiento integrados.
La virtualización del almacenamiento permite convertir los dispositivos de almacenamiento en almacenes de datos lógicos. Una máquina virtual se almacena como un conjunto de archivos en un directorio del almacén de datos. El almacenamiento de datos es un contenedor lógico similar a un sistema de archivos. Oculta las características de cada dispositivo de almacenamiento y forma un modelo unificado para proporcionar discos a las máquinas virtuales. La tecnología de virtualización de almacenamiento ayuda al sistema a administrar los recursos de almacenamiento de la infraestructura virtual, informando la utilización y flexibilidad de los recursos y el tiempo de actividad de las aplicaciones.
(4) almacenamiento verde
La tecnología de almacenamiento ecológico se refiere a la tecnología utilizada desde la perspectiva de la conservación de energía y la protección del medio ambiente para diseñar y producir productos de almacenamiento con mejor eficiencia energética, reducir el consumo de energía de los dispositivos de almacenamiento de datos y mejorar el rendimiento por vatio de los dispositivos de almacenamiento.
El núcleo de la tecnología de almacenamiento ecológico es diseñar procesadores y sistemas más eficientes que funcionen a menor temperatura, produzcan sistemas o componentes de almacenamiento con menor consumo de energía y reduzcan los compuestos electrónicos de carbono producidos por los productos. El objetivo final es mejorar el rendimiento de todo el almacenamiento en red. Eficiencia energética, utilizando la menor capacidad de almacenamiento de agua para satisfacer las necesidades del negocio, consumiendo así la menor cantidad de energía. Un sistema de almacenamiento guiado por conceptos ecológicos es, en última instancia, un equilibrio entre capacidad de almacenamiento, rendimiento y consumo de energía.
La tecnología de almacenamiento ecológico incluye todas las tecnologías de almacenamiento compartido, incluidos sistemas de disco y cinta, conexiones de servidor, dispositivos de almacenamiento, arquitectura de red y otras arquitecturas de red de almacenamiento, servicios de archivos y software de aplicaciones de almacenamiento, eliminación de datos de recuperación, aprovisionamiento ligero automático y tecnología de copia de seguridad basada en cinta. Las tecnologías que pueden mejorar la utilización del almacenamiento y reducir los costos de construcción y operación tienen como objetivo mejorar la eficiencia energética de todas las tecnologías de almacenamiento en red.
2. modelo de estructura de datos
(1) El modelo de estructura de datos es el núcleo del sistema de base de datos. La transformación de la estructura de datos describe el método de estructurar y manipular datos en la base de datos. La parte estructural del modelo especifica cómo se describen los datos (como árboles, tablas, etc.). La parte de manipulación del modelo especifica operaciones como agregar, eliminar, mostrar, mantener, imprimir, buscar, seleccionar, organizar y actualizar datos.
(2) Hay tres modelos de estructura de datos comunes: modelo jerárquico, modelo de red y modelo relacional. El modelo jerárquico y el modelo de red se denominan colectivamente modelo de datos formateados.
1||| modelo jerárquico
El modelo jerárquico es el modelo más antiguo utilizado en sistemas de bases de datos. Utiliza una estructura de "árbol" para representar la asociación entre conjuntos de entidades, en la que los conjuntos de entidades (representados por cuadros rectangulares) son nodos y las conexiones entre los nodos en el árbol. representan la relación entre ellos. (Solo puede manejar relaciones de entidad de uno a muchos)
Cualquier valor de registro determinado en el modelo jerárquico solo se puede ver según su ruta jerárquica. Ningún valor de registro secundario puede existir independientemente del valor del registro principal.
Los beneficios clave incluyen:
a. La estructura de datos del modelo jerárquico es relativamente simple y clara.
b. La eficiencia de las consultas de la base de datos jerárquica es alta y su rendimiento es mejor que el modelo relacional y nada menos que el modelo de red.
c. 3: El modelo jerárquico proporciona un buen soporte de integridad.
Las principales desventajas incluyen:
a. Muchas relaciones en el mundo real no son jerárquicas y no es adecuado utilizar modelos jerárquicos para representar relaciones de muchos a muchos entre nodos.
b. Si un nodo tiene varios nodos principales, etc., utilizar un modelo jerárquico para representar dichas conexiones es complicado y sólo puede resolverse introduciendo datos redundantes o creando estructuras de datos no naturales.
c. Existen muchas restricciones en las operaciones de inserción y eliminación, por lo que escribir aplicaciones es más complicado.
d. La consulta de los nodos secundarios debe pasar por los nodos principales.
e. Debido a su estricta estructura, los comandos jerárquicos tienden a ser de procedimiento.
2||| modelo de malla
Un modelo de estructura de datos que utiliza una estructura de gráfico dirigido para representar tipos de entidades y relaciones entre entidades se denomina modelo de red.
En el modelo de red, los registros se utilizan como unidad de almacenamiento de datos. Un registro contiene varios elementos de datos. Los elementos de datos en una base de datos de red pueden ser datos compuestos y de múltiples valores. Cada registro tiene un identificador interno que lo identifica de forma única, llamado código (DatabaseKey, DBK), que es asignado automáticamente por el sistema de gestión de bases de datos DBMS cuando un registro se almacena en la base de datos. DBK puede considerarse como la dirección lógica del registro, puede usarse como un "suplente" del registro o puede usarse para buscar registros. La base de datos de la red es una base de datos de navegación. Al operar la base de datos, los usuarios no solo explican qué hacer, sino también cómo hacerlo. Por ejemplo, en la declaración de búsqueda, no solo se debe especificar el objeto de búsqueda, sino también la ruta de acceso.
Los beneficios clave incluyen:
a. Puede describir el mundo real de manera más directa y expresar varias relaciones complejas entre entidades.
b. Tiene buen rendimiento y alta eficiencia de acceso.
Las principales desventajas incluyen:
a. La estructura es relativamente compleja y no es fácil de utilizar para los usuarios.
b. La independencia de los datos es escasa. Dado que la relación entre entidades está esencialmente representada por rutas de acceso, las aplicaciones deben especificar rutas de acceso al acceder a los datos.
3||| modelo relacional
El modelo relacional es un modelo que utiliza una tabla bidimensional para representar entidades y las conexiones entre entidades en una base de datos estructurada relacional. El modelo relacional se desarrolla basándose en el concepto relacional de la teoría de conjuntos. En el modelo relacional, tanto las entidades como las conexiones entre entidades están representadas por una única relación de tipo estructural.
Los beneficios clave incluyen:
a. Estructura de datos única:
En el modelo relacional, tanto las entidades como las conexiones entre entidades están representadas por relaciones, y las relaciones corresponden a una tabla de datos bidimensional, y la estructura de datos es simple y clara.
b. Las relaciones están estandarizadas y basadas en estrictos fundamentos teóricos:
Las normas básicas que constituyen una relación requieren que cada atributo de la relación no pueda subdividirse y que la relación se base en conceptos matemáticos estrictos con una base teórica sólida.
c. Concepto simple y fácil de operar:
La mayor ventaja del modelo relacional es que es simple y fácil de entender y dominar para los usuarios. Una relación es una tabla bidimensional. Los usuarios solo necesitan utilizar lenguajes de consulta simples para operar la base de datos.
Las principales desventajas incluyen:
a. La ruta de acceso es transparente para los usuarios y la eficiencia de las consultas a menudo no es tan buena como la del modelo de datos formateado.
b. Para mejorar el rendimiento, se deben optimizar las solicitudes de consulta de los usuarios, lo que aumenta la dificultad de desarrollar un sistema de gestión de bases de datos.
3. Tipos de bases de datos comunes
(1) Base de datos relacional (SQL)
Las bases de datos en red y las bases de datos jerárquicas han resuelto bien los problemas de centralización e intercambio de datos, pero todavía existen grandes deficiencias en la independencia de los datos y los niveles de abstracción. Cuando los usuarios acceden a estas dos bases de datos, aún necesitan aclarar la estructura de almacenamiento de los datos e indicar la ruta de acceso. Para solucionar este problema surgió la base de datos relacional, que utiliza el modelo relacional como forma de organizar los datos.
Una base de datos relacional es una colección de todas las entidades y las relaciones entre entidades en un dominio de aplicación determinado. Las bases de datos relacionales respaldan los principios ACID de las transacciones, es decir, los cuatro principios de atomicidad, coherencia, aislamiento y durabilidad garantizan la exactitud de los datos durante el proceso de transacción.
Las características clave incluyen
1||| El orden de las filas y columnas de la tabla no es importante
2||| Fila: cada fila de la tabla, también llamada registro.
3||| Columna: cada columna de la tabla, también conocida como atributos y campos.
4||| Clave primaria PK (clave principal): el campo de clave externa FK utilizado para determinar de forma única un registro
5||| Dominio: el rango de valores del atributo. Por ejemplo, el género solo puede tener dos valores: "masculino" y "femenino".
(2) Base de datos no relacional (no solo SQL, NoSQL)
La base de datos de minería de datos no relacional es un sistema de almacenamiento de datos distribuido y no relacional que no garantiza el cumplimiento de los principios ACID. El almacenamiento de datos NoSQL no requiere una estructura de tabla fija y, por lo general, no hay operaciones de unión. Tiene ventajas de rendimiento que las bases de datos relacionales no pueden igualar en términos de acceso a big data.
Las características clave incluyen
1||| almacenamiento no estructurado
2||| Basado en un modelo relacional multidimensional.
3||| Tener escenarios de uso específicos
Las bases de datos no relacionales comunes se dividen en:
1||| base de datos clave-valor
Similar a las tablas hash utilizadas en los lenguajes tradicionales. Puede agregar, consultar o eliminar la base de datos por clave, porque el uso de la clave de acceso principal logrará un alto rendimiento y escalabilidad. Para los sistemas de información, las ventajas del tipo Clave/Valor son la simplicidad, la facilidad de implementación y la alta concurrencia.
2||| Base de datos orientada a columnas
Almacenar datos en familias de columnas. Un almacén de familias de columnas a menudo se consulta en conjunto. Por ejemplo, las personas suelen consultar el nombre y la edad de una persona en lugar del salario. En este caso, el nombre y la edad se colocarán en una familia de columnas y el salario se colocará en otra familia de columnas. Este tipo de base de datos se utiliza normalmente para el almacenamiento distribuido de datos masivos.
3||| Base de datos orientada a documentos
La base de datos de documentos puede considerarse como una versión mejorada de la base de datos de valores clave, que permite anidar valores clave y la eficiencia de las consultas de la base de datos de documentos es mayor que la de la base de datos de valores clave. Las bases de datos orientadas a documentos almacenan datos en forma de documentos.
4||| base de datos gráfica
Permite a las personas almacenar datos como gráficos. Las entidades actuarán como vértices y las relaciones entre entidades actuarán como aristas.
4. base de datos
Los sistemas de bases de datos tradicionales carecen de la información de datos históricos del mercado necesaria para el análisis de la toma de decisiones, porque las bases de datos tradicionales generalmente solo retienen información de datos actuales o recientes. Para satisfacer las necesidades de análisis de predicción y toma de decisiones de los gerentes de nivel medio y alto, se creó un entorno de datos (un almacén de datos) que puede satisfacer las necesidades de análisis de predicción y toma de decisiones sobre la base de bases de datos tradicionales.
Los conceptos básicos relacionados con el almacén de datos incluyen
1||| Extraer/Transformar/Cargar, ETL
El usuario extrae todos los datos de la fuente de datos y, después de la limpieza y conversión de los datos, finalmente se cargan en el almacén de datos de acuerdo con el modelo de almacén de datos predefinido.
2||| metadatos
Los datos sobre datos se refieren a datos clave relacionados con las definiciones de fuentes de datos, definiciones de destino, reglas de conversión, etc. generados durante el proceso de construcción del almacén de datos. Los metadatos también contienen información comercial sobre el significado de los datos. Los metadatos típicos incluyen: la estructura de la tabla del almacén de datos, los atributos de la tabla del almacén de datos, los datos de origen del almacén de datos (sistema de registro), el mapeo del sistema de registro al almacén de datos, la especificación del modelo de datos, la extracción de registros y la utilidad de acceder a los datos, etc.
3||| granularidad
El nivel de granularidad o exhaustividad de los datos almacenados en el almacén de datos de un almacén de datos. Cuanto mayor es el grado de refinamiento, menor es el nivel de granularidad; por el contrario, cuanto menor es el grado de refinamiento, mayor es el nivel de granularidad.
4||| segmentación
Los datos con la misma estructura se dividen en múltiples unidades físicas de datos. Cualquier unidad de datos determinada está sujeta a exactamente una partición.
5||| mercado de datos
Almacén de datos pequeño, a nivel de departamento o grupo de trabajo.
6||| Almacén de datos de operación (ODS)
Una recopilación de datos que puede respaldar las aplicaciones globales diarias de una organización es un nuevo entorno de datos diferente de DB y es una forma híbrida obtenida después de la expansión de DW. Tiene cuatro características básicas: orientada a temas, integrada, variable y actual o casi actual.
7||| modelo de datos
Estructura lógica de datos, incluidas las operaciones y restricciones proporcionadas por un sistema de gestión de bases de datos para un procesamiento eficiente de bases de datos;
8||| relación artificial
Una técnica de diseño que utiliza 1-1 para representar la integridad referencial en un entorno de sistema de soporte de decisiones.
Un almacén de datos es una colección de datos orientada a temas, integrada, no volátil y variable en el tiempo que se utiliza para respaldar las decisiones de gestión.
Arquitectura
1||| fuente de datos
Es la base del sistema de almacenamiento de datos y la fuente de datos de todo el sistema. Generalmente incluye información interna de la organización e información externa a la organización. La información interna incluye el almacenamiento de diversos datos de procesamiento empresarial y diversos datos de documentos en el sistema de gestión de bases de datos relacionales. La información externa incluye diversas leyes y regulaciones, información de mercado, información de la competencia, etc.
2||| Almacenamiento y gestión de datos.
Es el núcleo de todo el sistema de almacenamiento de datos. El método de organización y gestión del data warehouse determina que se diferencia de las bases de datos tradicionales, y también determina su representación de datos externos. Extraiga, digiera e integre eficazmente datos de sistemas empresariales existentes y organícelos según temas. Los almacenes de datos se pueden dividir en almacenes de datos a nivel organizacional y almacenes de datos a nivel departamental (a menudo llamados data marts) según el alcance de la cobertura de datos.
3||| Servidor de procesamiento analítico en línea (On-LineAnalyticProcessing, OLAP)
OLAP integra eficazmente los datos necesarios para el análisis y los organiza según modelos multidimensionales para realizar análisis de múltiples ángulos y niveles y descubrir tendencias. Su implementación específica se puede dividir en: OLAP (OLAP relacional, ROLAP) basado en bases de datos relacionales, OLAP (OLAP multidimensional, MOLAP) basado en organización de datos multidimensionales y OLAP (OLAP híbrido, HOLAP) basado en organización de datos híbrida. Los datos básicos y agregados de ROLAP se almacenan en RDBMS; los datos básicos y agregados de MOLAP se almacenan en bases de datos multidimensionales; los datos básicos de HOLAP se almacenan en un sistema de gestión de bases de datos relacionales (RDBMS) y los datos agregados se almacenan en una base de datos multidimensional.
4||| Herramientas frontales
Las herramientas de front-end incluyen principalmente varias herramientas de consulta, herramientas de informes, herramientas de análisis, herramientas de minería de datos y varias herramientas de desarrollo de aplicaciones basadas en almacenes de datos o mercados de datos. Entre ellas, las herramientas de análisis de datos están dirigidas principalmente a servidores OLAP, mientras que las herramientas de informes y de minería de datos están dirigidas principalmente a almacenes de datos.
v. seguridad de información
i. Los problemas comunes de seguridad de la información incluyen principalmente: proliferación de virus informáticos, intrusiones de malware, ataques de piratas informáticos, uso de delitos informáticos, proliferación de información ilegal en Internet, filtraciones de la privacidad personal, etc. Con la aplicación generalizada de tecnologías de la información de nueva generación, como Internet de las cosas, la computación en la nube, la inteligencia artificial y los macrodatos, la seguridad de la información también enfrenta nuevos problemas y desafíos.
ii. Conceptos básicos de seguridad de la información
Atributos de seguridad de la información
1. Confidencialidad
significado
La propiedad de que la información no es divulgada ni utilizada por personas, entidades y procesos no autorizados.
Garantiza que los datos transmitidos solo sean leídos por su destinatario previsto
manera de lograr
1||| cifrado
2||| Control de acceso
3||| esteganografía de información
2. integridad
significado
"Protegiendo el correcto y completo carácter del bien."
Asegúrese de que los datos recibidos sean los datos enviados y que los datos no deban cambiarse.
Tres aspectos de la verificación de la integridad:
1||| Evitar modificaciones por parte de partes no autorizadas.
2||| Evitar que los sujetos autorizados realicen modificaciones no autorizadas, como el uso indebido
3||| Asegúrese de que los datos no hayan sido modificados, esto requiere alguna forma de verificar
3. Disponibilidad
significado
Funciones a las que las entidades autorizadas pueden acceder y utilizar cuando sea necesario.
Asegúrese de que los datos estén disponibles cuando sea necesario.
Tríada de seguridad de la información = Objetivos de seguridad de la información
4. Otros atributos y objetivos
(1) autenticidad
(2) Verificabilidad
(3) no repudio
(4) fiabilidad
La seguridad del sistema de información se puede dividir en cuatro niveles:
(1) Seguridad del dispositivo
La seguridad de los equipos del sistema de información es la cuestión principal de la seguridad del sistema de información. La seguridad del equipo de los sistemas de información es la base material de la seguridad de los sistemas de información. Además de los dispositivos de hardware, los sistemas de software también son dispositivos y también se debe garantizar la seguridad de los dispositivos de software.
incluyen principalmente
1||| Estabilidad del equipo
La probabilidad de que el equipo no funcione mal dentro de un cierto período de tiempo.
2||| Fiabilidad del equipo
La probabilidad de que el equipo pueda realizar sus tareas normalmente dentro de un cierto período de tiempo.
3||| Disponibilidad de equipos
La probabilidad de que el dispositivo esté listo para su uso normal en cualquier momento.
(2) Seguridad de datos
En muchos casos, incluso si el equipo del sistema de información no está dañado, la seguridad de sus datos puede haberse visto comprometida, como por ejemplo, fuga de datos, manipulación de datos, etc. Dado que los comportamientos que ponen en peligro la seguridad de los datos están muy ocultos y los usuarios de las aplicaciones de datos a menudo no son conscientes de ellos, son muy dañinos.
Sus propiedades de seguridad incluyen
1||| secreto
2||| integridad
3||| Disponibilidad
(3) Seguridad del contenido
La seguridad del contenido es un requisito para la seguridad de la información a nivel político, legal y moral.
La seguridad del contenido incluye
1||| El contenido de la información es políticamente saludable.
2||| El contenido de la información cumple con las leyes y regulaciones nacionales.
3||| El contenido de la información se ajusta a los elevados estándares morales de la nación china.
La seguridad de contenido ampliamente definida también incluye
1||| Contenido confidencial
2||| Protección de la propiedad intelectual
3||| Ocultación de información y protección de la privacidad
Si los datos contienen contenido insalubre, ilegal y poco ético, incluso si son confidenciales y no han sido manipulados, no se puede decir que sean seguros.
(4) seguridad conductual
La seguridad de los datos es esencialmente una seguridad estática, mientras que la seguridad del comportamiento es una seguridad dinámica.
incluir
1||| Secreto de comportamiento:
El proceso y resultados de la conducta no deben poner en riesgo la confidencialidad de los datos. Cuando sea necesario, el proceso y los resultados de las acciones también deberán mantenerse en secreto.
2||| Integridad conductual:
El proceso y los resultados del comportamiento no pueden poner en peligro la integridad de los datos, y el proceso y los resultados del comportamiento son los esperados.
3||| Controlabilidad del comportamiento:
Capacidad para detectar, controlar o corregir cuando los procesos conductuales se desvían de las expectativas.
La seguridad del comportamiento enfatiza la seguridad de los procesos, lo que se refleja en el hecho de que los procedimientos de trabajo coordinados (secuencias de ejecución) de los dispositivos de hardware, dispositivos de software y sistemas de aplicaciones que componen el sistema de información cumplen con las expectativas del diseño del sistema. se garantice la seguridad general del sistema de información.
iii. Cifrado y descifrado
1. Para garantizar la seguridad de la información, es necesario utilizar tecnología de cifrado de información para disfrazar la información de modo que los ladrones ilegales de información no puedan comprender el verdadero significado de la información. El propietario legal de la información puede utilizar la firma para verificar la integridad de la misma. la información. Los algoritmos de cifrado se utilizan para autenticar, identificar y confirmar la identidad de los usuarios de la información para controlar el uso de la información.
2. La tecnología de cifrado consta de dos elementos: algoritmo y clave. El sistema criptográfico de la tecnología de cifrado de claves se divide en sistema de clave simétrica y sistema de clave asimétrica. En consecuencia, las tecnologías de cifrado de datos se dividen en dos categorías: cifrado simétrico (cifrado de clave privada) y cifrado asimétrico (cifrado de clave de litro). El cifrado simétrico suele estar representado por el algoritmo Estándar de cifrado de datos (DES), y el cifrado asimétrico suele estar representado por el algoritmo RSA (Rivest Shamir Adleman). La clave de cifrado y la clave de descifrado del cifrado simétrico son las mismas, mientras que las claves de cifrado y descifrado del cifrado asimétrico son diferentes. La clave de cifrado se puede hacer pública, pero la clave de descifrado debe mantenerse en secreto.
3. Tecnología de cifrado simétrico
El cifrado simétrico utiliza tecnología de codificación de criptografía simétrica, que se caracteriza por utilizar la misma clave para el cifrado y descifrado de archivos. Ambas partes que reciben la información necesitan conocer la clave y el algoritmo de cifrado y descifrado de antemano, y las claves son las mismas. Luego, los datos se cifran y descifran. Los algoritmos de cifrado simétrico se utilizan para cifrar datos confidenciales y otra información. Los algoritmos de cifrado simétrico son simples y rápidos de usar, tienen claves cortas y son difíciles de descifrar.
4. Tecnología de cifrado asimétrico
La idea básica de la criptografía de clave pública es dividir la clave K del cifrado tradicional en dos, en la clave de cifrado Ke y la clave de descifrado Kd. La clave de cifrado Ke se utiliza para controlar el cifrado y la clave de descifrado Kd. para controlar el descifrado, incluso si Hacer público Ke no expondrá Kd ni comprometerá la seguridad de la contraseña. Dado que Ke es público y sólo Kd es secreto, supera fundamentalmente la dificultad de la distribución de claves en la criptografía tradicional. Debido a que el cifrado RSA se puede utilizar tanto para cifrado como para firmas digitales, es seguro y fácil de entender, por lo que el cifrado RSA se ha convertido en el cifrado de clave pública más utilizado.
5. Función hash
La función Hash asigna un mensaje M de cualquier longitud a un código Hash de longitud fija, también llamado resumen de mensaje. Es una función de todos los bits del mensaje y tiene capacidades de verificación de errores: es decir, cambiar uno o más bits del mensaje. Todo conducirá a cambios en el código hash. Durante el proceso de autenticación, el remitente adjunta el código hash al mensaje que se enviará y lo envía al receptor. El receptor autentica el mensaje recalculando el código hash, realizando así las funciones de confidencialidad, autenticación de mensajes y firma digital.
6. firma digital
La firma es un dato que acredita la identidad de la persona y la autenticidad de los datos. En el entorno de la información, en el procesamiento de transacciones basado en la red como base para la transmisión de información, todas las partes involucradas en el procesamiento de la transacción deben utilizar firmas electrónicas, es decir, firmas digitales (Firma Digital). Actualmente, las firmas digitales cuentan con respaldo legal en algunos países.
Un sistema completo de firma digital debe cumplir las tres condiciones siguientes:
1||| El firmante no puede repudiar posteriormente su firma.
2||| Nadie más puede falsificar la firma.
3||| Si las partes cuestionan la autenticidad de una firma, pueden confirmar su autenticidad verificando la firma ante un árbitro imparcial.
Las firmas digitales y el cifrado de datos se pueden lograr simultáneamente utilizando la criptografía RSA.
7. Certificación
La autenticación, también conocida como identificación y confirmación, es un proceso de verificar si algo es digno de su nombre o válido.
La diferencia entre autenticación y cifrado es que el cifrado se utiliza para garantizar la confidencialidad de los datos y evitar ataques pasivos por parte de oponentes, como interceptaciones, escuchas ilegales, etc., mientras que la autenticación se utiliza para garantizar la autenticidad del remitente y del receptor del mensaje; la integridad del mensaje. Evitar que los oponentes sufran ataques activos, como suplantación de identidad, manipulación, repetición, etc. La autenticación suele ser la primera línea de protección de seguridad en muchos sistemas de aplicaciones, por lo que es extremadamente importante.
Los parámetros comúnmente utilizados en los sistemas de autenticación incluyen contraseñas, identificadores, claves, tokens, tarjetas inteligentes, huellas dactilares, patrones visuales, etc.
Las tecnologías de autenticación y firma digital son medidas para garantizar la autenticidad de los datos, pero existen diferencias obvias entre las dos:
1||| La autenticación siempre se basa en algún tipo de datos confidenciales compartidos tanto por el remitente como por el receptor para verificar la autenticidad del objeto que se autentica, mientras que los datos utilizados para verificar la firma en una firma digital son públicos.
2||| La autenticación permite a las partes emisora y receptora verificar la autenticidad de cada una y no permite a terceros verificarla, mientras que las firmas digitales permiten verificar tanto a las partes emisora como receptora y a un tercero.
3||| Las firmas digitales no pueden ser repudiadas por el remitente, no pueden ser falsificadas por el receptor y tienen la capacidad de resolver disputas ante notario público, mientras que la certificación no necesariamente tiene la capacidad.
iv. Seguridad del sistema de información
1. Los sistemas de información generalmente consisten en sistemas informáticos, sistemas de red, sistemas operativos, sistemas de bases de datos y sistemas de aplicaciones.
2. En consecuencia, la seguridad del sistema de información incluye principalmente
(1) Seguridad de equipos informáticos
Garantizar el funcionamiento seguro de los equipos informáticos es uno de los aspectos más importantes de la seguridad de los sistemas de información.
Además de la integridad, confidencialidad y disponibilidad, también incluye
1||| Resistencia a la negación
El antirepudio se refiere a la característica que garantiza que los usuarios no puedan negar la generación, emisión y recepción de información posteriormente. Los servicios antirepudio generalmente se brindan mediante firmas digitales.
2||| Auditabilidad
Utilizando el método de auditoría, se pueden realizar seguimientos de auditoría detallados sobre el proceso de trabajo del sistema de información informática y, al mismo tiempo, se pueden guardar registros de auditoría y registros de auditoría, a partir de los cuales se pueden descubrir problemas.
3||| fiabilidad
La probabilidad de que una computadora complete una función predeterminada en condiciones específicas y dentro de un tiempo determinado.
(2) la seguridad cibernética
Como principal portador de recopilación, almacenamiento, distribución, transmisión y aplicación de información, la seguridad de la red juega un papel vital o incluso decisivo en la seguridad de toda la información. El entorno de red crea un espacio ideal para compartir información, intercambiar información y servicios de información. Las características inherentes de apertura, interactividad y descentralización de Internet, si bien permiten a las personas compartir información de forma abierta, flexible y rápida, también plantean problemas relacionados con la seguridad de la red.
Problemas relacionados con la seguridad de la red:
1||| Fuga de información, contaminación de información, la información no es fácil de controlar.
2||| Fuga de información, destrucción de información, infracción de información y penetración de información.
3||| El sitio web sufrió ataques maliciosos que provocaron daños y parálisis
Las amenazas cibernéticas comunes incluyen:
1||| monitoreo de red
2||| Ataque de contraseña
3||| Ataques de denegación de servicio (DoS) y ataques de denegación de servicio distribuido (DDos)
4||| ataque de vulnerabilidad
5||| Red de bots
6||| Suplantación de identidad
7||| suplantación de identidad en internet
8||| Amenazas a la seguridad del sitio web: ataques de inyección SQL, ataques entre sitios, ataques de notas al margen, etc.
9||| Amenaza persistente avanzada (APT)
(3) Seguridad del sistema operativo
Según las manifestaciones de amenazas a la seguridad, son las siguientes:
1||| Virus de computadora
2||| bomba lógica
3||| caballo de Troya
4||| Puerta trasera: se refiere a un fragmento de código ilegal incrustado en el sistema operativo.
5||| Canal encubierto: una ruta de fuga de información no pública en el sistema que no está controlada por políticas de seguridad, viola las políticas de seguridad y no es pública.
(4) Seguridad del sistema de base de datos
Un sistema de base de datos es una plataforma para almacenar, gestionar, utilizar y mantener datos. La seguridad de la base de datos se refiere principalmente a la seguridad de los sistemas de gestión de bases de datos, y sus problemas de seguridad pueden considerarse problemas de seguridad de los datos utilizados para el almacenamiento en lugar de la transmisión.
(5) Seguridad del sistema de aplicaciones
La seguridad del sistema de aplicaciones se basa en la seguridad de los equipos informáticos, la seguridad de la red y la seguridad de las bases de datos. Al mismo tiempo, se adoptan antivirus, antimanipulación y verificación y auditoría de versiones eficaces para garantizar la legalidad e integridad de los propios programas de ejecución y archivos de configuración del sistema, que son medidas de garantía de seguridad extremadamente importantes.
v. tecnología de seguridad de red
1. cortafuegos
Un firewall es un mecanismo de filtrado construido en el límite de las redes internas y externas. La red interna se considera segura y confiable, mientras que la red externa (generalmente Internet) se considera insegura y no confiable. Los firewalls pueden monitorear el tráfico dentro y fuera de la red, permitiendo que solo ingrese información segura y aprobada mientras bloquean las amenazas de seguridad iniciadas dentro de la empresa. Las principales tecnologías de implementación de firewalls incluyen: filtrado de paquetes, puerta de enlace de aplicaciones y servicios de proxy, etc.
2. Detección y prevención de intrusiones
Hay dos tipos principales de tecnologías de detección y prevención de intrusiones: Sistema de detección de intrusiones (IDS) y Sistema de prevención de intrusiones (IPS).
El Sistema de Detección de Intrusiones (IDS) se centra en la supervisión del estado de seguridad de la red. Al monitorear los recursos de la red o del sistema, busca comportamientos que violen las políticas de seguridad o rastros de ataques y emite alarmas. Por tanto, la gran mayoría de los sistemas IDS son pasivos.
Los sistemas de prevención de intrusiones (IPS) tienden a proporcionar protección activa y centrarse en controlar el comportamiento de intrusiones. Está diseñado para interceptar actividades de intrusión y tráfico de red ofensivo con antelación para evitar pérdidas. IPS logra esta función incorporándolo directamente al tráfico de la red, es decir, recibe tráfico de sistemas externos a través de un puerto de red. Después de verificar que no contiene actividades anormales o contenido sospechoso, lo transmite a través de otro puerto. sistema interno. De esta manera, el paquete infractor, así como todos los paquetes posteriores del mismo flujo de datos, se pueden eliminar en el dispositivo IPS.
3. red privada virtual
VPN (red privada virtual) es una tecnología que se basa en un ISP (proveedor de servicios de Internet) y otro NSP (proveedor de servicios de red) para establecer un canal de comunicación de datos dedicado y seguro en una red pública. La VPN puede considerarse como la aplicación de tecnología de cifrado y autenticación en la transmisión de red.
La conexión de red VPN consta de tres partes: cliente, medio de transmisión y servidor. La conexión VPN no utiliza medios de transmisión físicos, sino que utiliza una tecnología llamada "túnel" como medio de transmisión. Este túnel se establece en una red pública o privada. en. Las tecnologías de túneles comunes incluyen: Protocolo de túnel punto a punto (PPTP), Protocolo de túnel de capa 2 (L2TP) y Protocolo de seguridad IP (IPSec).
4. escaneo de seguridad
El escaneo de seguridad incluye escaneo de vulnerabilidades, escaneo de puertos, escaneo de contraseñas (descubrimiento de contraseñas débiles), etc.
El escaneo de seguridad se puede completar aplicando un software llamado escáner. El escáner es una de las herramientas de detección de seguridad de red más efectivas. Puede detectar automáticamente debilidades de seguridad en hosts y sistemas de red remotos o locales, así como vulnerabilidades existentes en el sistema que pueden explotarse. .
5. Tecnología de honeypot de red
La tecnología Honeypot es una tecnología de defensa activa y una importante dirección de desarrollo de la tecnología de detección de intrusiones. También es una trampa para "atrapar" a los atacantes. Un sistema honeypot es un sistema señuelo que contiene vulnerabilidades y proporciona a los atacantes un objetivo fácil al simular uno o más hosts y servicios vulnerables. Los atacantes suelen perder el tiempo con los honeypots, retrasando los ataques a sus objetivos reales. Debido a las características y principios de la tecnología honeypot, puede proporcionar información importante y pistas útiles para el análisis forense de intrusiones, lo que facilita el estudio del comportamiento de ataque del intruso.
vi. Tecnología de protección contra amenazas web
1. Tecnología de control de acceso web
El control de acceso es la principal estrategia para la prevención y protección de la seguridad del sitio web. Su tarea principal es garantizar que visitantes ilegales no accedan a los recursos de la red.
2. Tecnología de inicio de sesión único (SSO)
Proporcione autenticación de identidad centralizada y unificada para que los sistemas de aplicaciones logren "un punto de inicio de sesión, múltiples puntos de acceso".
3. Tecnología antimanipulación de páginas web.
(1) tecnología de sondeo de tiempo
Utilice el programa de detección de páginas web para leer las páginas web que se van a monitorear mediante sondeo, compararlas con las páginas web reales para determinar la integridad del contenido de la página web y alertar y restaurar las páginas web manipuladas.
(2) Tecnología integrada central
La denominada tecnología central integrada es la tecnología de marca de agua con contraseña. Esta tecnología incorpora el módulo de detección de manipulación en el software del servidor web. Realiza comprobaciones de integridad cuando cada miembro de la red abandona la red, bloquea páginas web manipuladas en tiempo real y proporciona alarmas y recuperación.
(3) tecnología de activación de eventos
Consiste en utilizar el sistema de archivos o la interfaz del controlador del sistema operativo para verificar la legalidad cuando se modifica el archivo de la página web y para alertar y recuperar operaciones ilegales.
(4) Tecnología de controlador de filtro de archivos
Es una tecnología antimanipulación simple, eficiente, segura y extremadamente alta. A través del método de activación de eventos, el contenido del archivo en todas las carpetas del servidor web se compara con los atributos del archivo subyacente y se monitorea en tiempo real a través del algoritmo hash rápido incorporado, si se encuentran cambios en el atributo, el contenido en la ruta de respaldo; La carpeta se copiará al archivo de monitoreo. La ubicación del archivo correspondiente de la carpeta hace que la página manipulada sea invisible para el público.
4. Seguridad del contenido web
La gestión de la seguridad del contenido se divide en tres tecnologías: filtrado de correo electrónico, filtrado web y antispyware.
vii. cortafuegos de próxima generación
1. Next Generation Firewall (NGFW) es un firewall de alto rendimiento que puede responder de manera integral a las amenazas de la capa de aplicación. A través de información detallada sobre los usuarios, las aplicaciones y el contenido en el tráfico de la red, y con la ayuda de un nuevo motor de procesamiento paralelo heterogéneo de ruta única de alto rendimiento, NGFW puede proporcionar a los usuarios una protección de seguridad integrada efectiva en la capa de aplicaciones, ayudando a los usuarios a realizar hacer negocios de forma segura y simplificar la arquitectura de seguridad de la red.
2. Con el uso generalizado de SOA y Web2.0 en los sistemas de información, más tráfico se realiza sólo a través de unos pocos puertos y un número limitado de protocolos, lo que significa que la correlación entre las políticas de seguridad basadas en puertos/protocolos y la eficiencia es cada vez menor. e inferiores, y los cortafuegos tradicionales son básicamente incapaces de detectar amenazas que utilizan botnets como métodos de transmisión.
3. Sobre la base del filtrado de paquetes de firewall tradicional, la traducción de direcciones de red (NAT), la inspección del estado del protocolo y las funciones VPN, NGFW agrega las siguientes funciones nuevas:
(1) Sistema de prevención de intrusiones (IPS)
La función DPI de NGFW incluye IPS
(2) Visualización basada en el reconocimiento de aplicaciones.
NGFW bloquea o permite paquetes dependiendo de hacia dónde se dirigen. Lo hacen analizando el tráfico en la Capa 7 (la capa de aplicación). Los firewalls tradicionales no tienen esta capacidad porque solo analizan el tráfico de Capa 3 y Capa 4.
(3) Cortafuegos inteligente:
Se pueden recopilar y utilizar varios tipos de información fuera del firewall para mejorar las decisiones de bloqueo o servir como base para optimizar las reglas de bloqueo. Por ejemplo, utilice la integración de directorios para imponer el bloqueo según la identidad del usuario o la lista negra y la lista blanca según la dirección.
viii. Tecnología de análisis del comportamiento de seguridad
Los productos, tecnologías y soluciones de seguridad tradicionales se basan básicamente en la coincidencia de reglas de características conocidas para su análisis y detección. Basado en características, reglas y análisis humano, el análisis de detección con "características" como núcleo tiene puntos ciegos de visibilidad de seguridad, efectos de histéresis, fácil de pasar por alto y dificultad para adaptarse a la realidad de la red de confrontación ofensiva y defensiva, los cambios organizacionales rápidamente. medio ambiente y amenazas externas. Por otro lado, aunque la mayoría de los ataques pueden provenir de fuera de la organización, los daños graves suelen ser causados por personas internas. Sólo gestionando las amenazas internas se puede garantizar la seguridad de la información y la red.
User and Entity Behavior Analytics (UEBA) proporciona perfiles de usuario y detección de anomalías basándose en varios métodos de análisis, combinando métodos de análisis básicos (uso de reglas de firma, coincidencia de patrones, estadísticas simples, umbrales, etc.) y métodos de análisis avanzados (aprendizaje automático supervisado y no supervisado). , etc.), utilizan análisis empaquetados para evaluar usuarios y otras entidades (hosts, aplicaciones, redes, bases de datos, etc.) y descubren actividades relacionadas con perfiles estándar o comportamientos anormales de usuarios o entidades, eventos potenciales.
UEBA es un sistema completo que involucra partes de inspección como aplicación de la ley e ingeniería, así como intercambio de usuarios y antibloqueo, como clasificación y ajuste de puntajes de riesgo de usuarios y entidades. Desde un punto de vista arquitectónico, los sistemas UEBA generalmente incluyen una capa de adquisición de datos, una capa de análisis de algoritmos y una capa de aplicación de horneado en campo.
ix. Conciencia situacional de seguridad de la red
1. El conocimiento de la situación de seguridad de la red es la adquisición, comprensión y visualización de factores de seguridad que pueden causar cambios en la situación de la red en un entorno de red a gran escala y, en base a esto, predecir las tendencias futuras de desarrollo de la seguridad de la red. Es una capacidad general, dinámica y basada en el entorno para obtener información sobre los riesgos de seguridad. Sobre la base de big data de seguridad, se realizan la integración de datos, la extracción de características, etc., y luego se aplican una serie de métodos de evaluación de la situación para generar la situación general de la red y se utilizan algoritmos de predicción de la situación para predecir el desarrollo de la situación. y la tecnología de visualización de datos se utiliza para combinar la situación y la situación. La situación prevista se muestra al personal de seguridad, lo que permite al personal de seguridad comprender de forma intuitiva y conveniente el estado actual de la red y los riesgos esperados.
2. Las tecnologías clave para el conocimiento de la situación de seguridad de la red incluyen principalmente:
(1) Tecnología de convergencia y fusión de datos masivos, diversos y heterogéneos.
(2) Tecnología de evaluación de amenazas a la seguridad de la red para múltiples tipos
(3) Evaluación de la situación de seguridad de la red y tecnología de soporte a la toma de decisiones.
(4) Visualización de la situación de seguridad de la red.
vi. Desarrollo de la tecnología de la información.
Como base de la tecnología de la información, el software y hardware, las redes, el almacenamiento y las bases de datos, la seguridad de la información, etc. se desarrollan e innovan constantemente, liderando la tendencia actual de desarrollo de la tecnología de la información.
En términos de software y hardware, la tecnología de hardware se desarrollará en la dirección de velocidad ultraalta, tamaño ultrapequeño, procesamiento paralelo e inteligencia. Los equipos de hardware informático se volverán cada vez más pequeños, más rápidos y con mayor capacidad y capacidad. menor consumo de energía. Es cada vez más bajo y la confiabilidad es cada vez mayor. El software informático es cada vez más abundante y sus funciones son cada vez más poderosas. El concepto de "el software lo define todo" se ha convertido en la corriente principal del desarrollo actual.
En términos de tecnología de redes, la conexión entre la red informática y la tecnología de la comunicación es cada vez más estrecha e incluso integrada. Como una de las infraestructuras más importantes del país, 5G se ha convertido en la corriente principal actual, apuntando al Internet de las Cosas y a escenarios de baja latencia de Internet de las Cosas de Banda Estrecha (NB-IoT) y comunicaciones mejoradas de tipo máquina (tecnologías de máquina mejoradas como Se seguirán desarrollando plenamente la comunicación de tipos (eMTC), el Internet industrial de las cosas (lloT) y la comunicación ultrafiable de baja latencia (URLC).
En términos de almacenamiento y bases de datos, el crecimiento explosivo del volumen de datos ha promovido la evolución continua de la tecnología de bases de datos hacia la expansión del modelo y el desacoplamiento de la arquitectura.
En términos de seguridad de la información, el concepto tradicional de seguridad informática pasará a ser seguridad informática con el concepto de informática confiable como núcleo. Los cambios en la tecnología y los modelos de aplicación provocados por la popularización y aplicación de la red están promoviendo aún más la innovación de tecnologías clave. para redes de seguridad de la información, al mismo tiempo, la información La investigación y formulación de estándares de seguridad y la integración e integración de productos y servicios de seguridad de la información están liderando el desarrollo actual de estandarización e integración de la tecnología de seguridad de la información.
三、 Tecnologías de la información y aplicaciones de nueva generación.
I. Internet de las cosas, computación en la nube, big data, blockchain, inteligencia artificial, realidad virtual y otras tecnologías de la información de nueva generación y nuevos formatos comerciales que utilizan plenamente los recursos de información son las principales tendencias en el desarrollo de la informatización y el principal ámbito comercial de la información. Industria de integración de sistemas en el futuro.
II. Internet de las Cosas
i. El Internet de las Cosas resuelve principalmente la interconexión entre cosas (Thing to Thing, T2T), personas y cosas (Human to Thing, H2T), y personas y personas (Human to Human, H2H). Además, muchos académicos suelen introducir el concepto de M2M cuando hablan de Internet de las cosas: puede interpretarse como Hombre a Hombre, Hombre a Máquina o Máquina a Máquina.
ii. fundamento técnico
1. La arquitectura de IoT se puede dividir en tres capas
(1) Capa perceptiva
Se compone de varios sensores, incluidos sensores de temperatura, etiquetas de códigos QR, etiquetas RFID, lectores, cámaras, GPS y otros terminales de detección. La capa de percepción es la fuente para identificar objetos y recopilar información en Internet de las cosas.
(2) Capa de red
Se compone de varias redes, incluidas Internet, redes de radio y televisión, sistemas de gestión de redes y plataformas de computación en la nube. Es el centro de todo el Internet de las cosas y es responsable de transmitir y procesar la información obtenida por la capa de percepción.
(3) Capa de aplicación
Es la interfaz entre Internet de las cosas y los usuarios. Se combina con las necesidades de la industria para realizar aplicaciones inteligentes de Internet de las cosas.
2. La cadena industrial de Internet de las cosas incluye sensores y chips, equipos, operaciones y servicios de red, desarrollo de software y aplicaciones e integración de sistemas. La tecnología de Internet de las cosas tiene aplicaciones muy críticas e importantes en redes inteligentes, logística inteligente, hogares inteligentes, transporte inteligente, agricultura inteligente, protección ambiental, salud médica, gestión urbana (ciudades inteligentes), servicios y seguros financieros, seguridad pública, etc.
iii. Tecnologías clave
1. Tecnología de sensores
Un sensor es un dispositivo de detección que puede "sentir" la información medida y convertir la información detectada en señales eléctricas u otras formas de salida de información de acuerdo con ciertas reglas para satisfacer las necesidades de transmisión, procesamiento y almacenamiento de información, visualización, registro y. requisitos de control. Es el enlace principal para lograr la detección y el control automáticos, y también es el medio básico para que Internet de las cosas obtenga información sobre el mundo físico.
La identificación por radiofrecuencia (RFID) es una tecnología de sensores utilizada en Internet de las cosas y ha atraído mucha atención en el desarrollo de Internet de las cosas. RIFD puede identificar objetivos específicos y leer y escribir datos relacionados a través de señales de radio sin establecer contacto mecánico u óptico entre el sistema de identificación y el objetivo específico. RFID es un sistema inalámbrico simple que consta de un interrogador (o lector) y muchos transpondedores (o etiquetas). La etiqueta se compone de un elemento de acoplamiento y un chip. Cada etiqueta tiene un código electrónico único a largo plazo y se adjunta al objeto para identificar el objeto objetivo. Transmite información de radiofrecuencia al lector a través de la antena. es el dispositivo que lee la información. La tecnología RFID permite que los objetos "hablen". Esto le da al Internet de las Cosas una característica que es la trazabilidad. Es decir, las personas pueden captar la ubicación exacta de los elementos y su entorno en cualquier momento.
2. red de sensores
Los sistemas microelectromecánicos (MEMS) son sistemas integrados de microdispositivos compuestos por microsensores, microactuadores, circuitos de control y procesamiento de señales, interfaces de comunicación, fuentes de alimentación y otros componentes. Su objetivo es integrar la adquisición, el procesamiento y la ejecución de información para formar un microsistema multifuncional e integrarlo en un sistema a gran escala, mejorando así en gran medida el nivel de automatización, inteligencia y confiabilidad del sistema. Los MEMS dan nueva vida a los objetos comunes. Tienen sus propios canales de transmisión de datos, funciones de almacenamiento, sistemas operativos y aplicaciones especializadas, formando así una enorme red de sensores.
3. Marco del sistema de aplicaciones
El marco del sistema de aplicaciones de Internet de las cosas es una aplicación y un servicio en red con la interacción inteligente del terminal de la máquina como núcleo. Permitirá el control inteligente de objetos, involucrando cinco partes técnicas importantes: máquinas, hardware de sensores, redes de comunicación, middleware y aplicaciones. Este marco se basa en una plataforma de computación en la nube y una red inteligente, y puede tomar decisiones basadas en datos obtenidos de redes de sensores, cambiando el control del comportamiento y la retroalimentación de los objetos.
iv. Aplicación y desarrollo
Las aplicaciones en campos de infraestructura como la industria, la industria de la confección, el medio ambiente, el transporte, la logística y la seguridad han promovido eficazmente el desarrollo inteligente de estas áreas, permitiendo que los recursos limitados se utilicen y distribuyan de manera más racional en los campos del mobiliario del hogar, la salud médica, educación, La aplicación de Golden Touch en la industria de servicios, el turismo y otros campos, a través de la integración total con las ciencias sociales y la gobernanza social, ha logrado grandes cambios y avances en el alcance del servicio, los métodos de servicio y la calidad del servicio.
III. computación en la nube
i. La computación en la nube es un tipo de computación distribuida. En los primeros días de la computación en la nube, era una computación distribuida simple, que distribuía tareas y fusionaba resultados de cálculo. La computación en la nube actual no es solo un tipo de computación distribuida, sino el resultado de la evolución mixta y el salto de tecnologías informáticas como la computación distribuida, la computación de servicios públicos, el equilibrio de carga, la computación paralela, el almacenamiento en red, la redundancia de respaldo en caliente y la virtualización.
ii. fundamento técnico
1. La computación en la nube es un método informático basado en Internet en el que los recursos de software compartidos, los recursos informáticos, los recursos de almacenamiento y los recursos de información se configuran en la red y se proporcionan a los dispositivos terminales en línea y a los usuarios finales a pedido. La computación en la nube también puede entenderse como una arquitectura de procesamiento distribuido que protege a los usuarios de las diferencias subyacentes. En un entorno de computación en la nube, los usuarios están separados de los recursos informáticos proporcionados por los servicios reales y la nube recopila dispositivos y recursos informáticos.
2. Al utilizar los servicios de computación en la nube, los usuarios no necesitan contratar personal de mantenimiento especial. Los proveedores de servicios de computación en la nube proporcionarán un nivel relativamente alto de protección para la seguridad de los datos y los servidores. Dado que la computación en la nube almacena datos en la nube (la parte de un dispositivo de computación en la nube distribuida que realiza funciones de computación y almacenamiento), la lógica empresarial y los cálculos relacionados se completan en la nube. Por lo tanto, el terminal solo necesita un dispositivo ordinario que pueda cumplir con las aplicaciones básicas. .
3. Según el nivel de recursos proporcionados por los servicios de computación en la nube, se pueden dividir en tres tipos: tipo Infraestructura como servicio (IaaS), Plataforma como servicio (PaaS) y Software como servicio (SaaS).
(1) IaaS proporciona a los usuarios servicios de infraestructura como potencia informática y espacio de almacenamiento. Este modelo de servicio requiere grandes inversiones en infraestructura y experiencia de operación y gestión a largo plazo, y su rentabilidad simplemente alquilando recursos es limitada.
(2) PaaS proporciona a los usuarios servicios de plataforma como sistemas operativos virtuales, sistemas de gestión de bases de datos y aplicaciones web. El objetivo de los servicios PaaS no está en los beneficios económicos directos, sino en construir y formar un ecosistema industrial cercano.
(3) SaaS proporciona a los usuarios software de aplicaciones (como CRM, software de oficina, etc.), componentes, flujo de trabajo y otros servicios de software virtualizados. SaaS generalmente utiliza tecnología web y arquitectura SOA para brindar a los usuarios capacidades de aplicaciones personalizables y multiinquilino a través de Internet. Reducir Reduce la complejidad de las actualizaciones, personalización, operación y mantenimiento del software, y permite a los proveedores de software pasar de ser productores de productos de software a operadores de servicios de aplicaciones.
iii. Tecnologías clave
1. Las tecnologías clave de la computación en la nube implican principalmente
(1) tecnología de virtualización
La virtualización es un término amplio que generalmente se refiere a elementos informáticos que se ejecutan de forma virtual en lugar de real. La tecnología de virtualización puede ampliar la capacidad del hardware y simplificar el proceso de reconfiguración del software. La tecnología de virtualización de CPU puede simular múltiples CPU en paralelo con una sola CPU, lo que permite que una plataforma ejecute múltiples sistemas operativos al mismo tiempo, y las aplicaciones pueden ejecutarse en espacios independientes sin afectarse entre sí, mejorando así significativamente la eficiencia del trabajo de la computadora.
La tecnología de contenedores es una nueva tecnología de virtualización en un nuevo sentido, que pertenece a la categoría de virtualización del sistema operativo, es decir, el sistema operativo proporciona soporte de virtualización. El entorno de contenedores más popular actualmente es Docker. La tecnología de contenedores divide los recursos de un único sistema operativo en grupos aislados para equilibrar mejor las necesidades conflictivas de uso de recursos entre grupos aislados. El uso de tecnología de contenedores puede aislar la aplicación en un entorno de ejecución independiente, lo que puede reducir el consumo adicional causado por la ejecución del programa y puede ejecutarse de la misma manera en casi cualquier lugar.
(2) Tecnología de almacenamiento en la nube
La tecnología de almacenamiento en la nube es un nuevo método de gestión y almacenamiento de información desarrollado en base a los sistemas de medios tradicionales. Este método integra las ventajas de software y hardware de los sistemas informáticos y puede procesar grandes lotes de datos en línea de forma rápida y eficiente a través de una variedad de aplicaciones de tecnología en la nube. Las plataformas permiten la extracción de datos en profundidad y la gestión de la seguridad.
Como parte importante de la tecnología de almacenamiento en la nube, los sistemas de archivos distribuidos mejoran las funciones de replicación del sistema y tolerancia a fallas al tiempo que mantienen la compatibilidad.
(3) Gestión de control de acceso y multiinquilino
Es uno de los temas centrales en las aplicaciones de computación en la nube. La investigación sobre el control de acceso a la computación en la nube se centra principalmente en los modelos de control de acceso a la computación en la nube, el control de acceso a la computación en la nube basado en criptografía ABE, el control de acceso multiinquilino y la virtualización en la nube.
El modelo de control de acceso a la computación en la nube es un método para describir el sistema de seguridad de acuerdo con políticas de acceso específicas y establecer un modelo de seguridad. Según las diferentes funciones del modelo de control de acceso, el contenido y los métodos de la investigación también son diferentes. Los más comunes incluyen el modelo de control de acceso basado en tareas, el control de acceso a la computación en la nube basado en el modelo de atributos, el control de acceso a la computación en la nube basado en el modelo UCON y BLP. Computación en la nube basada en modelos.
El control de acceso a la computación en la nube basado en el mecanismo de contraseña ABE incluye cuatro partes: proveedores de datos, centros de autorización de terceros confiables, servidores de almacenamiento en la nube y usuarios. Primero, el centro de autorización confiable genera la clave maestra y los parámetros públicos, y pasa la clave pública del sistema al proveedor de datos. Después de que el proveedor de datos recibe la clave pública del sistema, utiliza el árbol de políticas y la clave pública del sistema para cifrar el archivo y. convierte el texto cifrado y la política. El árbol se carga en el servidor de la nube; luego, cuando un nuevo usuario se une al sistema, carga su conjunto de atributos en el centro de autorización de confianza y envía una solicitud de solicitud de clave privada. El centro de autorización de confianza calcula y genera la. conjunto de atributos y clave maestra enviada por el usuario. La clave privada se pasa al usuario finalmente, el usuario descarga los datos de interés. Si su conjunto de atributos satisface la estructura de árbol de políticas de los datos del texto cifrado, el texto cifrado se puede descifrar; de lo contrario, falla el acceso a los datos.
(4) Tecnología de seguridad en la nube
La investigación de seguridad en la nube incluye principalmente dos aspectos: uno es la protección de seguridad de la tecnología de computación en la nube en sí, que implica la correspondiente integridad y disponibilidad de los datos, la protección de la privacidad, la disponibilidad del servicio, etc., para garantizar las necesidades de protección de la seguridad; de los usuarios del cliente, la seguridad de Internet se logra a través de la tecnología de computación en la nube, que incluye prevención de virus basada en la computación en la nube y tecnología de detección de troyanos, etc.
En términos de investigación sobre tecnología de seguridad en la nube, incluye principalmente:
1||| Seguridad informática en la nube
Analiza principalmente la nube en sí y los servicios de aplicaciones involucrados, enfocándose en sus correspondientes problemas de seguridad. Implica principalmente cómo implementar efectivamente el aislamiento de seguridad, garantizar la seguridad de los datos de los usuarios de Internet y cómo proteger efectivamente contra ataques de red maliciosos. seguridad de la plataforma de computación en la nube, así como la autenticación de acceso de los usuarios y la correspondiente auditoría y seguridad de la transmisión de información.
2||| Asegurar la infraestructura de la nube
Lo principal es cómo utilizar los recursos correspondientes del correspondiente equipo de infraestructura de seguridad de Internet para optimizar eficazmente los servicios en la nube, de modo que P&I pueda cumplir con los requisitos de protección de seguridad esperados.
3||| Servicios de tecnología de seguridad en la nube
Cómo garantizar los requisitos del servicio de seguridad de los usuarios finales de Internet e implementar eficazmente la prevención de virus informáticos y otros servicios relacionados en el lado del cliente. A juzgar por el desarrollo de la arquitectura de seguridad en la nube, si el nivel de seguridad de los tubos de servicios de computación en la nube no es alto, los usuarios del servicio necesitarán tener capacidades de seguridad más sólidas y asumir más responsabilidades de gestión.
2. Para mejorar las capacidades del sistema de seguridad en la nube y garantizar su sólida confiabilidad, la tecnología de seguridad en la nube debe considerarse desde la perspectiva de la arquitectura de apertura y garantía de seguridad.
(1) El sistema de seguridad en la nube tiene cierto grado de apertura y debe garantizar una autenticación confiable en un entorno abierto:
(2) En términos de sistemas de seguridad en la nube, debemos adoptar activamente tecnología de red avanzada y tecnología de protección antivirus;
(3) Durante el proceso de construcción del sistema de seguridad en la nube, se debe garantizar su estabilidad para hacer frente a los cambios dinámicos de los datos masivos.
iv. Aplicación y desarrollo
1. Después de más de diez años de desarrollo, la computación en la nube ha entrado gradualmente en una etapa de madurez y está desempeñando un papel cada vez más importante en muchos campos. "Ir a la nube" se convertirá en el primer paso para que varias organizaciones aceleren la transformación digital y fomenten la innovación tecnológica. y promover el crecimiento empresarial. Una elección, incluso un requisito previo necesario.
2. La computación en la nube se convertirá además en un importante portador y campo de pruebas para tecnologías innovadoras y mejores prácticas de ingeniería. Desde la IA y el aprendizaje automático, la IoT y la informática de punta, la cadena de bloques hasta DevOps, la nube nativa y la malla de servicios en la práctica de la ingeniería, los proveedores de computación en la nube están participando, invirtiendo y promoviendo activamente. Tomando la inteligencia artificial como ejemplo, desde el suministro de recursos informáticos GPU en TaaS mencionado anteriormente, hasta la apertura de capacidades de modelos maduros en campos específicos (como API para diversos procesamientos de lenguaje natural, reconocimiento de imágenes y síntesis de lenguaje), hasta ayudar a Al crear una plataforma de aprendizaje automático del modelo AJ personalizada, la computación en la nube se ha convertido en realidad en la base de las tecnologías relacionadas con la IA.
3. La computación en la nube seguirá la tendencia de la Internet industrial, se hundirá en los escenarios industriales y se desarrollará profundamente hacia la verticalización y la industrialización.
4. El desarrollo trae nuevos problemas:
(1) Aunque la nube ya puede proporcionar una disponibilidad muy alta, para evitar el riesgo de falla de un solo proveedor, las aplicaciones críticas aún deben generar la redundancia técnica necesaria;
(2) Cuando la escala empresarial es grande, desde la perspectiva de la estrategia empresarial, también es necesario evitar un acuerdo de fabricante demasiado estrecho para buscar cierto nivel de controles, equilibrios e iniciativa empresarial.
5. Las cuatro tendencias principales: "innovación, verticalidad, hibridación y ecología" van acompañadas del rápido desarrollo de la computación en la nube. La computación en la nube estandariza, abstrae y escala los recursos de hardware y componentes de software de TI. En cierto sentido, subvierte y reconstruye la cadena de suministro de la industria de TI. Es una gran innovación y un progreso en el desarrollo de la nueva generación actual de tecnología de la información.
IV. Grandes datos
i. Big Data se refiere a una colección de datos que no se pueden capturar, gestionar y procesar dentro de un período de tiempo determinado utilizando herramientas de software convencionales. Es una recopilación de datos masiva, de alto crecimiento y de gran volumen con un mayor poder de toma de decisiones, descubrimiento de conocimientos y. Capacidades de optimización de procesos. Diversos activos de información.
ii. fundamento técnico
1. Big data son datos con las características de gran volumen, estructura diversa y gran puntualidad. El procesamiento de big data requiere el uso de nuevas tecnologías, como nuevas arquitecturas de contabilidad y préstamos y algoritmos inteligentes. Desde la fuente de datos hasta la realización del valor final, big data generalmente requiere procesos como preparación de datos, almacenamiento y gestión de datos, análisis y cálculo de datos, gobernanza de datos y presentación de conocimientos, que involucran modelos de datos, modelos de procesamiento, teoría informática y computación distribuida relacionada, investigación sobre tecnología de plataforma de almacenamiento distribuido, tecnología de extracción y limpieza de datos, tecnología de procesamiento incremental y computación en streaming, control de calidad de datos, etc.
2. En términos generales, las principales características del big data incluyen:
(1) Datos masivos
Salte del nivel TB al nivel PB (IPB=l024TB), nivel EB (IEB=I024PB) e incluso alcance el nivel ZB (IZB=I024EB).
(2) Varios tipos de datos
Hay muchos tipos de datos en big data, que generalmente se dividen en datos estructurados y datos no estructurados. En comparación con los datos estructurados basados en texto que se almacenaban en el pasado, cada vez hay más datos no estructurados, incluidos registros web, audio, vídeo, imágenes, información de ubicación geográfica, etc. Estos múltiples tipos de datos tienen mayores capacidades de procesamiento de datos. Se hicieron mayores exigencias.
(3) Baja densidad de valor de datos
El nivel de densidad del valor de los datos es inversamente proporcional al tamaño de la abundancia total de datos. Tomemos el video como ejemplo. Para un video de una hora, bajo monitoreo continuo e ininterrumpido, los datos útiles pueden ser solo uno o dos segundos. Cómo "purificar" el valor de los datos más rápidamente mediante potentes algoritmos mecánicos se ha convertido en un problema urgente a resolver en el contexto actual del big data.
(4) Procesamiento rápido de datos
Para extraer rápidamente el valor de los datos a partir de cantidades masivas de datos, generalmente es necesario procesar rápidamente diferentes tipos de datos. Esta es la característica más importante del big data que lo distingue de la minería de datos tradicional.
iii. Tecnologías clave
1. Como tecnología emergente en la era de la información, la tecnología de big data implica muchos aspectos, como el procesamiento, la gestión y la aplicación de datos. En concreto, la arquitectura técnica estudia y analiza la adquisición, gestión, procesamiento distribuido y aplicación de big data desde una perspectiva técnica.
2. La arquitectura de tecnología de big data incluye principalmente
(1) Tecnología de adquisición de big data
La investigación sobre la adquisición de big data se centra principalmente en tres aspectos: recopilación, integración y limpieza de datos. La tecnología de adquisición de datos logra la adquisición de fuentes de datos y luego garantiza la calidad de los datos mediante tecnología de integración y limpieza.
La tecnología de recopilación de datos obtiene principalmente información de datos de sitios web mediante rastreo distribuido, recopilación de datos distribuida de alta velocidad y alta confiabilidad y tecnología de imágenes de datos de red completa de alta velocidad. Además del contenido contenido en la red, el cobro de cargos por tráfico de red se puede procesar utilizando tecnologías de gestión de ancho de banda como DPI o DFI.
La tecnología de integración de datos se basa en la recopilación de datos y el reconocimiento de entidades para lograr una integración de datos de alta calidad en la información. La tecnología de integración de datos incluye modelos de integración de información multimodal y de múltiples fuentes, modelos de conversión inteligente de datos heterogéneos, algoritmos inteligentes de extracción y comparación de patrones para integración de datos heterogéneos, mapeo automático tolerante a fallas y calibración y algoritmos de conversión, y métodos de verificación de corrección para sistemas integrados. información, métodos de evaluación de usabilidad de la información integrada, etc.
La tecnología de limpieza de datos generalmente elimina datos irrazonables y erróneos basándose en condiciones de corrección y reglas de restricción de datos, repara información importante y garantiza la integridad de los datos. Incluyendo modelo semántico de corrección de datos, modelo de asociación y reglas de restricción de datos, modelo de error de datos y marco de aprendizaje de reconocimiento de errores, algoritmos de detección y reparación automática para diferentes tipos de errores, modelos de evaluación y métodos de evaluación de resultados de detección y reparación de errores, etc.
(2) Tecnología de procesamiento de datos distribuidos.
La computación distribuida surgió con el desarrollo de sistemas distribuidos. Su núcleo es descomponer las tareas en muchas partes pequeñas y asignarlas a varias computadoras para su procesamiento, lo que puede ahorrar tiempo de computación general y mejorar la eficiencia de la computación. . Actualmente, los principales sistemas informáticos distribuidos incluyen Hadoop, Spark y Storm. Hadoop se usa a menudo para el procesamiento de big data complejos fuera de línea, Spark se usa a menudo para el procesamiento rápido de big data fuera de línea y Storm se usa a menudo para el procesamiento de big data en línea en tiempo real.
El análisis de big data y la tecnología de minería se refieren principalmente a la mejora de las tecnologías de aprendizaje automático y minería de datos existentes: nuevas tecnologías de minería de datos, como la minería de redes de datos Shengfa, la minería de grupos específicos y la minería de gráficos innovadoras, como conexiones de datos basadas en objetos y conexiones de similitud; Tecnología de fusión: avances en tecnologías de minería de big data orientadas al campo, como análisis de intereses de usuarios, análisis de comportamiento de redes y análisis semántico emocional.
(3) Tecnología de gestión de big data
La tecnología de gestión de big data se centra principalmente en el almacenamiento de big data, la colaboración, la seguridad y la privacidad de big data.
La tecnología de almacenamiento de big data tiene principalmente tres aspectos:
1||| Un nuevo clúster de bases de datos que utiliza arquitectura MPP;
2||| Se han derivado tecnologías de big data relacionadas en torno a Hadoop;
3||| Basado en servidores integrados, dispositivos de almacenamiento, sistemas operativos y sistemas de administración de bases de datos, se logra una máquina todo en uno de big data con buena estabilidad y escalabilidad.
La tecnología de gestión colaborativa de múltiples centros de datos es otra dirección importante de la investigación de big data. A través del motor de flujo de trabajo distribuido, se realizan la programación del flujo de trabajo y el equilibrio de carga, y se integran los recursos informáticos y de almacenamiento de múltiples centros de datos para brindar soporte para la construcción de una plataforma de servicios de big data.
La investigación sobre la tecnología de privacidad de big data se centra principalmente en nuevas tecnologías de divulgación de datos, tratando de maximizar la privacidad del usuario y al mismo tiempo minimizar la pérdida de información de datos, satisfaciendo así las necesidades de seguridad de los datos y protección de la privacidad.
(4) Tecnología de servicios y aplicaciones de big data
1||| Las tecnologías de servicios y aplicaciones de big data incluyen principalmente tecnología de aplicación de análisis y tecnología de visualización.
2||| Las aplicaciones de análisis de big data son principalmente aplicaciones de análisis orientadas a los negocios. Basada en el análisis y la extracción de datos distribuidos sobre el nivel del mar, la tecnología de aplicación de análisis de big data está impulsada por las necesidades comerciales, lleva a cabo análisis de datos especiales para diferentes tipos de necesidades comerciales y brinda a los usuarios servicios de análisis de datos fáciles de usar y de alta disponibilidad. .
3||| La visualización ayuda a las personas a explorar y comprender datos complejos a través de representaciones visuales interactivas. La tecnología de visualización de big data se centra principalmente en tecnología de visualización de texto, tecnología de visualización de redes (gráficos), tecnología de visualización de datos espaciotemporales, visualización de datos multidimensionales y visualización interactiva, etc.
iv. Aplicación y desarrollo
1. En la industria de Internet, extraer el comportamiento de los usuarios a partir de los datos de Dalan y transmitirlos al campo empresarial respalda la publicidad y el marketing social más precisos, lo que puede aumentar los ingresos comerciales y promover el desarrollo empresarial.
2. En el campo de los datos públicos gubernamentales, combinado con la recopilación, gestión e integración de big data, la información recopilada por varios departamentos se analiza y comparte, lo que puede descubrir lagunas de gestión, aumentar los ingresos fiscales y tributarios, aumentar la supervisión del mercado y cambiar en gran medida. el modelo de gestión de gobierno. Mejorar el nivel de gobernanza social.
3. En el campo financiero, los informes crediticios de big data son un campo de aplicación importante. Brindar soporte efectivo a los servicios financieros a través del análisis y elaboración de perfiles de big data.
4. En el campo industrial, combinado con el análisis de datos de la presión del mar, puede proporcionar una guía precisa para el proceso de producción industrial.
5. En el campo de los medios de vida sociales y de las personas, el análisis y la aplicación de big data pueden servir mejor a los medios de vida de las personas.
V. cadena de bloques
i. El concepto de "blockchain" se propuso por primera vez en 2008 en "Bitcoin: un sistema de efectivo electrónico entre pares" y se aplicó con éxito en el sistema monetario de cifrado de datos del sistema Bitcoin. Se ha convertido en un foco de atención para gobiernos, organizaciones y empresas. académicos y puntos calientes de investigación. La tecnología Blockchain tiene las características de almacenamiento multicéntrico, protección de la privacidad y resistencia a la manipulación. Proporciona un mecanismo de transacción abierto, descentralizado y tolerante a fallas y se ha convertido en el núcleo de una nueva generación de pagos, remesas y activos digitales anónimos en línea. transacciones Es ampliamente utilizado en las principales La plataforma comercial ha traído cambios profundos en los campos de las finanzas, las agencias reguladoras, la innovación tecnológica, la agricultura y la política.
ii. fundamento técnico
1. El concepto de blockchain puede entenderse como una base de datos de almacenamiento distribuido basada en un algoritmo de cifrado asimétrico, un Merkle Tree (MerkleTree) mejorado como estructura de datos y una combinación de mecanismo de consenso, red peer-to-peer, contrato inteligente y otras tecnologías. . tecnología.
2. Blockchain se divide en cuatro categorías principales:
(1) PúblicoBlockchain
(2) ConsorcioBlockchain
(3) Cadena de bloques privada
(4) Cadena híbrida (HybridBlcokchain)
3. En términos generales, las características típicas de blockchain incluyen:
(1) Policentralización
La verificación, la contabilidad, el almacenamiento, el mantenimiento y la transmisión de datos en la cadena se basan en la estructura del sistema distribuido y se utilizan métodos matemáticos puros para reemplazar las organizaciones centralizadas para construir relaciones de confianza entre múltiples nodos distribuidos, estableciendo así un sistema distribuido confiable.
(2) Mantenimiento multipartito
El mecanismo de incentivo garantiza que todos los nodos del sistema distribuido puedan participar en el proceso de verificación de bloques de datos y seleccionar nodos específicos a través del mecanismo de consenso para agregar bloques recién generados a la cadena de bloques.
(3) Datos de series de tiempo
Blockchain utiliza una estructura de cadena con información de marca de tiempo para almacenar información de datos y agrega atributos de dimensión de tiempo a la información de datos, logrando así la trazabilidad de la información de datos.
(4) contrato inteligente
La tecnología Blockchain puede proporcionar a los usuarios códigos de script flexibles y variables para respaldar la creación de nuevos contratos inteligentes.
(5) no puede ser manipulado
En el sistema blockchain, debido a que los bloques posteriores entre bloques adyacentes pueden verificar los bloques anteriores, si se manipula la información de datos de un determinado bloque, el bloque y todos los bloques posteriores se modificarán de forma recursiva. Sin embargo, el costo de cada recálculo de hash es. enorme y debe completarse en un tiempo limitado, para garantizar la inviolabilidad de los datos de la cadena.
(6) consenso abierto
En la red blockchain, cada dispositivo físico puede servir como un nodo en la red, y cualquier nodo puede unirse libremente y tener una copia completa de la base de datos.
(7) Seguro y confiable
La seguridad de los datos se puede lograr cifrando los datos en la cadena basándose en tecnología de cifrado asimétrico. Cada nodo del sistema distribuido utiliza la potencia informática formada por el algoritmo de consenso de blockchain para resistir ataques externos y garantizar que los datos de la cadena no sean manipulados ni manipulados. falsificado. Como resultado, tiene mayor confidencialidad, credibilidad y seguridad.
iii. Tecnologías clave
1. Desde la perspectiva del sistema técnico blockchain, blockchain se basa en la tecnología de procesamiento, gestión y almacenamiento de datos subyacente, con gestión de datos en bloque, datos estructurados en cadena, firmas digitales, funciones hash, árboles de Merkel, cifrado asimétrico, etc., organizados. Los nodos participarán en la difusión y verificación de datos a través de una red simétrica basada en una red P2P. Cada nodo será responsable del enrutamiento de la red, la verificación de datos del bloque, la difusión de datos del bloque, el registro de datos de transacciones, el descubrimiento de nuevos nodos, etc. Función, incluido el mecanismo de propagación y mecanismo de verificación. Para garantizar la seguridad de la capa de aplicación blockchain, a través del mecanismo de emisión y el mecanismo de distribución de la capa de incentivo, se alcanza el consenso de la manera más eficiente entre los nodos de toda la red distribuida.
2. Libro mayor distribuido
El libro mayor distribuido es uno de los núcleos de la tecnología blockchain. La idea central del libro mayor distribuido es que la contabilidad de transacciones se completa mediante múltiples nodos distribuidos en diferentes lugares, y cada nodo guarda una copia única y verdadera del libro mayor. Pueden participar en la supervisión de la legalidad de la transacción y también pueden participar en la supervisión de la legalidad de la transacción. proporcionar conjuntamente soporte para la transacción testificar; cualquier cambio en el libro mayor se reflejará en todas las copias.
La tecnología de contabilidad distribuida puede garantizar la seguridad y precisión de los activos y tiene una amplia gama de escenarios de aplicación, especialmente en el campo de los servicios públicos. Puede redefinir la relación entre el gobierno y los ciudadanos en términos de intercambio de datos, transparencia y confianza. Se ha utilizado ampliamente en transacciones, impuestos gubernamentales, registro de propiedad de tierras, gestión de pasaportes, bienestar social y otros campos.
3. Algoritmo de cifrado
Algoritmo hash
También llamado resumen de datos o algoritmo hash, su principio es convertir un fragmento de información en una cadena de longitud fija con las siguientes características: Si dos fragmentos de información son iguales, entonces los caracteres también son iguales: incluso si los dos fragmentos Los tipos de información son muy similares, pero mientras sean diferentes, las cadenas serán muy desordenadas, aleatorias y no tendrán ninguna relación entre las dos cadenas. Los algoritmos hash típicos incluyen MD5, SHA y SM3. Actualmente, blockchain utiliza principalmente el algoritmo SHA256.
algoritmo de cifrado asimétrico
Un método de cifrado que consta de un par correspondiente de claves únicas (es decir, clave pública y clave privada). Cualquiera que conozca la clave pública del usuario puede utilizar la clave pública del usuario para cifrar información y lograr una interacción segura de la información con el usuario. Debido a la dependencia entre la clave pública y la clave privada, sólo el propio usuario puede descifrar la información, y ningún usuario no autorizado o incluso el remitente de la información puede descifrar la información. Los algoritmos de cifrado asimétrico comúnmente utilizados incluyen RSA, Elgamal, D-H, ECC (algoritmo de cifrado de curva elíptica), etc.
4. mecanismo de consenso
Los problemas de consenso de blockchain deben resolverse a través del mecanismo de consenso de blockchain. El algoritmo de consenso puede garantizar que las computadoras o programas de software distribuidos funcionen juntos y respondan correctamente a las entradas y salidas del sistema.
La idea del mecanismo de consenso de blockchain es: en ausencia de coordinación general desde un punto central, cuando un determinado nodo contable propone un aumento o disminución en los datos del bloque y transmite la propuesta a todos los nodos participantes, todos los nodos deben seguir un cierto Las reglas y mecanismos se utilizan para calcular y procesar si esta propuesta puede llegar a un consenso.
Actualmente, los mecanismos de consenso comúnmente utilizados incluyen principalmente PoW, PoS, DPoS, Paxos, PBFT, etc.
Según las características de varios mecanismos de consenso en diferentes escenarios de aplicación de blockchain, el análisis del mecanismo de consenso puede basarse en:
(1) Supervisión de cumplimiento
Ya sea para admitir nodos de superautoridad para supervisar los nodos y los datos de toda la red.
(2) Eficiencia en el desempeño
La eficiencia con la que las transacciones alcanzan consenso y se confirman.
(3) LF
Los recursos como CPU, entrada y salida de red y almacenamiento consumidos durante el proceso de consenso.
(4) Tolerancia a fallos
La capacidad de prevenir ataques y fraudes.
iv. Aplicación y desarrollo
1. Blockchain se convertirá en uno de los protocolos básicos de Internet.
Como protocolo que puede transmitir propiedad, blockchain construirá una nueva capa de protocolo básica basada en la arquitectura de protocolo de Internet existente. Blockchain (protocolo) se convertirá en el protocolo básico de la futura Internet, como el Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP), construyendo una red de transferencia y almacenamiento de valor eficiente y multicéntrica.
2. Las diferentes capas de la arquitectura blockchain tendrán diferentes funciones.
De manera similar a la estructura en capas de la pila de protocolos TCP/IP, hemos desarrollado una variedad de protocolos de capa de aplicación sobre el protocolo de capa de transporte unificado y, en última instancia, construimos la colorida Internet actual. En el futuro, la estructura blockchain también desarrollará varios protocolos de capa de aplicación basados en un protocolo subyacente unificado y multicentralizado.
3. La aplicación y el desarrollo de blockchain están en una tendencia ascendente en espiral.
Como tecnología central de la próxima etapa de la ola digital, blockchain tendrá un ciclo de desarrollo más largo de lo esperado, y el alcance y la profundidad de su impacto superarán con creces la imaginación de la gente. Construirá una Internet de valor ecológico diversificado, cambiando así profundamente el mundo. estructura de la futura sociedad empresarial y de la vida de todos.
VI. AI
i. La inteligencia artificial es una ciencia técnica que estudia y desarrolla teorías, métodos, tecnologías y sistemas de aplicación para simular, ampliar y expandir la inteligencia humana.
ii. fundamento técnico
Desde sus inicios hasta la actualidad, el proceso de desarrollo de la inteligencia artificial ha pasado por seis etapas principales:
1. Período de desarrollo inicial (desde 1956 hasta principios de la década de 1960)
2. Período de desarrollo reflexivo (década de 1960 a principios de 1970)
3. Período de desarrollo de aplicaciones (principios de los 70 hasta mediados de los 80)
4. Período de desaceleración del desarrollo (mediados de los años 1980 a mediados de los años 1990)
5. Período de desarrollo estable (mediados de la década de 1990 hasta 2010)
6. Período de desarrollo vigoroso (2011 hasta la actualidad)
Del análisis de la tecnología de inteligencia artificial actual, se puede ver que su investigación técnica se centra principalmente en tres aspectos: tecnología de moda, tecnología común y tecnología emergente.
iii. Tecnologías clave
1. aprendizaje automático
El aprendizaje automático es una tecnología que relaciona automáticamente un modelo con los datos y "aprende" de los datos entrenando el modelo. La investigación sobre el aprendizaje automático se centra principalmente en algoritmos y aplicaciones de aprendizaje automático, algoritmos de aprendizaje por refuerzo, algoritmos de aproximación y optimización y problemas de planificación. Los algoritmos de aprendizaje comunes incluyen principalmente algoritmos básicos como regresión, agrupación, clasificación, aproximación, estimación y optimización. , Los métodos de aprendizaje por refuerzo, como el aprendizaje por transferencia, el aprendizaje multinúcleo y el aprendizaje multivista, son puntos de investigación actuales.
Las redes neuronales son una forma de aprendizaje automático que surgió en la década de 1960 y se utilizan en aplicaciones de clasificación. Analiza los problemas en términos de insumos, productos y pesos variables o "características" que relacionan los insumos con los productos. Es similar a la forma en que miles de neuronas procesan señales. El aprendizaje profundo es un modelo de red neuronal que predice resultados a través de índices y características de múltiples niveles. Gracias a la velocidad de procesamiento más rápida de la arquitectura informática actual, este tipo de modelo tiene la capacidad de manejar miles de características. A diferencia de formas anteriores de análisis estadístico, cada característica de un modelo de aprendizaje profundo normalmente tiene poco significado para un observador humano, lo que hace que el modelo sea difícil de usar e interpretar. Los modelos de aprendizaje profundo utilizan una técnica llamada retropropagación para hacer predicciones o clasificar resultados a través del modelo. El aprendizaje por refuerzo es otra forma de aprendizaje automático, lo que significa que el sistema de aprendizaje automático establece una meta y recibe algún tipo de recompensa por cada paso hacia la meta.
Los modelos de aprendizaje automático se basan en estadísticas y deben compararse con el análisis convencional para determinar su valor incremental. Suelen ser más precisos que los modelos analíticos tradicionales "hechos a mano" basados en suposiciones humanas y análisis de regresión, pero también son más complejos y difíciles de interpretar. En comparación con el análisis estadístico tradicional, los modelos automatizados de aprendizaje automático son más fáciles de crear y pueden revelar más detalles de los datos.
2. procesamiento natural del lenguaje
El procesamiento del lenguaje natural (PNL) es una dirección importante en los campos de la informática y la inteligencia artificial. Estudia diversas teorías y métodos que permiten una comunicación efectiva entre humanos y computadoras utilizando el lenguaje natural. El procesamiento del lenguaje natural es una ciencia que integra la lingüística, la informática y las matemáticas.
El procesamiento del lenguaje natural se utiliza principalmente en traducción automática, monitoreo de la opinión pública, resumen automático, extracción de opiniones, clasificación de texto, respuesta a preguntas, comparación semántica de texto, reconocimiento de voz, OCR chino, etc.
El procesamiento del lenguaje natural (es decir, lograr la comunicación del lenguaje natural entre humanos y máquinas, o lograr la comprensión del lenguaje natural y la generación del lenguaje natural) es muy difícil. La causa fundamental de la dificultad es que existen varios tipos de problemas que existen ampliamente en todos los niveles. del texto y el diálogo en lenguaje natural. Ambigüedad o polisemia. Los problemas centrales que resuelve el procesamiento del lenguaje natural son la extracción de información, el resumen automático/segmentación de palabras, la identificación y transformación, etc., que se utilizan para resolver la definición efectiva del contenido, la desambiguación y la ambigüedad, la entrada defectuosa o no estándar y el comportamiento del lenguaje. comprensión e interacción. Actualmente, la tecnología de aprendizaje profundo es un soporte técnico importante para el procesamiento del lenguaje natural. En el procesamiento del lenguaje natural, es necesario aplicar modelos de aprendizaje profundo, como redes neuronales convolucionales, redes neuronales recurrentes, etc., para aprender de las palabras generadas para formar palabras naturales. palabras. El proceso de clasificación y comprensión del lenguaje.
3. Experto en Sistemas
Un sistema experto es un sistema de programa informático inteligente, que normalmente consta de seis partes: interfaz de interacción persona-computadora, base de conocimientos, motor de inferencia, intérprete, base de datos integral y adquisición de conocimientos. Contiene una gran cantidad de conocimientos y conocimientos de nivel experto. en un campo determinado, puede aplicar tecnología de inteligencia artificial y tecnología informática para realizar razonamientos y juicios basados en el conocimiento y la experiencia en el sistema, y simular el proceso de toma de decisiones de expertos clasificados para resolver problemas complejos que requieren humanos. expertos con los que tratar. En resumen, un sistema experto es un sistema de programa informático que simula expertos humanos para resolver problemas de dominio.
En el proceso de desarrollo de la inteligencia artificial, el desarrollo de sistemas expertos ha pasado por tres etapas y está en transición y desarrollo hacia la cuarta generación. La primera generación de sistemas expertos se caracterizó por su alto grado de especialización y su capacidad para resolver problemas especializados. Sin embargo, existen deficiencias en la integridad de la arquitectura, la portabilidad, la transparencia y la flexibilidad del sistema. El sistema experto de segunda generación es un sistema profesional de un solo tema y basado en aplicaciones. Su estructura del sistema es relativamente completa y su portabilidad se ha mejorado. También tiene muchas ventajas en la interfaz hombre-máquina del sistema, el mecanismo de explicación y la tecnología de adquisición de conocimientos. , tecnología de razonamiento de incertidumbre y sistema experto mejorado. La representación del conocimiento y los métodos de razonamiento del sistema se han mejorado en términos de heurística y versatilidad. El sistema experto de tercera generación es un sistema integral multidisciplinario que utiliza múltiples lenguajes de inteligencia artificial, adopta de manera integral varios métodos de representación del conocimiento y múltiples mecanismos de razonamiento y estrategias de control, y utiliza varios lenguajes de ingeniería del conocimiento, sistemas esqueléticos y herramientas y entornos de desarrollo de sistemas expertos para desarrollar grandes Sistemas expertos integrales a escala.
La investigación actual sobre sistemas expertos en inteligencia artificial ha entrado en la cuarta etapa, principalmente investigando sistemas de colaboración multiexpertos a gran escala, múltiples representaciones de conocimiento, bases de conocimiento integrales, mecanismos autoorganizados de resolución de problemas, resolución colaborativa multidisciplinaria de problemas y razonamiento paralelo y herramientas y entorno de sistemas expertos, mecanismos de aprendizaje y adquisición de conocimientos de redes neuronales artificiales, etc.
iv. Aplicación y desarrollo
Después de más de 60 años de desarrollo, la inteligencia artificial ha logrado avances importantes en términos de algoritmos, capacidades de cálculo y cálculos (datos). Sin embargo, hay un punto de inflexión técnica de "inutilizable" a "puede usarse". Aún quedan muchos obstáculos antes de que sea "muy útil". Lograr un gran avance desde la inteligencia artificial dedicada a la inteligencia artificial general es una tendencia inevitable en el desarrollo de la próxima generación de inteligencia artificial.
1. De la inteligencia artificial a la inteligencia híbrida hombre-máquina.
Aprovechar los resultados de la investigación de las ciencias del cerebro y las ciencias cognitivas es una importante dirección de investigación de la inteligencia artificial. La inteligencia híbrida humano-máquina tiene como objetivo introducir funciones humanas o modelos cognitivos en los sistemas de inteligencia artificial para mejorar el rendimiento de los sistemas de inteligencia artificial, haciendo de la inteligencia artificial una extensión y expansión natural de la inteligencia humana y resolviendo problemas complejos de manera más eficiente a través de la colaboración entre humanos y máquinas. .
2. De la “inteligencia artificial” a los sistemas inteligentes autónomos.
Las principales investigaciones actuales en el campo de la inteligencia artificial se centran en el aprendizaje profundo, pero la limitación del aprendizaje profundo es que requiere mucha intervención manual. Por lo tanto, los investigadores científicos han comenzado a prestar atención a los métodos de inteligencia autónoma que reducen la intervención manual y mejoran la capacidad de la inteligencia de las máquinas para aprender de forma autónoma del entorno.
3. La inteligencia artificial acelerará la penetración cruzada con otras áreas temáticas.
La inteligencia artificial es una disciplina integral de vanguardia y una disciplina compuesta altamente interdisciplinaria que requiere una profunda integración con disciplinas como la informática, las matemáticas, las ciencias cognitivas, la neurociencia y las ciencias sociales. Con la ayuda de avances en biología, ciencias del cerebro, ciencias de la vida, psicología y otras disciplinas, y convirtiendo mecanismos en modelos computables, la inteligencia artificial se interpenetrará profundamente con más disciplinas.
4. La industria de la inteligencia artificial florecerá.
El innovador modelo de "Inteligencia Artificial"
5. La sociología de la inteligencia artificial estará en la agenda.
Para garantizar el desarrollo saludable y sostenible de la inteligencia artificial y que sus resultados de desarrollo beneficien a las personas, es necesario estudiar de manera sistemática y exhaustiva el impacto de la inteligencia artificial en la sociedad humana desde una perspectiva sociológica, y formular y mejorar leyes y leyes sobre inteligencia artificial. regulaciones.
VII. Realidad virtual
i. Cómo conectar directamente la capacidad de percepción humana con la experiencia cognitiva y el entorno de procesamiento de información por computadora es el trasfondo de la industria para el surgimiento de la realidad virtual.
ii. fundamento técnico
1. La Realidad Virtual (VR) es un sistema informático que puede crear y experimentar un mundo virtual. El espacio de información establecido a través del sistema de realidad virtual es un espacio de información multidimensional (ciberespacio) que contiene una variedad de información que las capacidades cognitivas racionales y de percepción humana se pueden ejercer plenamente en este espacio de información multidimensional. En términos de hardware, se requiere software y hardware de computadora de alto rendimiento y varios sensores avanzados, en términos de software, es principalmente necesario proporcionar un conjunto de herramientas que puedan generar un entorno virtual;
2. Las principales características de la tecnología de realidad virtual incluyen
(1) inmersión
(2) interactividad
(3) multisensorial
(4) imaginativo (imaginativo)
(5) autonomía
3. Con el rápido desarrollo de la tecnología de realidad virtual, según el grado de "inmersión" y el grado de interacción, la tecnología de realidad virtual ha evolucionado desde sistemas de realidad virtual de escritorio, sistemas de realidad virtual inmersivos, sistemas de realidad virtual distribuidos, etc., hasta la realidad aumentada. El desarrollo de sistemas de realidad virtual (Realidad Aumentada, AR) y el Metaverso.
iii. Tecnologías clave
1. Tecnología de interacción persona-computadora
A diferencia del modo de interacción tradicional de solo teclado y mouse, es un nuevo tipo de tecnología de interacción tridimensional que utiliza gafas VR, manijas de control y otros dispositivos sensores para permitir a los usuarios sentir realmente la existencia de las cosas a su alrededor. Combina tres. Tecnología de interacción tridimensional con reconocimiento de voz. La combinación de tecnología de entrada de voz y otros dispositivos utilizados para monitorear el comportamiento del usuario es actualmente el método principal de interacción persona-computadora.
2. Tecnología de sensores
El progreso de la tecnología de realidad virtual está limitado por el desarrollo de la tecnología de sensores. Las deficiencias de los equipos de realidad virtual existentes están estrechamente relacionadas con la sensibilidad de los sensores.
3. Tecnología de modelado de entornos dinámicos.
El diseño del entorno virtual es una parte importante de la tecnología de realidad virtual, que utiliza datos tridimensionales para construir un modelo de entorno virtual ampliado. La herramienta de modelado de entorno virtual más utilizada actualmente es el diseño asistido por computadora (CAD). Los operadores pueden obtener los datos requeridos a través de la tecnología CAD y utilizar los datos obtenidos para construir un modelo de entorno virtual que satisfaga las necesidades reales. Además de obtener datos tridimensionales a través de la tecnología CAD, en la mayoría de los casos también se puede utilizar la tecnología de modelado visual. La combinación de las dos puede obtener datos de manera más efectiva.
4. Tecnología de integración de sistemas
Incluyendo sincronización de información, conversión de datos, calibración de modelos, reconocimiento y síntesis, etc. Dado que el sistema de realidad virtual almacena una gran cantidad de información de entrada de voz, información de percepción y modelos de datos, la tecnología de integración en el sistema de realidad virtual se vuelve cada vez más importante.
iv. Aplicación y desarrollo
1. Se aceleran las iteraciones de optimización del rendimiento del hardware.
La delgadez y la ultra alta definición han acelerado la rápida expansión del mercado de terminales de realidad virtual. Los indicadores de rendimiento como la resolución de pantalla, la velocidad de fotogramas, el grado de libertad, el retraso, el rendimiento interactivo, la reubicación y los mareos de los equipos de realidad virtual están cada vez más optimizados.
2. El desarrollo de la tecnología de redes ha promovido efectivamente su aplicación.
Las comunicaciones de red ubicuas y las velocidades de red de alta velocidad han mejorado efectivamente la experiencia de la tecnología de realidad virtual en el lado de las aplicaciones. Con la ayuda de la tecnología 5G móvil y liviana del terminal, la alta velocidad máxima, el retraso de transmisión de milisegundos y cientos de millones de capacidades de conexión han reducido los requisitos para el lado del terminal de realidad virtual.
3. La integración de elementos de la industria de la realidad virtual se está acelerando.
La industria de la realidad virtual muestra una tendencia industrial desde aplicaciones innovadoras hasta aplicaciones normales, y se utiliza ampliamente en los campos del arte escénico, visualización inteligente de deportes, promoción de nuevas culturas, educación, atención médica y otros campos. Las "exposiciones comerciales de realidad virtual" se han convertido en la nueva normalidad del futuro en la era posterior a la epidemia, la "producción industrial de realidad virtual" es la nueva fuerza impulsora para la transformación digital organizacional, la "vida inteligente de realidad virtual" ha mejorado enormemente la futura experiencia de vida inteligente. y "entretenimiento y ocio en realidad virtual" "Convertirse en un nuevo portador de nuevos modelos de consumo de información, etc.
4. Las nuevas tecnologías impulsan nuevos negocios.
Conceptos emergentes como el metaverso han traído nuevos conceptos comerciales como "inmersión y superposición", "radical y progresivo" y "abierto y cerrado" a la tecnología de realidad virtual, mejorando enormemente su valor de aplicación y valor social, y cambiarán gradualmente la forma. la gente está acostumbrada a ello. Las reglas físicas del mundo real estimulan la innovación tecnológica industrial de nuevas maneras e impulsan la transición y actualización de industrias relacionadas en nuevos modelos y nuevos formatos de negocios.
四、 Perspectivas para el desarrollo de tecnologías de la información de nueva generación.
(1) Las instalaciones ubicuas de conexión de redes inteligentes serán el foco del desarrollo de la tecnología de redes, lo que permitirá una evolución y actualización fluidas de redes, aplicaciones y terminales a la Internet de próxima generación. La nueva infraestructura de detección de IoT y la comunicación de datos se convertirán en una parte integral. Como parte de la estrategia nacional, la construcción y el desarrollo integrados de la nube y la red lograrán la integración orgánica de los recursos de computación en la nube y las instalaciones de la red, y la construcción de centros de algoritmos y potencia informática proporcionará baja latencia, alta confiabilidad y sólida seguridad. capacidades informáticas de vanguardia.
(2) La tecnología de big data seguirá convirtiéndose en la corriente principal del desarrollo futuro, centrándose en el desarrollo y la utilización de recursos de datos, el intercambio y la circulación, la gobernanza del ciclo de vida completo y la garantía de seguridad, estableciendo y mejorando el sistema de recursos de elementos de datos, estimulando el valor. de los elementos de datos, y se reforzará aún más el papel habilitante de los elementos de datos, la tecnología de gobernanza de datos, la tecnología de aplicaciones y servicios de datos y la tecnología de seguridad de datos.
(3) La innovación continua de la nueva generación de tecnología de la información se convertirá en una estrategia nacional, insistiendo en la posición central de la innovación en el desarrollo de la informatización nacional, tomando la autosuficiencia y la autosuficiencia en tecnologías centrales clave como el apoyo estratégico de La China digital, frente a las fronteras tecnológicas del mundo y frente al principal campo de batalla económico, frente a las principales necesidades del país y la vida y la salud de las personas, implementar a fondo la estrategia de desarrollo impulsada por la innovación y construir un sistema de desarrollo innovador impulsado por dos ruedas de innovación tecnológica. e innovación institucional para liberar plenamente la productividad digital.
(4) El cambio de la tecnología de la información a la tecnología digital será un apoyo importante para la transformación digital del país, la sociedad y la industria en el futuro. Los avances en tecnologías clave de software y hardware seguirán liderando la vanguardia del desarrollo tecnológico. La ecología avanzada de chips de propósito especial, la ecología de software y hardware optimizados de forma colaborativa y la ecología móvil mejorada de código abierto se convertirán en la base de la futura ecología de la información.
(5) La nueva generación de tecnologías de la información seguirá estando profundamente integrada con las industrias y liderará el desarrollo de la transformación digital industrial. Internet, los macrodatos, la inteligencia artificial y otras industrias se integrarán profundamente, promoverán la transformación colaborativa de la digitalización industrial y la ecologización, desarrollarán cadenas de suministro modernas, mejorarán la productividad total de los factores, promoverán la conservación de energía y la reducción de emisiones, y mejorarán efectivamente la calidad y la eficiencia económicas. y la competitividad central, que se convertirá en la tecnología en un importante punto de apoyo y punto de apoyo para el desarrollo.
(6) El desarrollo de una nueva generación de tecnologías de la información apoyará eficazmente el desarrollo de una gobernanza social moderna, construyendo así de forma efectiva un sistema de gobernanza social digital de co-construcción, cogobernanza e intercambio. La profundización de la aplicación de big data, inteligencia artificial y otras tecnologías de la información en sistemas inteligentes tridimensionales de prevención y control de la seguridad social, sistemas integrados de seguridad pública inteligentes y sistemas de seguridad de la información de emergencia que combinan tiempos de paz y tiempos de guerra promoverá eficazmente la alta calidad de los nuevos sistemas inteligentes. las ciudades se desarrollan.
(7) El desarrollo integrado de tecnología de la información de nueva generación creará un sistema de servicio gubernamental digital colaborativo y eficiente, mejorará el nivel de informatización de las agencias gubernamentales y del partido, promoverá el intercambio y la circulación de datos gubernamentales y promoverá el "servicio integral". hacer las cosas más convenientes para las masas y crear un mercado Legalizar e internacionalizar el entorno empresarial.
(8) El objetivo del desarrollo de la tecnología de la información se centrará más en "utilizar la tecnología de la información para mejorar el sistema de servicios públicos básicos, mejorar la calidad de vida de las personas y permitir que las personas compartan los resultados del desarrollo de la información". La educación digital, la atención médica digital inclusiva, la seguridad social digital, los servicios de empleo y recursos humanos, el turismo cultural digital y los servicios deportivos se convertirán en manifestaciones importantes del valor de la tecnología de la información.
(9) Mejorar la competitividad internacional de la tecnología de la información, participar activamente en la reforma del sistema global de gobernanza del ciberespacio, promover el desarrollo de alta calidad de la "Ruta de la Seda Digital", investigar y formular reglas internacionales en el campo digital, construir múltiples Asociaciones digitales globales de alto nivel y alta calidad. La incorporación y la globalización a un alto nivel se convertirá en una manifestación importante de la competitividad de la tecnología de la información.
(10) El sistema de gobernanza para el desarrollo ordenado de la tecnología de la información es la base de la tecnología regulatoria para la seguridad de la red, la seguridad de la información y la seguridad de los datos, el mecanismo de revisión de aplicaciones de tecnología digital, el sistema legal regulatorio, el sistema de garantía de seguridad de la red y. la construcción de capacidades técnicas se volverá tecnológica y Una dirección importante para la integración de la gestión.