Galería de mapas mentales La inteligencia artificial más poderosa
Está compilado en base a los cursos de introducción a la inteligencia artificial en MOOC. Los puntos de conocimiento son muy detallados e incluyen varias páginas más: algoritmos de aprendizaje automático tempranos organizados, etc.
Editado a las 2021-01-18 17:36:22,AI
1. Descripción general de la inteligencia artificial
1. Concepto
1. El concepto de inteligencia
1. Los cuatro misterios de la naturaleza
La naturaleza de la materia, el origen del universo, la naturaleza de la vida y la aparición de la inteligencia.
2.Escuelas principales
(1) Teoría del pensamiento: el núcleo de la inteligencia es el pensamiento. (2) Teoría del umbral del conocimiento: la inteligencia depende de la cantidad y generalización del conocimiento (3) Teoría evolutiva: sustituir la representación del conocimiento por el control
3. La inteligencia es la suma de conocimiento e inteligencia
1. El conocimiento es la base de todo comportamiento inteligente
2. La inteligencia es la capacidad de adquirir conocimientos y aplicarlos para resolver problemas.
2. Características de la inteligencia
1. Capacidad de percepción
La capacidad de percibir el mundo exterior a través de órganos de los sentidos como la visión, el oído, el tacto y el olfato. Más del 80% de la información se obtiene a través de la visión y el 10% a través del oído.
2. Memoria y capacidad de pensamiento.
0.Breve descripción
1. La memoria es el almacenamiento de información externa percibida por los órganos sensoriales y el conocimiento generado por el pensamiento.
2. La capacidad de pensar es el procesamiento de información memorizada.
1. Pensamiento lógico (pensamiento abstracto)
Piensa logicamente. El proceso de pensamiento es serial. Fácil de formalizar. El proceso de pensamiento es riguroso y confiable.
2. Pensamiento de imágenes (pensamiento intuitivo)
Según la intuición, el proceso de pensamiento es paralelo y colaborativo, y es difícil de formalizar. Aún es posible obtener resultados relativamente satisfactorios incluso cuando la información está deformada o falta.
3. Pensamiento de epifanía (pensamiento inspirador)
Emergencias irregulares, originalidad no lineal y ambigüedad se intercalan en el pensamiento de imágenes y el pensamiento lógico.
3. Capacidad de aprendizaje
El aprendizaje puede ser consciente y consciente, o puede ser inconsciente e inconsciente. Puede ser guiado por un maestro o practicado por uno mismo.
4. Capacidad de comportamiento (capacidad de expresión)
Capacidad de percepción de las personas: se utiliza para introducir información. Capacidades conductuales: salida de información.
3.Inteligencia artificial
1.Inteligencia artificial
Inteligencia implementada en máquinas (computadoras) mediante métodos artificiales, es decir, las personas hacen que las máquinas tengan una inteligencia similar a la de los humanos;
2. Disciplina de inteligencia artificial
Disciplina que estudia cómo construir máquinas inteligentes (computadoras inteligentes) o sistemas inteligentes para que puedan simular y ampliar la inteligencia humana.
3. Prueba de Turing
En "Computers and Intelligence", publicado por Turing en 1950, diseñó una prueba para ilustrar el concepto de inteligencia humana.
4. Experimento mental de la habitación china
1. Una persona encerrada en una habitación que no puede leer los caracteres chinos en la tarjeta, de acuerdo con las instrucciones en inglés, relaciona los caracteres chinos obtenidos de la rendija de la puerta con los caracteres chinos de la habitación y luego los arroja desde la apariencia. Parece que esta persona entiende chino y coincide correctamente. La velocidad será cada vez más rápida. De hecho, no entiende chino.
2. Prueba: Ni siquiera pasar el test de Turing demuestra que una computadora pueda pensar
2. Breve historia del desarrollo.
1. Concepción (antes de 1956)
2. Formación (1956-1969)
3. Desarrollo (1970-)
3.Contenido básico
1. Representación del conocimiento
1. Representación del conocimiento
Formalizar o modelar el conocimiento humano.
2. Método de representación del conocimiento.
representación simbólica, representación del mecanismo de conexión
3. Representación simbólica
Un tipo de método que utiliza varios símbolos que contienen significados específicos que se combinan de diversas formas y órdenes para representar el conocimiento. Por ejemplo, lógica de predicados de primer orden, producción, etc.
4. Representación del mecanismo de conexión.
Conecte varios objetos físicos de diferentes maneras y secuencias, y transfiera y procese entre sí diversa información que contiene significados específicos para representar conceptos y conocimientos relacionados. Por ejemplo, red neuronal, etc.
2. Percepción de la máquina
Permitir que las máquinas (computadoras) tengan capacidades de percepción similares a las humanas. Principalmente visión artificial y audición artificial.
3. Pensamiento automático
Procesamiento intencionado de información externa obtenida a través de la percepción y diversa información de trabajo dentro de la máquina.
4. Aprendizaje automático
0.Breve descripción
Estudiar cómo hacer que las computadoras tengan capacidades de aprendizaje similares a las humanas para que puedan adquirir conocimientos automáticamente a través del aprendizaje.
1. Aprendizaje supervisado (aprender con un profesor): retroalimentación a través de respuestas
2. Aprendizaje por refuerzo (aprendizaje por refuerzo o aprendizaje por refuerzo): retroalimentación a través de la evaluación
3. Aprendizaje no supervisado (aprendizaje sin profesor): no se requiere retroalimentación
5. Comportamiento de la máquina
La capacidad expresiva de las computadoras, es decir, la capacidad de "hablar", "escribir" y "dibujar".
4.Principales áreas de investigación
2. Lógica de predicados de primer orden representación del conocimiento
0. Conocimiento y representación del conocimiento
1. El concepto de conocimiento
1. Conocimiento humano
La comprensión y la experiencia del mundo objetivo acumuladas en la vida a largo plazo y la práctica social, la investigación científica y los experimentos.
2.Conocimiento
1. La estructura de información formada al asociar información relacionada.
2. El conocimiento refleja la relación entre las cosas en el mundo objetivo. Diferentes relaciones entre diferentes cosas o las mismas cosas forman un conocimiento diferente.
2. Características del conocimiento
1. Corrección relativa
Cualquier conocimiento se produce bajo ciertas condiciones y ambiente, y es correcto bajo tales condiciones y ambiente.
2. Incertidumbre
Estado de conocimiento: "verdadero", "falso", estado intermedio entre "verdadero" y "falso"
3.Representabilidad
El conocimiento se puede expresar en formas apropiadas, como lenguaje, texto, gráficos, redes neuronales, etc.
4. Disponibilidad
Utilizar el conocimiento para razonar sobre más conocimientos nuevos.
3. Representación del conocimiento
1. Formalizar o modelar el conocimiento humano
2. La representación del conocimiento es una descripción del conocimiento, o un conjunto de convenciones, una estructura de datos aceptable para las computadoras para describir el conocimiento.
3.Principios
Representar plenamente la información, facilitar la utilización del conocimiento, facilitar la organización, el mantenimiento y la gestión del conocimiento, y facilitar la comprensión y la implementación.
1. Lógica proposicional
1.Proposición
Una afirmación que es verdadera o falsa Si el significado de la proposición es verdadero, su valor de verdad se llama verdadero y se marca como T. Si el significado de la proposición es falso, su valor de verdad se llama falso y se marca como F. Una proposición puede ser verdadera bajo una condición y falsa bajo otra condición.
2. Lógica proposicional
Un sistema de lógica simbólica que estudia proposiciones y relaciones entre proposiciones.
3. Representación lógica proposicional
No puede reflejar la estructura y las características lógicas de las cosas que describe, ni puede expresar las características comunes entre cosas diferentes.
2. Lógica de predicados
1. Representación
1. Forma general de predicado
P(X1,X2,....XN)
2. Individuos X1, X2,..XN
una cosa independiente o un concepto abstracto
3. Nombre del predicado P
Describir la naturaleza, estatus o relación entre individuos.
2.Individual
1. Constante: uno o un grupo de individuos específicos
2. Variable (variable): No existe un individuo o grupo de individuos específico. Sólo después de asignar un valor específico al individuo se puede juzgar su verdadero valor.
3. Función: mapear de un individuo a otro
4. Predicado/predicado de segundo orden
3. Fórmula de predicado
1. Palabras conectivas (conjunciones)
1.﹁: “negación” o “no”
2.∨: "disyunción" - o
3.∧:“conjunción”——con
4. →: "implicación" o "CONDICIÓN"
5.↔: "equivalencia" o "bicondición"
6. Tabla de verdad de la lógica de predicados
2.Cuantificador
1. Cuantificador universal (∀x): "para todos (o cualquier) x individual en el dominio individual".
2. Cuantificador existencial (∃x): "Existe un individuo x en el dominio individual"
3. El orden en que aparecen los cuantificadores universales y los cuantificadores existenciales afectará el significado de la proposición.
3. Fórmula de predicado
1. Un predicado único es una fórmula de predicado, que se denomina fórmula de predicado atómico.
2. Si A es una fórmula predicada, entonces "A también es una fórmula predicada
3. Si A y B son fórmulas de predicados, entonces A∧B, A∨B, A→B y A↔B también son fórmulas de predicados.
4. Si A es una fórmula predicada, entonces (∀x)A y (∃x)A también son fórmulas predicadas.
5. La fórmula generada al aplicar (1)-(4) en pasos finitos también es una fórmula predicada.
6. La prioridad de los conectivos se ordena de mayor a menor: ﹁,∧,∨,→,↔
4. Alcance de los cuantificadores
1. Alcance de los cuantificadores
Un predicado único que sigue a un cuantificador o una fórmula de predicado entre paréntesis
2. Variables restringidas y variables libres.
Las variables con el mismo nombre que el cuantificador en el alcance se denominan variables restringidas y las variables con nombres diferentes se denominan variables libres.
3. Representación lógica de predicados
1. Los pasos para expresar el conocimiento mediante fórmulas de predicados.
1. Definir predicados e individuos.
2. Asignación de variables
3. Utilice conectivos para conectar cada predicado y formar una fórmula de predicado.
2.Ventajas
Naturalidad, exactitud, rigor, fácil de implementar.
3. Desventajas
Incapaz de representar conocimiento incierto, explosión combinatoria, baja eficiencia
4.Aplicación
1. Sistema automático de preguntas y respuestas (sistema QA3 desarrollado por Green et al.)
2. Sistema de planificación de acciones de robots (sistema STRIPS desarrollado por Fikes et al.)
3. Sistema de juego de máquina (sistema FOL desarrollado por Filman et al.)
4. Sistema de resolución de problemas (sistema PS diseñado por Kowalski et al.)
3. Expresión de producción y notación de marco
1. Expresión de producción
1. Producción
0.Breve descripción
1. "Producción": propuesta por primera vez por el matemático estadounidense E. Post en 1943
2. En 1972, Newell y Simon desarrollaron un sistema de producción basado en reglas en su estudio de los modelos cognitivos humanos.
3. Las producciones se utilizan habitualmente para representar hechos, reglas y sus medidas de incertidumbre, y son adecuadas para representar conocimiento fáctico y conocimiento regular.
1. expreso
1. Reglas deterministas
Forma básica: SI P ENTONCES Q o: P→Q
2. Reglas de incertidumbre
Forma básica: SI P ENTONCES Q (confianza) o: P→Q (confianza)
3. Hechos de certeza
El triplete representa: (objeto, atributo, valor) o: (relación, objeto 1, objeto 2)
4. Hechos inciertos
Representación cuádruple: (objeto, atributo, valor, confianza) o: (relación, objeto 1, objeto 2, confianza)
2. Diferencia de implicación
1. Además de las implicaciones lógicas, las producciones también incluyen diversas operaciones, reglas, transformaciones, operadores, funciones, etc. Por ejemplo, "Si la temperatura del horno excede el límite superior, cierre la compuerta inmediatamente" es una producción, pero no una implicación.
2. Las implicaciones sólo pueden expresar conocimientos precisos, mientras que las producciones pueden expresar no sólo conocimientos precisos, sino también conocimientos imprecisos. Siempre es necesario que la coincidencia de implicaturas sea precisa. La comparación de producción puede ser precisa o imprecisa, siempre que la similitud calculada según un determinado algoritmo se encuentre dentro de un rango preespecificado, se considera coincidente.
3. Descripción formal y semántica. Forma normal backusiana BNF
<Producción>::=<Premisa>→<Conclusión> <premisa>::=<condición simple>|<condición compuesta> <Conclusión>::=<Hecho>|<Operación> <Condición compuesta>::=<Condición simple>Y<Condición simple>[Y<Condición simple>…|<Condición simple>O<Condición simple>[O<Condición simple>… <operación>::=<nombre de la operación>[(<variable>,…)]
El símbolo "::=" significa "definido como"; el símbolo "|" significa "o es" el símbolo "[]" significa "puede ser predeterminado";
2. Sistema de producción
1.Estructura básica
2.Composición
1. Base de reglas
Una colección de producciones utilizadas para describir el conocimiento en el campo correspondiente.
2. Base de datos completa (base de datos, contexto, pizarra, etc.)
Una estructura de datos utilizada para almacenar diversa información actual durante el proceso de resolución de problemas.
3. Sistema de control (mecanismo de razonamiento)
Consiste en un conjunto de programas que se encargan de ejecutar todo el sistema de producción y resolver problemas.
3. El trabajo del sistema de control.
(1) Seleccione de la base de reglas para hacer coincidir hechos conocidos en la base de datos completa. (2) Puede haber más de una regla coincidente exitosa y se requiere resolución de conflictos. (3) Al ejecutar una determinada regla, si la parte correcta de la misma son una o más conclusiones, agregue estas conclusiones a la base de datos completa. centro, si su derecho es una o más operaciones, realizar dichas operaciones. (4) Para conocimientos inciertos, al ejecutar cada regla, se debe utilizar un determinado algoritmo para calcular la incertidumbre de la conclusión. (5) Verifique si la base de datos completa contiene la conclusión final y decida si detener la operación del sistema
4. Ejemplo: sistema de identificación de animales
1. Base de reglas
2. Base de datos completa
Supongamos que los datos iniciales conocidos están almacenados en una base de datos completa: El animal tiene: manchas oscuras, cuello largo, patas largas, leche, pezuñas.
3. Proceso de trabajo del mecanismo de razonamiento.
1. Tome r1 de la base de reglas y verifique si sus premisas pueden coincidir con los hechos conocidos en la base de datos completa. Si la coincidencia falla, r1 no se puede utilizar para realizar inferencias. Luego toma r2 y haz el mismo trabajo. Si la coincidencia tiene éxito, se ejecuta r2.
2. Base de datos completa: Este animal tiene: manchas oscuras, cuello largo, patas largas, leche, pezuñas, mamíferos.
3. Utilice los hechos conocidos en la base de datos completa r3, r4, r5 y r6 para hacer coincidir, pero ninguno tuvo éxito. La coincidencia de r7 es exitosa y se ejecuta r7.
4. Base de datos completa: Este animal tiene: manchas oscuras, cuello largo, patas largas, leche, pezuñas, mamíferos, ungulados.
5.r11 coincide con éxito y lanza "El animal es una jirafa"
3.Características
1.Ventajas
1. Naturalidad, modularidad, eficacia, claridad.
2. Desventajas
1. Ineficiente e incapaz de expresar conocimientos estructurales.
3. Conocimientos aptos para la expresión productiva.
1. La relación entre el conocimiento del dominio no es estrecha y no existe una relación estructural.
2. Conocimiento empírico e incierto, y no existe una teoría estricta y unificada para este conocimiento en campos relacionados.
3. El proceso de solución de problemas de dominio se puede expresar como una serie de operaciones relativamente independientes, y cada operación se puede expresar como una o más reglas de producción.
2. Expresión del marco
0.Breve descripción
En 1975, el estadounidense Minsky propuso la teoría del marco: la comprensión que las personas tienen de diversas cosas en el mundo real se almacenan en la memoria en una estructura similar a un marco.
1. Representación del marco
Un método estructurado de representación del conocimiento que se ha aplicado en una variedad de sistemas.
2.marco
1. Una estructura de datos que describe las propiedades del objeto en cuestión (una cosa, evento o concepto).
2. Un marco se compone de varias estructuras llamadas "ranuras", y cada ranura se puede dividir en varias "caras" según la situación real.
3. Una ranura se utiliza para describir un determinado aspecto de las propiedades del objeto en cuestión.
4. Una faceta se utiliza para describir un aspecto del atributo correspondiente.
5. Los valores de atributo que poseen las ranuras y los lados se denominan valores de ranura y valores laterales respectivamente.
6. Después de completar la información específica en la ranura o en el lateral, obtendrá un marco del marco correspondiente.
3.Estructura general
4.Características
1.Estructural
Es conveniente expresar conocimiento estructural y puede expresar la relación estructural interna del conocimiento y la conexión entre el conocimiento.
2. Herencia
En la red de marcos, el marco inferior puede heredar el valor de ranura del marco superior y también puede complementarse y modificarse.
3. Naturalidad
La representación del marco es consistente con las actividades de pensamiento de las personas cuando observan cosas.
4. Razonamiento determinista
1. Conceptos básicos de razonamiento
1. Definición de razonamiento
2. Métodos de razonamiento y su clasificación.
1. Razonamiento deductivo razonamiento inductivo razonamiento predeterminado
1. Razonamiento deductivo
1.general → individual
2. Silogismo
1.Premisa principal: los futbolistas son físicamente fuertes
2.Premisa menor: Gao Bo es jugador de fútbol
3. Conclusión: Por lo tanto, el cuerpo de Gao Bo es fuerte.
2. Razonamiento inductivo
1.Individual → General
2. Razonamiento inductivo completo (razonamiento inevitable)
Verifique que todos los productos estén calificados → Los productos de esta fábrica están calificados
3. Razonamiento inductivo incompleto (razonamiento innecesario)
Verifique que todas las muestras estén calificadas → los productos de la fábrica estén calificados
3. Razonamiento predeterminado
Inferencia basada en el supuesto de que se cumplen ciertas condiciones cuando el conocimiento es incompleto
2. Razonamiento determinista Razonamiento de incertidumbre
1. Razonamiento determinista
El conocimiento y la evidencia utilizados en el razonamiento son ciertos, y las conclusiones extraídas también son ciertas, y sus valores de verdad son verdaderos o falsos.
2. Razonamiento de incertidumbre
El conocimiento y la evidencia utilizados en el razonamiento son inciertos y las conclusiones extraídas también lo son.
1. Razonamiento de probabilidad (teoría de la probabilidad)
2. Razonamiento aproximado o razonamiento difuso (lógica difusa)
3. Razonamiento monótono razonamiento no monótono
1. Razonamiento monótono
A medida que avanza el razonamiento y se añaden nuevos conocimientos, las conclusiones extraídas se acercan cada vez más al objetivo final.
2. Razonamiento no monótono
Debido a la adición de nuevos conocimientos, no sólo no fortalece la conclusión que se ha derivado, sino que la niega, provocando que el razonamiento regrese a un paso anterior y comience de nuevo.
3. Dirección del razonamiento
1. Razonamiento directo
1. Razonamiento basado en hechos
hechos conocidos → conclusión
2.Idea básica
1. A partir de los hechos conocidos iniciales, encuentre el conocimiento aplicable actualmente en la base de conocimiento KB para formar el conjunto de conocimiento aplicable KS.
2. Seleccione un conocimiento de KS para razonar de acuerdo con una determinada estrategia de resolución de conflictos, y agregue los nuevos hechos a la base de datos DB como hechos conocidos para el siguiente paso del razonamiento, y luego seleccione el conocimiento aplicable en la base de conocimientos KB para formar conjunto de conocimientos KS
3. Repetir (2) hasta obtener la solución al problema o no haya más conocimientos aplicables en KB
2. Razonamiento inverso
1. Razonamiento basado en objetivos
Partiendo de un objetivo hipotético
2.Idea básica
1. Selecciona un objetivo hipotético
2. Buscar evidencia que respalde la hipótesis. Si se puede encontrar la evidencia requerida, se establece la hipótesis original; si de todos modos no se puede encontrar la evidencia requerida, significa que no se establece la hipótesis original para este propósito; es necesario hacer.
3.Ventajas
No es necesario utilizar conocimientos irrelevantes para el objetivo, tiene un gran propósito y también es útil para proporcionar explicaciones a los usuarios.
4. Desventajas
La elección del objetivo inicial es ciega.
3. Razonamiento híbrido
1. Primero hacia adelante y luego hacia atrás
Primero realice un razonamiento directo para ayudar a seleccionar un objetivo determinado, es decir, deduzca resultados parciales a partir de hechos conocidos y luego utilice el razonamiento inverso para confirmar el objetivo o mejorar su credibilidad.
2. Primero retroceder y luego avanzar
Primero asuma un objetivo y realice un razonamiento inverso, y luego utilice la información obtenida en el razonamiento inverso para realizar un razonamiento directo y derivar más conclusiones.
4. Razonamiento bidireccional
Un tipo de razonamiento en el que el razonamiento directo y el razonamiento inverso se realizan simultáneamente y se "encuentran" en un determinado paso del proceso de razonamiento.
4. Estrategias de resolución de conflictos
1. Correspondencia de hechos conocidos y conocimientos
1. Coincidencia exacta y exitosa (uno a uno)
2. No se puede hacer coincidir correctamente
3. La coincidencia múltiple es exitosa (uno a muchos, muchos a uno, muchos a muchos) y se requiere resolución de conflictos.
2. Estrategias de resolución de conflictos de uso común
1. Ordenar por relevancia
2. Ordenar los hechos conocidos según su actualidad (posgeneratividad)
3. Ordenar por grado de coincidencia (razonamiento de incertidumbre)
4. Ordenar por número de condiciones (dar prioridad a aquellas con menos condiciones)
2. Razonamiento deductivo natural
1.Definición
El proceso de partir de un conjunto de hechos que se sabe que son verdaderos y utilizar las reglas de inferencia de la lógica clásica para derivar conclusiones.
2. Reglas de inferencia
Regla 0.P (introducción de la premisa), regla T (introducción a la conclusión), razonamiento hipotético, razonamiento de rechazo
1. Razonamiento hipotético
2. Razonamiento rechazativo
3. Errores comunes
1. Negar el antecedente
2. Afirmar el consecuente
4.Ejemplos
5.Ventajas
1. Expresar el proceso de demostración de teoremas de una manera natural y fácil de entender.
2. Tiene reglas de razonamiento ricas y un proceso de razonamiento flexible.
3. Incorpore convenientemente conocimientos heurísticos de dominio
6. Desventajas
Es fácil producir una explosión combinatoria y las conclusiones intermedias obtenidas generalmente aumentan exponencialmente.
3. Razonamiento deductivo reductivo
0. Prueba por contradicción
1. Teorema
2.Ideas
P⟹Q → P∧¬Q es insatisfactorio → el conjunto de cláusulas es insatisfactorio (principio de reducción de Robinson) → teorema de Hyperion
3. Terminología
1. Fórmula de predicado atómico
una propuesta que no se puede descomponer
2. literales
Fórmula de predicado atómico y su negación.
3.P: texto positivo,¬P: texto negativo
4. cláusula
La disyunción ∨ de cualquier texto, cualquier texto en sí es también una cláusula
5. Cláusula vacía (NIL)
Una cláusula que no contiene palabras. Una cláusula vacía siempre es falsa e insatisfactoria.
6. Conjunto de cláusulas
un conjunto de cláusulas
4. Fórmula de predicado conjunto de cláusulas
0.Preguntas de ejemplo
1. Elimina los símbolos "→" y "↔" en la fórmula del predicado.
1.
2. Mueva el símbolo de negación ¬ a la posición al lado del predicado.
1.
3. Estandarización de variables
1.
4. Eliminar los cuantificadores existenciales
1. Los cuantificadores existenciales no aparecen en el alcance de los cuantificadores universales: basta con utilizar cualquier individuo a, b, c.
2. El cuantificador existencial aparece en un o Dentro del alcance de múltiples cuantificadores universales
Todas las variables son x y todas están bajo el mismo cuantificador universal.
5. Transfórmate en forma de convergencia
0. Forma de prefijo = (prefijo) {forma madre}, (prefijo): cadena cuantificadora universal, {forma madre}: fórmula de predicado sin componente
1. Simplemente coloque todos los cuantificadores universales al frente.
6. Convertir al formulario estándar de Skolem
1.
7. Omitir el cuantificador universal.
8. Elimina las conjunciones
1. Cambiar a la forma de un conjunto, dos cláusulas y la relación conjuntiva predeterminada entre las cláusulas.
9. Estandarización de variables de cláusula
1. Diferentes cláusulas utilizan diferentes variables.
ejemplo
4. Principio de reducción de Robinson
0.Breve descripción
1. Existe una relación conjuntiva entre las cláusulas de un conjunto de cláusulas. Mientras una cláusula no pueda cumplirse, el conjunto de cláusulas no podrá cumplirse.
2. La idea básica del principio de resolución de Robinson (principio de resolución): verifique si el conjunto de cláusulas S contiene una cláusula vacía. Si es así, entonces S no se puede satisfacer; si no, seleccione una cláusula apropiada en S; para resolución. Una vez resuelta, una cláusula en blanco significa que S es insatisfactorio.
1. El principio de reducción en la lógica proposicional (Reducción de cláusula base)
1. Definición resumida
Supongamos que C1 y C2 son dos cláusulas cualesquiera en el conjunto de cláusulas. Si el texto L1 en C1 y el texto L2 en C2 son complementarios, elimine L1 y L2 de C1 y C2 respectivamente y analice las partes restantes de las dos cláusulas. , formar una nueva cláusula C12.
2. Teorema
La fórmula de reducción C12 es la conclusión lógica de sus cláusulas principales C1 y C2. Es decir, si C1 y C2 son verdaderos, entonces C12 es verdadero.
3. Corolario 1
Supongamos que C1 y C2 son dos cláusulas en el conjunto de cláusulas S, y C12 es su fórmula de reducción. Si se usa C12 para reemplazar C1 y C2, se obtiene un nuevo conjunto de cláusulas S1, entonces se puede deducir la insatisfacibilidad del conjunto de oraciones atómicas S. de la insatisfacibilidad de S1, es decir, la insatisfacibilidad de S1 → la insatisfacibilidad de S.
4. Corolario 2
Supongamos que C1 y C2 son dos cláusulas en el conjunto de cláusulas S, y C12 es su fórmula de reducción. Si se agrega C12 al conjunto de oraciones atómicas S para obtener un nuevo conjunto de cláusulas S1, entonces S y S1 son equivalentes en el sentido de que son insatisfactorios. , es decir, la insatisfacibilidad de S1 ↔ la insatisfacibilidad de S
2. Principio de reducción en lógica de predicados (Resolución de cláusulas que contienen variables)
1.
2.Ejemplos
3.Conclusión
1. Para la lógica de predicados, la reducción es la conclusión lógica de su cláusula principal.
2. Para la lógica de predicados de primer orden, es decir, si un conjunto de cláusulas es insatisfactorio, entonces debe haber una deducción reductiva del conjunto de cláusulas a una cláusula vacía si hay una deducción del conjunto de cláusulas a una cláusula vacía; cláusula, entonces el conjunto de cláusulas es insatisfactorio.
3. Si no se reduce ninguna cláusula vacía, no se puede decir que S sea insatisfactorio ni que S sea satisfacible.
5. Inversión reductiva
1.Definición
El proceso de demostrar teoremas aplicando el principio de reducción.
2. Pasos
(1) Exprese la premisa conocida como una fórmula de predicado F. (2) Expresar la conclusión a demostrar como una fórmula de predicado Q y negarla para obtener ﹁Q. (3) Convierta el conjunto de fórmulas de predicados {F,¬Q} en un conjunto de cláusulas S. (4) Aplicar el principio de reducción para resumir las cláusulas del conjunto de cláusulas S e incorporar las fórmulas de reducción obtenidas de cada reducción en S. Repita este proceso repetidamente. Si aparece una cláusula vacía, la reducción se detendrá. En este momento, se demuestra que Q es verdadero.
3.Ejemplos
6. Resolver problemas mediante reducción e inversión.
1. Pasos
2.Ejemplos
5. Razonamiento de incertidumbre
1. Razonamiento incierto
0.Breve descripción
1. Razonamiento
Un proceso de pensamiento que comienza a partir de hechos conocidos (evidencia) y gradualmente saca conclusiones o demuestra que una determinada hipótesis es verdadera o falsa mediante el uso de conocimiento relevante.
2. Razonamiento de incertidumbre
A partir de la evidencia inicial de incertidumbre, mediante el uso del conocimiento de la incertidumbre, el proceso de pensamiento para finalmente derivar una conclusión que tiene un cierto grado de incertidumbre pero que es razonable o casi razonable.
1. Representación y medición de la incertidumbre
1. Representación de la incertidumbre del conocimiento.
En los sistemas expertos, la incertidumbre del conocimiento generalmente la dan los expertos en el dominio, generalmente un valor numérico: la fuerza estática del conocimiento.
2. Expresión de incertidumbre en la evidencia
La evidencia inicial proporcionada por el usuario al resolver el problema y la conclusión derivada previamente utilizada como evidencia para el razonamiento actual en el razonamiento.
3. Medición de la incertidumbre
1. Puede expresar plenamente el grado de incertidumbre del conocimiento y la evidencia correspondientes.
2. La especificación del rango de medición facilita la estimación de la incertidumbre por parte de los expertos y usuarios del dominio.
3. Es conveniente calcular la transferencia de incertidumbre, y la medición de la incertidumbre calculada para la conclusión no puede exceder el rango especificado por la medición. La determinación de la medición debe ser intuitiva y debe tener la base teórica correspondiente.
2. Algoritmo de coincidencia de incertidumbre y selección de umbral
1. Algoritmo de coincidencia de incertidumbre
Algoritmo utilizado para calcular la similitud entre partes coincidentes
2. Umbral
Se utiliza para indicar los límites de similitud.
3. Algoritmos para combinar la incertidumbre de la evidencia.
Métodos de máximo y mínimo, métodos de Hamacher, métodos de probabilidad, métodos acotados, métodos de Einstein, etc.
4. Algoritmo de transferencia de incertidumbre
En cada paso del razonamiento, cómo transmitir la incertidumbre de la evidencia y el conocimiento a la conclusión. En el razonamiento de varios pasos, cómo transmitir la incertidumbre de la evidencia inicial a la conclusión final.
5. Síntesis de la incertidumbre de la conclusión.
2. Método de credibilidad
0.Breve descripción
1. En 1975, E.H. Shortliffe y otros propusieron un método de razonamiento de la incertidumbre basado en la teoría de la confirmación y combinado con la teoría de la probabilidad.
2. Ventajas: intuitivo, sencillo y eficaz
3. Credibilidad: el grado de creencia de que un objeto o fenómeno es verdadero según la experiencia.
4. La credibilidad es altamente subjetiva y experiencial, y su precisión es difícil de captar.
5. Modelo C-F: método básico de razonamiento de incertidumbre basado en representación de credibilidad
1. Representación de la incertidumbre del conocimiento.
1. Expresión de reglas de producción.
SI E ENTONCES H(CF(H,E))
2.CF(H,E)
1. Factor de credibilidad, que refleja la fuerza de la conexión entre los requisitos previos y la conclusión.
2.El rango de valores de CF(H,E):[-1,1]
3. Si la aparición de la evidencia correspondiente aumenta la credibilidad de que la conclusión H sea verdadera, entonces CF(H,E)>0 Cuanto más evidencia parezca respaldar la verdad, mayor será el valor de CF(H,E). Por el contrario, CF(H,E)<0, cuanto más evidencia parezca apoyar la falsedad, menor será el valor de CF(H,E).
4. Si la apariencia de evidencia no tiene nada que ver con H, entonces CF(H,E)=0.
2. Expresión de incertidumbre en la evidencia
1.CF(E)=0,6: La credibilidad de E es 0,6
2. El rango de valor de credibilidad de la evidencia E: [-1,1]. Como evidencia inicial, si todas las observaciones S pueden confirmar que es verdadera, entonces CF(E)=-1. Si es definitivamente falso, entonces CF(E)=-1. Si es cierto hasta cierto punto, entonces 0<CF(E)<1. Si es falso hasta cierto punto, entonces -1<CF(E)<0. Si no se obtienen observaciones relevantes, entonces CF(E)=0.
3. Resistencia estática CF(H,E)
La solidez del conocimiento, es decir, el grado de influencia sobre H cuando la evidencia correspondiente a E es verdadera.
4.Fuerza dinámica CF(E)
El grado actual de incertidumbre sobre la evidencia E
3. Algoritmos para combinar la incertidumbre de la evidencia.
1. La conjunción de múltiples pruebas únicas y
CF(E)=mín{CF(E1),CF(E2)....CF(En)}
2. Disyunción o de múltiples pruebas únicas
CF(E)=máx{CF(E1),CF(E2)....CF(En)}
4. Algoritmo de transferencia de incertidumbre
1. Razonamiento de incertidumbre en el modelo C-F: a partir de evidencia inicial incierta, finalmente se deriva la conclusión y el valor de credibilidad de la conclusión se obtiene utilizando el conocimiento de incertidumbre relevante. La credibilidad de la conclusión H se calcula mediante la siguiente fórmula
2.CF(H)=CF(H,E)×máx{0,CF(E)}
Cuando CF(E)<0, entonces CF(H)=0 Cuando CF(E)=1, entonces CF(H)=CF(H,E)
5. Algoritmo sintético para la incertidumbre de la conclusión.
SI E1 ENTONCES H(CF(H,E1)) SI E2 ENTONCES H(CF(H,E2))
1. Encuentre CF (H) para cada conocimiento por separado CF1(H)=CF(H,E1)×máx{0,CF(E1)} CF2(H)=CF(H,E2)×máx{0,CF(E2)}
2. Encuentre la credibilidad CF12(H) formada por el impacto combinado de E1 y E2 en H
3.Ejemplos
3.Teoría de la evidencia
0.Breve descripción
1. Teoría de la evidencia: también conocida como teoría D-S, es una teoría para abordar la incertidumbre propuesta por primera vez por A.P. Dempster y desarrollada posteriormente por G. Shafer.
2. En 1981, J.A. Barnett introdujo esta teoría en el sistema experto. Ese mismo año, J. Garvey y otros la utilizaron para implementar el razonamiento de incertidumbre.
3. Actualmente, se han desarrollado una variedad de modelos de razonamiento de incertidumbre basados en la teoría de la evidencia.
1. Función de distribución de probabilidad
1.Espacio muestral
1. Supongamos que D es el conjunto de todos los valores posibles de la variable x, y los elementos en D son mutuamente excluyentes. En cualquier momento, x toma y solo puede tomar un elemento en D como valor, entonces D se llama muestra. espacio de x.
2. En la teoría de la evidencia, cualquier subconjunto A de D corresponde a una proposición sobre x, que se denomina "el valor de x está en A".
2. Función de distribución de probabilidad
1. Sea D el espacio muestral y las proposiciones en el campo están representadas por subconjuntos de D.
3. Algunas explicaciones
1. Suponga que hay n elementos en el espacio muestral D, entonces el número de subconjuntos en D es 2 ^ n. 2^D: Todos los subconjuntos de D.
2. Función de distribución de probabilidad: asigne cualquier subconjunto A de D a un número M (A) en [0,1]. Cuando A∈D,A≠D, M(A): el grado preciso de confianza correspondiente a la proposición A
3. La función de distribución de probabilidad es diferente de la probabilidad.
2. Función de confianza
1.
2.Bel(A): El grado total de creencia en que la proposición A es verdadera. sólo para todos los subconjuntos pertenecientes a A
3. La función de confianza del subconjunto vacío es 0 y la función de confianza de todo el espacio es 1.
3. Función de probabilidad
1. También conocida como función irrefutable o función de límite superior
2.
3. La posibilidad de que la función de confianza sea verdadera y la posibilidad de que la función de probabilidad no sea falsa
4. Suma ortogonal de funciones de distribución de probabilidad. (combinación de evidencia)
1.Definición
2.Ejemplos
5. Basado en la teoría de la evidencia Razonamiento de incertidumbre
1. Pasos
(1) Establezca el espacio muestral D del problema. (2) Calcule la función de distribución de probabilidad básica dada por la experiencia o por la medición de confiabilidad de reglas y hechos de aleatoriedad. (3) Calcule el valor de la función de confianza y el valor de la función de probabilidad del subconjunto en cuestión. (4) Sacar conclusiones basadas en el valor de la función de confianza y el valor de la función de probabilidad.
2.Ejemplos
Los tres espacios muestrales son difíciles de entender.
6. Método de inferencia difusa
1. La introducción de la lógica difusa
1. En 1965, el estadounidense L.A. Zadeh publicó el artículo "fuzzyset", en el que propuso por primera vez la teoría difusa.
2. Desde 1965 hasta la década de 1980, sólo unos pocos científicos estudiaron la teoría difusa en Estados Unidos, Europa, China y Japón.
3. En 1974, el británico Mamdani aplicó por primera vez la teoría difusa al control de máquinas de vapor en centrales térmicas.
4. En 1976, Mamdani aplicó la teoría difusa al control de hornos rotativos de cemento.
5. En 1983, la compañía japonesa Fuji Electric realizó un control difuso de los equipos de tratamiento de agua potable.
6. En 1987, la empresa japonesa Hitachi desarrolló un sistema de control difuso para el metro.
7. De 1987 a 1990, se presentaron en Japón 319 patentes de productos vagas.
8. En la actualidad, varios productos difusos están llenando los mercados japonés, europeo occidental y estadounidense, como lavadoras difusas, aspiradoras difusas, refrigeradores difusos y cámaras fotográficas difusas, etc.
2. Conjuntos difusos y Función de la membresía
1. Definición de conjunto difuso
1. Ámbito de discusión
Todos los objetos discutidos están representados por U, etc.
2. Elementos
Cada objeto en el dominio de discusión suele estar representado por a, b, c, x, y, z.
3. Colección
La totalidad de ciertos elementos que pueden distinguirse entre sí en el dominio del discurso y que tienen ciertos mismos atributos, a menudo representados por A, B, etc.
4. La relación entre el elemento a y el conjunto A.
a pertenece a A o a no pertenece a A, es decir, solo hay dos valores de verdad "verdadero" y "falso"
5. Función de membresía
La lógica difusa asigna a cada elemento del conjunto un número real entre 0 y 1 para describir la intensidad de su pertenencia a un conjunto. Este número real se denomina grado de pertenencia del elemento que pertenece a un conjunto. Las funciones de membresía de todos los elementos del conjunto constituyen colectivamente la función de membresía del conjunto.
2. Conjunto difuso método de visualización
0.Universal
1.Notación Zadeh
2. Representación par secuencial
3. Representación vectorial
No se puede incumplir
3. Función de membresía
1. Las funciones de membresía comunes incluyen distribución normal, distribución triangular y distribución trapezoidal.
2. Método de determinación: método de estadística difusa, método de experiencia de expertos, método de clasificación de comparación binaria, método de expansión de conceptos básicos
3.Ejemplos
3. Relación difusa y síntesis
1. Relación confusa
1.Definición
A, B: conjunto difuso, la relación difusa está representada por el producto cruzado (producto cartesiano): R: A×B→[0,1]
2. Operaciones mínimas de operador comúnmente utilizadas para productos cruzados: tomar la operación pequeña
3.A, B: Funciones de membresía de conjuntos difusos discretos
4. Operación de producto cruzado: se deben utilizar círculos para representar la síntesis difusa
5.Ejemplos
2.Síntesis
4. Razonamiento confuso
1. Representación difusa del conocimiento
1. La forma básica de pensamiento y juicio humanos.
si (condición) → entonces (conclusión)
2. Reglas confusas
La matriz de relaciones difusas R desde el dominio de condición hasta el dominio de conclusión. El razonamiento difuso se lleva a cabo mediante la síntesis de vectores difusos condicionales y relaciones difusas R para obtener el vector difuso de la conclusión, y luego se utiliza el método de "aclaración" para convertir la conclusión difusa en una cantidad precisa.
2. Para tipo SI A ENTONCES B razonamiento de reglas difusas
1.Definición
2.Ejemplos
5. Toma de decisiones confusa
0. Toma de decisiones confusa/juicio confuso/desdifusificación/aclaración
La conclusión u operación obtenida mediante razonamiento difuso es un vector difuso, el proceso de convertirlo en un valor definido
1. Método de membresía máxima
2. Método de valoración del promedio ponderado
3. Método de la mediana
6. Aplicación de inferencia difusa
7. Estrategias de búsqueda y resolución
1. El concepto de búsqueda
0.Breve descripción
1. A la hora de resolver un problema intervienen dos aspectos: Primero, la representación del problema. Si un problema no se puede expresar de forma adecuada, es imposible resolverlo.
2. Por otro lado, se trata de elegir un método de solución relativamente adecuado. Dado que la mayoría de los problemas que requieren métodos de inteligencia artificial carecen de solución directa, la búsqueda es un método general para resolver problemas.
1. Concepto
1.Resolución de problemas
Métodos de representación y solución de problemas.
2. Métodos básicos de resolución de problemas.
Método de búsqueda, método de inducción, método de reducción, método de razonamiento, método de producción.
2. Preguntas básicas
1. ¿Es posible encontrar una solución?
2. Si la solución encontrada es la mejor solución
3. ¿Cuál es la complejidad temporal y espacial?
4. Si se debe finalizar la operación o si caerá en un bucle infinito.
3. Proceso principal
1. Comience desde el estado inicial o de destino y utilícelo como estado actual.
2. Escanee el conjunto de operadores de operación, aplique algunos operadores de operación aplicables al estado actual al estado actual para obtener el nuevo estado y establezca un puntero a su nodo principal.
3. Compruebe si el nuevo estado generado satisface el estado final. Si es así, se obtiene una solución al problema y se puede proporcionar una ruta de solución desde el estado final hasta el estado inicial a lo largo del puntero correspondiente; se considera como estado actual, regrese al paso (2) y busque nuevamente
4. Dirección de búsqueda
1. Basado en datos
Búsqueda directa a partir del estado inicial, a partir de las condiciones dadas por el problema.
2.Impulsado por un propósito
Búsqueda inversa comenzando desde el estado objetivo: comience con el objetivo que desea alcanzar, vea qué operadores pueden producir el objetivo y qué condiciones se necesitan para aplicar estos operadores para producir el objetivo.
3. Búsqueda bidireccional
Una búsqueda directa comienza desde el estado inicial y una búsqueda inversa comienza desde el estado de destino hasta que las dos rutas se encuentran en algún punto intermedio.
5. Búsqueda a ciegas
Búsqueda en pasos fijos (llamando a operadores de forma secuencial o aleatoria) sin ninguna información relevante sobre un problema específico
6. Búsqueda heurística
Considere el conocimiento aplicable en áreas problemáticas específicas, determine dinámicamente los pasos para llamar a los operadores de operación, dé prioridad a los operadores de operación más adecuados y minimice las búsquedas innecesarias para llegar al estado final lo antes posible.
2. Búsqueda de espacio de estados
1. Representación
1. Estado
Un conjunto de variables o matrices que representan conocimiento narrativo, como el estado del sistema y los hechos: Q=[q1,q2,...,qn]^T
2. Operación
Un conjunto de relaciones o funciones que representan conocimiento de tipo proceso que causa cambios de estado: F={f1,f2,...,fn}
3. Espacio de estados
Un sistema simbólico que utiliza variables de estado y símbolos de operación para representar el conocimiento sobre el sistema o problema. El espacio de estados es una tupla de cuatro: (S, O, S0, G).
4. Resuelve el camino
El camino desde el nodo S0 al nodo G
5. Una solución al espacio de estados.
una secuencia finita de operadores
2. Descripción de la imagen
2.1 Estrategia ciega
1. Estrategia de retroceso
1.Definición
A partir del estado inicial, el camino se busca constante y tentativamente hasta llegar al destino o "nodo irresoluble", es decir, un "callejón sin salida". Si encuentra un nodo que no se puede resolver, retrocede hasta el nodo principal más cercano en la ruta para ver si el nodo tiene otros nodos secundarios que no se hayan expandido. Si es así, continúe buscando a lo largo de estos subnodos; si se encuentra el objetivo, se saldrá de la búsqueda con éxito y se regresará a la ruta de resolución del problema.
2. Algoritmo
1.Tabla PS (estados de ruta)
Guarda el estado en la ruta de búsqueda actual. Si se encuentra el objetivo, PS es el conjunto ordenado de estados en el camino de la solución.
2.Tabla NPS (nuevos estados de ruta)
La nueva tabla de estado de ruta contiene el estado en espera de ser buscado y su estado descendiente aún no se ha buscado, es decir, la extensión no se ha generado.
3.Tabla NSS (estados sin solución)
El conjunto de estados irresolubles enumera los estados en los que no se puede encontrar una ruta de solución. Si el estado expandido en la búsqueda es su elemento, se puede excluir inmediatamente sin continuar la búsqueda a lo largo del estado.
3. Pensamientos
1. Utilice la tabla de estados no procesados (NPS) para permitir que el algoritmo regrese (retroceda) a cualquiera de los estados.
2. Utilice una tabla de estado "sin salida" (NSS) para evitar que el algoritmo vuelva a buscar rutas sin solución.
3. Registre el estado de la ruta de búsqueda actual en la tabla PS y devuélvalo como resultado cuando se cumpla el propósito.
4. Para evitar caer en un bucle infinito, se debe verificar el subestado recién generado para ver si está en las tres tablas.
2. Ancho primero
1.mesa abierta (tabla NPS)
Un estado que se ha generado pero cuyos subestados no se han buscado
2.tabla cerrada (fusión de tabla PS y tabla NSS)
Registra el estado que se ha generado y ampliado.
3. La profundidad primero
1. En la búsqueda en profundidad, cuando se busca un determinado estado, se deben buscar todos sus subestados y estados descendientes del subestado antes que los estados hermanos de este estado.
2. Los problemas específicos deben tener un cierto valor límite de profundidad, o se debe adoptar un método para aumentar continuamente el valor límite de profundidad y buscar repetidamente hasta encontrar una solución.
4. Profundidad limitada
5. Profundidad de iteración
3. Estrategias heurísticas
1. Información heurística
La información sobre las características de un dominio de problema específico que se utiliza para simplificar el proceso de búsqueda se denomina información heurística.
2.Características
Reorganice la tabla OPEN y seleccione los nodos más prometedores para la expansión
3.Tipo
A. Algoritmo A*
4. Dos situaciones básicas
1. Un problema puede no tener una solución definitiva debido a la ambigüedad del planteamiento del problema y la adquisición de datos.
2. Aunque un problema puede tener una solución definida, su espacio de estados es extremadamente grande y el número de estados expandidos generados durante la búsqueda aumentará exponencialmente con la profundidad de la búsqueda.
5.Ejemplos
4. Información inspiradora y función de valoración
1. Información inspiradora
En soluciones específicas, se puede utilizar información relacionada con el problema para simplificar el proceso de búsqueda. Este tipo de información se denomina información heurística.
2. Búsqueda heurística
Proceso de búsqueda utilizando información heurística.
3. ¿Qué se puede utilizar para resolver problemas? Información heurística mayoritariamente incompleta
1. Es imposible que el sistema de resolución de problemas conozca toda la información relacionada con el problema real, por lo que no puede conocer todo el espacio de estados del problema y es imposible utilizar un conjunto de algoritmos para resolver todos los problemas.
2. Aunque en teoría existen algoritmos para resolver algunos problemas, en la práctica de la ingeniería estos algoritmos son demasiado ineficientes o simplemente imposibles de implementar.
4. Clasificación según método de aplicación
1. Información heurística declarativa: se utiliza para describir el estado de forma más precisa y concisa.
2. Información heurística procesal: utilizada para construir operadores de operación.
3. Controlar la información heurística: conocimiento que representa estrategias de control.
1. No existe un conocimiento controlador como base para la búsqueda, por lo que cada paso de la búsqueda es completamente arbitrario.
2. Existe suficiente conocimiento de control como base, por lo que cada paso de la búsqueda es correcto, pero esto no es realista.
5. Clasificación por función
1. Se utiliza para la selección de nodos de expansión, es decir, se utiliza para decidir qué nodo debe expandirse primero para evitar una expansión ciega.
2. Se utiliza para la selección de nodos generados, es decir, se utiliza para decidir qué nodos sucesores generar, para evitar generar ciegamente demasiados nodos inútiles.
3. Se utiliza para seleccionar nodos para eliminar, es decir, para decidir qué nodos inútiles eliminar para evitar una mayor pérdida de tiempo y espacio.
6. Función de valoración f
Calcule una medida de qué tan "deseable" es un nodo y clasifíquelos secuencialmente (en la tabla abierta)
7. Valor de la función de valoración f(n)
1. La estimación del costo mínimo de la ruta desde el nodo inicial al nodo objetivo a través de n nodos, su forma general es f (n) = g (n) h (n)
2.g(n)
El costo real desde el nodo inicial S0 hasta el nodo n
3.h(n)
El costo estimado de la ruta óptima desde el nodo n hasta el nodo objetivo Sg se denomina función heurística.
4.h(n) gravedad específica
Reduce la carga de trabajo de búsqueda, pero puede provocar la imposibilidad de encontrar la solución óptima. Cuanto mayor es la proporción, más heurística es.
5.h(n) tiene una gravedad específica pequeña
Esto generalmente resulta en una mayor carga de trabajo y, en casos extremos, se convierte en una búsqueda ciega, pero es posible encontrar la solución óptima.
8.Ejemplos
5.Un algoritmo de búsqueda
1.Un algoritmo de búsqueda
Un algoritmo de búsqueda de gráficos heurísticos ponderados que utiliza la función de valoración f
2.ABRIR mesa
1. Conservar todos los estados generados pero no expandidos.
2. El estado que ingresa a la tabla abierta se inserta en la posición apropiada de la tabla de acuerdo con el tamaño de su valoración. Cada vez, el estado con el valor más pequeño de la función de valoración heurística se saca primero de la tabla y se expande.
3.mesa CERRADA
Registre el estado ampliado
4. Funciones de búsqueda heurística
Cómo encontrar y diseñar la función heurística h (n), luego organizar los estados que se expandirán en la tabla OPEN de acuerdo con el tamaño de f (n) y seleccionar el que tenga el valor más pequeño de f (n) para expandir cada vez.
5.Diagrama de flujo
6.Ejemplos
6.A* algoritmo de búsqueda
1.Definición
1. Actualmente, el algoritmo de búsqueda de gráficos heurísticos más influyente, también conocido como algoritmo de búsqueda de gráficos óptimo.
2. Defina h*(n) como el costo de la ruta óptima desde el estado n hasta el estado de destino. Cuando la función heurística h(n) ≤ h*(n) del algoritmo de búsqueda A, se denomina búsqueda A*. algoritmo.
3. Si hay una solución para un determinado problema, entonces utilizando el algoritmo de búsqueda A* para buscar el problema, definitivamente podrá buscar la solución, y definitivamente podrá buscar la solución óptima y terminar. él.
4. El árbol de búsqueda A de ocho dígitos en el ejemplo anterior también es un árbol de búsqueda A*. La ruta de solución obtenida (s, B, E, I, K, L) es la ruta de solución óptima y su número de pasos es. en el estado L (5) marcado 5.
2. Admisibilidad
Cuando un algoritmo de búsqueda puede garantizar encontrar el camino más corto dentro de un número finito de pasos, cuando existe, se dice que es admisible.
3. Monotonicidad
1. El algoritmo de búsqueda A* no requiere g(n)=g*(n), y puede buscar hasta un estado intermedio a lo largo de una ruta no óptima si se agrega monotonicidad al límite de la función heurística h(n). siempre puedes llegar a cualquier estado por el mejor camino desde el estado ancestral
2. Si una determinada función heurística h(n) satisface: a) Para todos los estados ni y nj, donde nj es el descendiente de ni, se satisface h(ni)-h(nj)<=costo(ni,nj), donde costo(ni,nj) es el costo real de ni a Nueva Jersey b) El valor de la función heurística del estado objetivo es 0. Entonces se dice que h(n) es monótono
3. La función heurística de monotonicidad se utiliza en el algoritmo de búsqueda A*, que puede reducir el costo de comparación y la carga de trabajo de ajustar la ruta, reduciendo así el costo de búsqueda.
4.Informativo
1. Entre las dos estrategias heurísticas A* h1 y h2, si h1(n) ≤ h2(n) para cualquier estado n en el espacio de búsqueda, se dice que la estrategia h2 es más informativa que h1
2. Si el h(n) de una determinada estrategia de búsqueda es mayor, más informativo busca el algoritmo A* y menos estados busca.
3. Pero más información requiere más tiempo de computación, lo que puede contrarrestar los beneficios de reducir el espacio de búsqueda.
8.Algoritmos genéticos y aplicaciones
0.Algoritmo evolutivo
1. Concepto
1. Los algoritmos evolutivos (EA) son un algoritmo de búsqueda basado en mecanismos de evolución biológica como la selección natural y la herencia natural.
2. La evolución biológica se logra mediante la reproducción, la mutación, la competencia y la selección; Los algoritmos evolutivos resuelven problemas de optimización mediante tres operaciones: recombinación, mutación y selección.
3. El algoritmo evolutivo es un "grupo de algoritmos", que incluye algoritmo genético (GA), programación genética, estrategia evolutiva y planificación evolutiva, etc.
4. El marco básico de los algoritmos evolutivos es el marco descrito por los algoritmos genéticos.
5. Los algoritmos evolutivos se pueden utilizar ampliamente en campos como la optimización combinatoria, el aprendizaje automático, el control adaptativo, la planificación y el diseño y la vida artificial.
2. Antecedentes biológicos
1. Selección natural y supervivencia del más apto
Los grupos mejor adaptados a su entorno natural tendían a producir grupos más grandes de descendencia.
2.Proceso básico
3. Principios de diseño
1. Principio de aplicabilidad
La aplicabilidad de un algoritmo se refiere a los tipos de problemas a los que se puede aplicar el algoritmo y depende de las restricciones y suposiciones requeridas por el algoritmo.
2. Principio de confiabilidad
La confiabilidad de un algoritmo se refiere a la capacidad del algoritmo para resolver la mayoría de los problemas diseñados con la precisión adecuada.
3. Principio de convergencia
Se refiere a si el algoritmo puede converger al óptimo global. Bajo la premisa de la convergencia, se espera que el algoritmo tenga una velocidad de convergencia más rápida.
4. Principio de estabilidad
Se refiere a la sensibilidad del algoritmo a sus parámetros de control y datos del problema.
5. Principio de analogía biológica
Los métodos y operaciones que se consideran efectivos en el mundo biológico se pueden introducir en el algoritmo mediante analogía, lo que a veces conduce a mejores resultados.
1. Algoritmo genético básico
0.Breve descripción
1. Inspirándose en las leyes de la naturaleza y la biología, las personas han imitado y diseñado muchos algoritmos de resolución de problemas basados en sus principios, incluidas redes neuronales artificiales, lógica difusa, algoritmos genéticos, computación del ADN, algoritmos de recocido simulados, algoritmos de búsqueda tabú y algoritmos inmunológicos. , Computación de membrana, computación cuántica, algoritmo de optimización de enjambre de partículas, algoritmo de colonia de hormigas, algoritmo de colonia de abejas artificial, algoritmo de enjambre de peces artificiales y algoritmo de optimización de colonias de bacterias, etc. Estos algoritmos se denominan computación inteligente y también inteligencia computacional (CI).
2. Los métodos de optimización inteligente generalmente incluyen dos categorías principales de métodos: computación evolutiva e inteligencia de enjambre. Es un método de optimización estocástica heurística típico y se ha utilizado ampliamente en optimización combinatoria, aprendizaje automático, control inteligente, reconocimiento de patrones, planificación y diseño. Seguridad de la red. Es una de las tecnologías importantes en la informática inteligente del siglo XXI.
1. Algoritmo genético
0.algoritmos genéticos,GA
1. Un tipo de algoritmo de búsqueda aleatoria que se basa en la selección natural y los mecanismos genéticos naturales en biología y es muy adecuado para abordar problemas de optimización complejos y no lineales que son difíciles de resolver con los métodos de búsqueda tradicionales.
2. Los algoritmos genéticos se pueden utilizar ampliamente en campos como la optimización combinatoria, el aprendizaje automático, el control adaptativo, la planificación y el diseño y la vida artificial.
2.Idea básica
1. Al resolver un problema, comience con múltiples soluciones y luego repita gradualmente ciertas reglas para generar nuevas soluciones. Lo que se obtiene es un conjunto de soluciones que se pueden seleccionar de acuerdo con diferentes criterios.
3.Características
1. El algoritmo genético es un algoritmo de probabilidad de optimización global que no tiene muchos requisitos matemáticos para el problema de optimización que resuelve. Debido a las características evolutivas, el proceso de búsqueda no requiere las propiedades intrínsecas del problema, ya sea lineal o no lineal. , discreto Se puede procesar ya sea continuo o continuo, y el objeto de estructura se puede operar directamente.
2. Utilizar técnicas estocásticas para guiar la búsqueda eficiente de un espacio de parámetros codificados. Adopte una estrategia de búsqueda grupal, fácil de paralelizar
3. Utilice únicamente el valor de la función de aptitud para evaluar individuos y realice operaciones genéticas sobre esta base para intercambiar información entre individuos de la población.
4. La naturaleza ergódica del operador evolutivo permite que el algoritmo genético realice una búsqueda global de elementos probabilísticos de manera muy eficaz.
5. Los algoritmos genéticos pueden proporcionar una gran flexibilidad para construir heurísticas independientes del dominio para diversos problemas especiales, garantizando así la eficacia del algoritmo.
2.Operaciones básicas
1. Codificación
1. Codificación de cadena de bits
0.Definición
Método de codificación de cromosomas unidimensionales: un método para codificar los parámetros del espacio problemático en cromosomas dispuestos unidimensionalmente
1. Codificación binaria
0.Definición
Utilice varios números binarios para representar a un individuo, asigne el espacio de solución del problema original al espacio de cadena de bits B = {0,1} y luego realice operaciones genéticas en el espacio de cadena de bits
1.Ventajas
De manera similar a la composición de los cromosomas biológicos, el algoritmo es fácil de explicar utilizando la teoría genética biológica y las operaciones genéticas como el cruce y la mutación son fáciles de implementar.
2. Desventajas
1. La codificación binaria de números enteros adyacentes puede tener una distancia de Hamming grande, lo que reduce la eficiencia de búsqueda de los operadores genéticos.
2. Primero se debe dar la precisión de la solución.
3. La cadena de código binario para resolver problemas de optimización de alta dimensión es larga y la eficiencia de búsqueda del algoritmo es baja.
2.Codificación gris
Un código obtenido al convertir un código binario mediante una transformación. Resolver grandes distancias de Haming
2. Codificación de números reales
1. El uso del método de expresión de números reales no requiere conversión a un sistema numérico y puede realizar operaciones genéticas directamente en el fenotipo de la solución.
2. La idea básica de la codificación de mapeo de múltiples parámetros: primero codifique binariamente cada parámetro para obtener una subcadena y luego conecte estas subcadenas en un cromosoma completo.
3. Cada subcadena en la codificación de mapeo multiparámetro corresponde a su propio parámetro de codificación, por lo que puede tener diferentes longitudes de cadena y rangos de valores de parámetros.
2.Función de fitness
1. Mapee la función objetivo en Método de función de fitness
2.Función de fitness transformación de escala
0.Breve descripción
1. El problema del engaño
En el algoritmo genético se generan todos los individuos que obstaculizan el alto valor de aptitud, afectando así el funcionamiento normal del algoritmo genético.
2. Convergencia prematura
Reducir la aptitud de estos individuos para reducir la competitividad de estos súper individuos.
3. Fenómeno de estancamiento
Cambiar la relación proporcional del valor de aptitud original para mejorar la competitividad entre individuos.
4. Transformación/calibración de escala
Algún tipo de transformación de mapeo en el rango de valores de la función de aptitud
1. Transformación lineal
2. Método de transformación de la función de potencia.
3.Método de transformación exponencial
3.Seleccione
1. Probabilidad de selección individual Método de asignación
0.Breve descripción
1. La operación de selección también se denomina operación de reproducción: seleccionar individuos excelentes de la población actual según una cierta probabilidad para que tengan la oportunidad de servir como padres para reproducir la próxima generación de descendientes.
2. El criterio para juzgar si un individuo es bueno o no es el valor de aptitud de cada individuo: cuanto mayor sea la aptitud de un individuo, más oportunidades tendrá de ser seleccionado.
1.Método de proporción de fitness/ Método Montecarlo
La probabilidad de que cada individuo sea seleccionado es proporcional a su valor de aptitud.
2. Método de clasificación
1. Clasificación lineal
Los miembros del grupo se organizan en orden de mejor a peor según el valor de aptitud, y el cuerpo principal se selecciona según el método de selección de plataforma giratoria.
2. Clasificación no lineal
Organice a los miembros del grupo según sus valores de aptitud de mejor a peor y asigne la probabilidad de selección de acuerdo con la siguiente fórmula
2. Elija un método individual
1. Selección de ruleta
1. Genere una rueda de ruleta en función de la probabilidad de selección del individuo. El ángulo de cada área de la rueda de la ruleta es proporcional a la probabilidad de selección del individuo.
2. Genere un número aleatorio y seleccione el individuo correspondiente para cruzar cualquier área que caiga en el plato giratorio.
2. Selección del torneo
1.Selección del torneo
Seleccione aleatoriamente individuos de la población y guarde los individuos con mayor aptitud para la próxima generación. Este proceso se repite hasta que el número de individuos guardados para la siguiente generación alcance el número preestablecido.
2. Competición aleatoria
Cada vez se selecciona un par de individuos de acuerdo con el método de selección de la rueda de juego, y luego a los dos individuos se les permite competir y el que tiene mayor condición física gana. Repita esto hasta que la selección esté completa.
3. Mejor conservación individual
El individuo con mayor aptitud del grupo se copia directamente a la siguiente generación sin cruzar, asegurando que el resultado final obtenido cuando termina el algoritmo genético debe ser el individuo con mayor aptitud que ha aparecido en las generaciones pasadas.
4.Cruce
1. Operador de cruce básico
1. Un pequeño cruce
Establezca aleatoriamente un punto de cruce en la cadena individual. Cuando se realiza el cruce, las estructuras parciales de los dos individuos antes o después del punto se intercambian y se generan dos nuevos individuos.
2. Intersección de dos puntos
Establezca dos puntos de intersección al azar e intercambie las cadenas de código entre los dos puntos de intersección.
2. Método de cruce modificado
1. PMX cruzado de coincidencia parcial
5.Mutación
1. Variación del sitio
Las cadenas de códigos individuales de la población seleccionan aleatoriamente uno o más loci y cambian los valores genéticos de estos loci según la probabilidad de mutación.
2.Mutación inversa
Seleccione aleatoriamente dos puntos (puntos de inversión) en la cadena de código individual y luego inserte los valores del gen entre los dos puntos en la posición original en orden inverso.
3. Mutación de inserción
Seleccione aleatoriamente un código en la cadena de código individual y luego inserte este código en el medio del punto de inserción seleccionado aleatoriamente
4. Intercambiar mutación
Seleccione aleatoriamente dos genes del cromosoma para un intercambio simple.
5.Mutación móvil
Seleccione aleatoriamente un gen y muévalo hacia la izquierda o hacia la derecha un número aleatorio de dígitos
3. Pasos generales
0.Diagrama de flujo
1. Utilice métodos aleatorios u otros métodos para generar una población inicial de N cromosomas pop(1),t:=1
2. Para cada población de cromosomas (t) en la población, calcule su valor de aptitud fi = aptitud (popi (t))
3. Si se cumple la condición de parada, el algoritmo se detiene; de lo contrario, seleccione aleatoriamente algunos cromosomas de pop(t) con probabilidad pi para formar una nueva población newpop(t 1)={popj(t)|j=1,2, .. .,N}
4. Realice un cruce con probabilidad Pc para generar algunos cromosomas nuevos y obtenga un nuevo cruce poblacional (t 1)
5. Con una pequeña probabilidad Pm, un gen del cromosoma muta para formar mutpop(t 1:=t 1, convirtiéndose en una nueva población pop(t)=mutpop(t l), regrese a (2)
4. Mejorar el algoritmo
1. Algoritmo genético diploide
1.Idea básica
1. El algoritmo genético diploide utiliza dos cromosomas dominantes y recesivos para evolucionar simultáneamente, proporcionando la función de memorizar bloques de genes previamente útiles.
2. El algoritmo genético diploide utiliza herencia dominante.
3. La herencia diploide prolonga la vida de los bloques de genes útiles, mejora la capacidad de convergencia del algoritmo y puede mantener un cierto nivel de diversidad cuando la probabilidad de mutación es baja.
2.Diseño
1. Codificación/Decodificación
Dos cromosomas (dominante, recesivo)
2. Operador de copia
Calcule la aptitud del cromosoma dominante y copie el individuo a la población de la próxima generación de acuerdo con la probabilidad de replicación del cromosoma dominante.
3. Operador cruzado
Los cromosomas dominantes de dos individuos se cruzan y los cromosomas recesivos también se cruzan al mismo tiempo.
4. Operador de mutación
El cromosoma dominante de un individuo muta según la probabilidad de mutación normal; el cromosoma recesivo muta según la probabilidad de mutación mayor.
5. Operadores de reordenamiento explícitos e implícitos
El cromosoma con el valor de aptitud mayor en el individuo se establece como cromosoma dominante, y el cromosoma con el valor de aptitud menor se establece como cromosoma recesivo.
2.Algoritmo genético de doble población.
1.Idea básica
1. En el algoritmo genético, se utilizan múltiples poblaciones para evolucionar simultáneamente y la información genética transportada por individuos sobresalientes entre poblaciones se intercambia para romper el estado de equilibrio dentro de la población y alcanzar un estado de equilibrio superior, lo que conduce a que el algoritmo salte de el óptimo local.
2. Establezca dos grupos de algoritmos genéticos y ejecute operaciones de replicación, cruce y mutación de forma independiente. Al mismo tiempo, después de completar cada generación, se seleccionan e intercambian individuos aleatorios e individuos óptimos en las dos poblaciones, respectivamente.
2.Diseño
1. Diseño de codificación/decodificación
2. Operador de cruce y operador de mutación
3. Operador híbrido
4. Supongamos la población A y la población B. Después de que ambas poblaciones A y B hayan completado los operadores de selección, cruce y mutación, se genera un número aleatorio num, y se seleccionan aleatoriamente num individuos en A y el mejor individuo en A, y num Los individuos en A se seleccionan aleatoriamente y se intercambia el mejor individuo en B para romper el estado de equilibrio.
3.Algoritmo genético adaptativo
1.Idea básica
0.Srinvivas M., Patnaik L. M. y otros propusieron un algoritmo genético adaptativo (AGA) en 1994: Pc y Pm pueden cambiar automáticamente con la aptitud.
1. Cuando la aptitud de cada individuo en la población tiende a ser consistente o óptima local, aumente Pc y Pm para salir del óptimo local y cuando la aptitud del grupo esté relativamente dispersa, disminuya Pc y Pm para beneficiar a los individuos excelentes; supervivencia
2. Al mismo tiempo, para los individuos cuya aptitud es mayor que el valor de aptitud promedio del grupo, seleccione Pc y Pm más bajos para que la solución pueda protegerse en la próxima generación para los individuos cuya aptitud es menor que el valor de aptitud promedio; , seleccione valores más altos de Pc y Pm, lo que provocará la eliminación de la solución.
9. Algoritmo de inteligencia de enjambre
1. Algoritmo de optimización del enjambre de partículas
0. Generar fondo
1. El algoritmo de optimización de enjambre de partículas (PSO) fue propuesto por Kennedy y Eberhart de la Universidad Purdue en 1995. Su concepto básico se originó a partir del estudio del comportamiento de alimentación de las aves.
2. Un grupo de pájaros busca comida al azar. Solo hay un trozo de comida en esta área. Todos los pájaros no saben dónde está la comida, pero saben a qué distancia está la ubicación actual de la comida. Entonces, ¿cuál es la estrategia óptima para encontrar comida?
3. La forma más sencilla y eficaz es buscar el área alrededor del ave que actualmente está más cerca de la comida.
1. Principios básicos
1.Idea básica
Cada individuo es considerado como una partícula sin volumen ni masa en el espacio de búsqueda de n dimensiones, que vuela a una cierta velocidad en el espacio de búsqueda, y la velocidad determina la dirección y la distancia del vuelo de la partícula. Todas las partículas tienen un valor de aptitud determinado por la función de optimización.
2. Principios básicos
PSO se inicializa como un grupo de partículas aleatorias y luego encuentra la solución óptima mediante iteración. En cada iteración, la partícula se actualiza siguiendo dos "valores extremos". La primera es la solución óptima encontrada por la propia partícula, que se denomina valor extremo individual. La otra es la solución óptima que actualmente encuentra toda la población. Esta solución se llama extremo global.
3. Definición del algoritmo
1. En el espacio de búsqueda continua de n dimensiones, defina la partícula i-ésima (i = 1,2,..., m) en el enjambre de partículas.
4.Algoritmo PSO básico
La parte 1 es la velocidad de la partícula en el momento anterior; La segunda parte es el componente "cognitivo" individual, que representa el propio pensamiento de la partícula y compara la posición actual con la posición óptima que ha experimentado. La tercera parte es el componente "social" del grupo, que representa el intercambio de información y la cooperación mutua entre partículas. ψ1 y ψ2 controlan respectivamente la tasa de aprendizaje de la contribución relativa del componente cognitivo individual y el componente social grupal. El coeficiente aleatorio aumenta la aleatoriedad de la dirección de búsqueda y la diversidad del algoritmo.
5. Cuatro tipos de modelos PSO
1. Si ψ1>0, ψ2>0, entonces el algoritmo se llama modelo completo PSO
2. Si ψ1>0, ψ2=0, entonces el algoritmo se llama modelo cognitivo PSO.
3. Si ψ1=0, ψ2>0, entonces el algoritmo se llama modelo social PSO.
4. Si ψ1=0, ψ2>0 y g≠i, entonces el algoritmo se llama modelo desinteresado PSO.
6. Proceso algorítmico
1. Inicializa cada partícula
Establezca aleatoriamente la posición inicial y la velocidad de cada partícula dentro del rango permitido
2. Evaluar la aptitud de cada partícula.
Calcular la función objetivo para cada partícula.
3. Establece el Pi de cada partícula.
Para cada partícula, compare su aptitud con la mejor posición Pi que haya experimentado. Si es mejor que Pi, utilícela como la mejor posición Pi para la partícula.
4. Establezca el valor óptimo global Pg
Para cada partícula, compare su aptitud con la mejor posición Pg experimentada por el grupo. Si es mejor que Pg, utilícela como la mejor posición Pg del grupo actual.
5. Actualizar la velocidad y posición de las partículas.
Actualice la velocidad y posición de la partícula según la ecuación (6.20)
6. Consulta las condiciones de rescisión
Si no se cumplen las condiciones establecidas (error preestablecido o número de iteraciones), regrese al paso (2)
7.Diagrama de flujo
2. Análisis de parámetros
1. Parámetros del algoritmo PSO
1. Velocidad máxima Vmax
Para la velocidad vi, hay una velocidad máxima Vmax como límite en el algoritmo. Si la velocidad de una determinada dimensión de la partícula actual es mayor que la velocidad máxima Vmax, la velocidad de esa dimensión se limita a la velocidad máxima Vmax.
2.Factor de ponderación
3 factores de peso: inercia peso w, aceleración ψ1, ψ2
2. En la ecuación de actualización de posición. La influencia de cada parte.
1. Solo la parte 1, es decir, ψ1=ψ2=0
Las partículas seguirán volando a la velocidad actual hasta que alcancen el límite. Dado que sólo puede buscar en un área limitada, es difícil encontrar una buena solución.
2. No existe la parte 1, es decir, w=0
La velocidad sólo depende de la posición actual de la partícula y de sus mejores posiciones históricas Pi y Pg. La velocidad en sí no tiene memoria.
3. No existe la parte 2, es decir, ψ1=0
Las partículas no tienen capacidad cognitiva, es decir, "sólo modelos sociales". Bajo la interacción de partículas, tienen la capacidad de alcanzar nuevos espacios de búsqueda. Pero para problemas complejos, es fácil caer en el óptimo local.
4. No existe la parte 3, es decir, ψ2=0
No hay información socialmente compartida entre partículas, que es un modelo "solo cognitivo". Debido a que no hay interacción entre individuos, un grupo de tamaño M es equivalente a la operación de M partículas individuales, por lo que la probabilidad de obtener la solución óptima es. muy pequeña.
3. Configuración de parámetros
Experimentos iniciales: w se fijó en 1,0, ψ1 y ψ2 se fijaron en 2,0, por lo que Vmax se convirtió en el único parámetro que necesitaba ajustarse, generalmente establecido en un rango de variación del 10 % al 20 % por dimensión. Los experimentos de Suganthan muestran que se pueden obtener mejores soluciones cuando ψ1 y ψ2 son constantes, pero no necesariamente tienen que ser 2. Estos parámetros también se pueden ajustar mediante sistemas difusos. Shi y Eberhart propusieron un sistema difuso para ajustar w
3.Campos de aplicación
4. Problema de rutas de vehículos
1 pregunta
Se supone que el centro de distribución puede utilizar hasta K (k=1,2...K) vehículos para transportar y entregar L (i=1,2...L) clientes, e i=0 representa el almacén. La carga de cada vehículo es bk (k=1,2,…K), la demanda de cada cliente es di (i=1,2,…L), y el costo de transporte del cliente i al cliente j es cij (can ya sea distancia, tiempo, costo, etc.). Defina las siguientes variables:
2. modelo matemático
3. Codificación y población inicial.
1. Para este tipo de problema de optimización combinatoria, el método de codificación y la configuración de la solución inicial tienen un gran impacto en la solución del problema. Se utiliza el método de codificación de números naturales comúnmente utilizado.
2. Para el problema de K automóviles y L clientes, utilice una disposición aleatoria de números naturales de 1 a L para generar un conjunto de soluciones X=(x1,x2,...,xL). Luego utilice el método parsimonioso o el método de inserción más cercano para construir la solución inicial.
4.Resultados experimentales
2. Algoritmo de colonia de hormigas
0.Breve descripción
1. Generar antecedentes
1. A principios de la década de 1990, el científico italiano Marco Dorigo y otros se inspiraron en el comportamiento de búsqueda de alimento de las hormigas y propusieron la Optimización de Colonias de Hormigas (ACO).
2. Un algoritmo de búsqueda heurística aplicado a problemas de optimización combinatoria
3. Buen rendimiento en la resolución de optimización combinatoria discreta.
2.Idea básica
1.Seguimiento de feromonas
Buscando comida a lo largo de caminos con feromonas más fuertes según una cierta probabilidad
2.Legado de feromonas
Liberará feromonas en el camino, para que otras hormigas dentro de un rango determinado puedan detectarla y así afectar su comportamiento.
3. Reglas
1. Medio ambiente
Hay obstáculos, otras hormigas y feromonas.
2. Reglas de búsqueda de alimento
Busque comida dentro del rango; de lo contrario, busque feromonas. Cada hormiga cometerá un error con una pequeña probabilidad.
3.Reglas de movimiento
Todos se mueven en la dirección con mayor cantidad de feromonas. Si no hay feromonas, continuarán moviéndose en la dirección original, con pequeñas perturbaciones aleatorias y memoria.
4. Normas para evitar obstáculos
Si hay un obstáculo en la dirección del movimiento, las hormigas elegirán aleatoriamente otra dirección.
5. Reglas de las feromonas
Cuanto más cerca de la comida, más feromonas se esparcen, y cuanto más lejos de la comida, menos feromonas se esparcen.
1. modelo de algoritmo
1. El problema del viajante
1 pregunta
Buscar el costo mínimo del camino para que un solo viajero comience desde el punto de partida, pase por todos los puntos de demanda dados y finalmente regrese al origen.
2. Proceso de búsqueda
A través del intercambio de información y la cooperación entre individuos, finalmente se encuentra el camino más corto desde el hormiguero hasta la fuente de alimento.
2. Modelo de sistema de colonia de hormigas
3. Tres modelos diferentes
1. Sistema de círculo de hormigas
2. Sistema de cantidad de hormigas
3. Sistema de densidad de hormigas
4.Comparar
4. Ventajas de la actualización de la información global
1. Garantiza que las feromonas residuales no se acumulen indefinidamente
2. Si no se selecciona la ruta, la feromona residual anterior se debilitará gradualmente con el tiempo, lo que permite al algoritmo "olvidar" las rutas incorrectas.
3.
4. Refleja plenamente la capacidad de supervivencia de caminos más cortos (mejores soluciones) en el alcance global del algoritmo.
5. Rendimiento de retroalimentación positiva de información mejorada
6. Se mejoró la velocidad de convergencia de búsqueda del sistema.
2. Selección de parámetros
1.Factor de inspiración de feromonas α
1. Refleja la intensidad de factores aleatorios en la búsqueda de caminos de las colonias de hormigas.
2. Cuanto mayor sea el valor de α, más probable será que la hormiga elija el camino que ha tomado antes y la aleatoriedad de la búsqueda se debilita.
3. Cuando α es demasiado grande, la búsqueda de la colonia de hormigas caerá prematuramente en el óptimo local.
2. Factor heurístico del valor esperado β
1. Refleja la fuerza de los factores a priori y deterministas de la colonia de hormigas en la búsqueda de camino.
2. Cuanto mayor sea el valor de β, mayor será la posibilidad de que la hormiga elija el camino local más corto en un determinado punto local.
3. Aunque la velocidad de convergencia de la búsqueda se acelera, la aleatoriedad de la colonia de hormigas se debilita durante el proceso de búsqueda del camino óptimo y es fácil caer en el óptimo local.
3. Volatilidad de feromonas 1-ρ
1. Cuando la escala del problema a procesar es relativamente grande, la cantidad de información sobre los caminos (soluciones factibles) que nunca se han buscado se reducirá a cerca de 0, reduciendo así la capacidad de búsqueda global del algoritmo.
2. Y cuando 1-ρ es demasiado grande, la posibilidad de que se vuelvan a seleccionar las rutas buscadas anteriormente es demasiado alta, lo que también afectará el rendimiento aleatorio y las capacidades de búsqueda global del algoritmo.
3. Por el contrario, aunque el rendimiento aleatorio y la capacidad de búsqueda global del algoritmo se pueden mejorar reduciendo la volatilidad de la feromona 1-ρ, también reducirá la velocidad de convergencia del algoritmo.
3.Aplicación
1. Horarios flexibles del taller de trabajo
Un sistema de procesamiento tiene 6 máquinas herramienta y es necesario procesar 4 piezas de trabajo. Cada pieza de trabajo tiene 3 procesos, como se muestra en la figura.
2.Análisis
Puede verse en la Figura 6.12 que la máquina 6 no procesa ninguna pieza de trabajo. La razón es que aunque puede procesar los procesos p23, p33, p42 y p43, se puede ver en la Tabla 6.5 que el tiempo de procesamiento de la máquina 6 es mayor que el de otras máquinas procesadoras, especialmente el tiempo de procesamiento de p23 y p33. por lo que a la máquina 6 no se le asigna ninguna tarea de procesamiento
3. Diagrama de Gantt/diagrama de convergencia de la solución óptima
10.Red neuronal BP y Red neuronal de Hopfield
1. Neuronas y redes neuronales
0.Breve descripción
1. La red neuronal artificial es la abstracción y simulación de varias características básicas del cerebro humano o de la red neuronal biológica. Proporciona una nueva idea para la investigación de muchos problemas, como el aprendizaje automático. Se ha utilizado en reconocimiento de patrones, visión artificial, memoria asociativa, control automático, procesamiento de señales, medición suave, análisis de decisiones, computación inteligente, resolución de problemas de optimización combinatoria. minería de datos, etc. aplicados con éxito en
2. Red neuronal
0.redes neuronales,NN
1. Red neuronal biológica NNN
Una intrincada red neuronal compuesta por el sistema nervioso central (cerebro y médula espinal) y el sistema nervioso periférico (nervios sensoriales, nervios motores, etc.), el más importante de los cuales es el sistema nervioso craneal.
2. Red neuronal artificial ANN
Simula la estructura y función del sistema nervioso del cerebro humano, utilizando un sistema de red artificial compuesto por una gran cantidad de unidades de procesamiento simples que están ampliamente conectadas.
3. Método de red neuronal: método de representación del conocimiento implícito
1. Estructura de las neuronas biológicas.
0.Breve descripción
1. Estructura del cerebro humano: corteza, mesencéfalo, tronco del encéfalo, cerebelo
2. El cerebro humano está compuesto por más de 100 mil millones (10^11-10^14) de células nerviosas (neuronas) entrelazadas en una estructura de red, incluidas alrededor de 14 mil millones de neuronas en la corteza cerebral y 100 mil millones en la corteza cerebelosa.
3. Hay alrededor de 1000 tipos de neuronas, y cada neurona está conectada a aproximadamente 10 ^ 3-10 ^ 4 otras neuronas, formando una red neuronal extremadamente compleja y flexible.
1. Estructura neuronal biológica
2. Estado laboral
1. Estado de excitación: potencial de membrana celular > umbral del potencial de acción → impulso nervioso
2. Estado inhibidor: potencial de membrana celular <umbral del potencial de acción
3. Aprender y olvidar
Debido a la plasticidad de las estructuras neuronales, la transmisión sináptica puede fortalecerse y debilitarse.
2. Modelo matemático de neuronas
Modelo 1.MP
2. Modelo general
3. Enlace lineal
4. Enlace no lineal
5.Proceso de trabajo
3. Estructura de la red neuronal y Manera de trabajar
1. Decidir sobre la red neuronal artificial Tres elementos del desempeño
1. Características de las neuronas
2. La forma de interconexión entre neuronas - estructura topológica
3. Aprender reglas para mejorar el rendimiento para adaptarse al entorno
2. Estructura de la red neuronal.
1. Tipo de avance: red neuronal BP
La salida de la neurona anterior solo se utiliza como entrada de la siguiente capa de neuronas, mapeo estático
2. Tipo de comentario: Hopfield
La señal de salida se retroalimenta directa o indirectamente al terminal de entrada como señal de entrada, sistema dinámico no lineal
3.Método de trabajo
1. Método sincrónico (paralelo)
Todas las neuronas de la red neuronal ajustan sus estados en cualquier momento
2. Modo asíncrono (en serie)
Sólo una neurona ajusta su estado en cualquier momento, mientras que los estados de otras neuronas permanecen sin cambios.
Hay algunas diferencias entre los dos, pero no demasiado grandes.
2.Red neuronal BP
1.Estructura de la red neuronal BP
1.Estructura de la red BP
2. Relación de transformación insumo-producto
3.Proceso de trabajo
1. La primera fase/fase de formación en red
Aprenda y ajuste los pesos de conexión de la red para que la red pueda lograr la relación de mapeo de entrada-salida de una muestra determinada.
2. Segunda fase/fase de trabajo
Ingrese datos experimentales o datos reales en la red, y la red predice y calcula los resultados dentro del rango de error.
2.Algoritmo de aprendizaje de BP
1. Dos preguntas
1. ¿Existe una red neuronal de BP que pueda aproximarse a una muestra o función determinada?
2. Cómo ajustar los pesos de conexión de la red neuronal BP para que la entrada y salida de la red sean las mismas que la muestra dada
2.Idea básica
3. Algoritmo de aprendizaje
1. Propagación hacia adelante
La información de entrada se transmite desde la capa de entrada a la capa oculta y finalmente se genera en la capa de salida.
2. Propagación hacia atrás
Modifique los pesos de las neuronas en cada capa para minimizar la señal de error.
3. Implementación del algoritmo BP.
1. Diseño del algoritmo BP
1. Determinación del número de capas ocultas y neuronas en la capa oculta.
Actualmente no existe ninguna orientación teórica.
2. Configuración de pesos iniciales
Generalmente, el peso inicial de la red se establece con una distribución aleatoria con un valor medio de 0.
3. Preprocesamiento de datos de entrenamiento
La transformación de proporción de características lineales transforma todas las características en el intervalo [0,1] o [-1,1], de modo que en cada conjunto de entrenamiento, la media de cada característica es 0 y tiene la misma varianza.
4. Proceso de posprocesamiento
Cuando se aplican redes neuronales para operaciones de clasificación, los valores de salida generalmente se codifican en las llamadas variables nominales, con valores específicos correspondientes a etiquetas de categoría.
2. Proceso de implementación informática
1.Inicialización
Asigne valores pequeños arbitrarios aleatorios a todos los pesos y umbrales de conexión
2. Tome un conjunto de muestras de N conjuntos de muestras de entrada y salida.
x=[x1,x2,…,xp1]^T,d=[d1,d2,…,dpm]^T, ingrese la información de entrada x=[x1,x2,…,xp1]^T en la red BP
3. Propagación hacia adelante
Calcular la salida de cada nodo de capa.
4. Calcule el error entre la salida real de la red y la salida esperada.
5. Propagación hacia atrás
Calcule desde la dirección de la capa de salida hasta la primera capa oculta y ajuste el peso de cada conexión de la red en la dirección de reducir el error de acuerdo con la fórmula de corrección del peso de la conexión.
6. Sea t 1→t, tome otro conjunto de muestras y repita (2)-(5) hasta que el error de los N conjuntos de muestras de entrada y salida alcance el requisito.
3.Diagrama de flujo
4. Análisis de características
1.Características
Red BP: red directa multicapa (capa de entrada, capa oculta, capa de salida). Pesos de conexión: modificados mediante algoritmo de aprendizaje Delta. Función de transferencia neuronal: Función sigmoidea. Algoritmo de aprendizaje: propagación hacia adelante, propagación hacia atrás. La conexión entre capas es unidireccional y la propagación de información es bidireccional.
2.Ventajas
Buenas características de aproximación, gran capacidad de generalización y buena tolerancia a fallos.
3. Desventajas
Velocidad de convergencia lenta, valor extremo local, difícil determinar el número de capas ocultas y nodos de capas ocultas
3.Red neuronal BP en Aplicación en reconocimiento de patrones.
1. Reconocimiento de patrones
1. La investigación de reconocimiento de patrones utiliza computadoras para simular la percepción biológica y humana para identificar y clasificar información de patrones, como imágenes, texto, voz, etc.
2. La investigación sobre la inteligencia artificial tradicional muestra parcialmente la inducción, el razonamiento y otras inteligencias del cerebro humano. Sin embargo, para la inteligencia humana subyacente, como la visión, el oído, el tacto, etc., las capacidades de procesamiento de información de los sistemas informáticos modernos no son tan buenas como las de un niño de jardín de infantes.
3. El modelo de red neuronal simula las características del sistema nervioso del cerebro humano: amplias conexiones de unidades de procesamiento; capacidades de procesamiento y almacenamiento de información distribuida en paralelo, etc.
4. El método de reconocimiento de patrones de redes neuronales tiene una fuerte tolerancia a fallas, capacidad de aprendizaje adaptativo y capacidades de procesamiento de información en paralelo.
2.Aplicación
1 pregunta
Diseñar una red BP de tres capas para clasificar los números del 0 al 9
2.Método
1. Cada número está representado por una cuadrícula de 9 × 7, donde los píxeles grises representan el 0 y los píxeles negros representan el 1. Representa cada cuadrícula como una larga cadena de bits de 0,1. El mapa de bits comienza desde la esquina superior izquierda y desciende hasta una columna completa de la cuadrícula, luego se repite para las otras columnas.
2. Seleccione la estructura de la red BP como 63-6-9. Hay 97 nodos de entrada, correspondientes al mapeo de la cuadrícula anterior. 9 nodos de salida corresponden a 10 categorías
3. El tamaño del paso de aprendizaje utilizado es 0,3. Entrene durante 600 ciclos. Si el valor del nodo de salida es superior a 0,9, se establece en ON. Si el valor del nodo de salida es inferior a 0,1, se establece en OFF.
4. Hopfield discreto Redes neuronales
1.Definición
En una red totalmente interconectada, dos nodos cualesquiera tienen retroalimentación y no se retroalimentan a sí mismos.
2.Estructura de red
3. Relación entrada-salida
4.Método de trabajo
5.Proceso de trabajo
6.Estabilidad de la red
1. Si a partir de cierto momento los estados de todas las neuronas de la red ya no cambian, es decir x=f(Wx-θ), entonces se dice que la red es estable, y x es el punto estable o atractor de la red.
2. La red neuronal de Hopfield es un sistema no lineal de alta dimensión y puede tener muchos estados óptimos estables. Partiendo de cualquier estado inicial, siempre se puede llegar a un determinado estado estable. Estos estados estables se pueden obtener cambiando los parámetros de la red.
7. Teorema de estabilidad
1. Estabilidad en serie - W: matriz simétrica
2. Estabilidad paralela - W: matriz simétrica definida no negativa
5. Hopfield continuo Redes neuronales
1. modelo de red
2.Estabilidad de la red
5.Aplicación Hopfield
1. Aplicación en memoria asociativa
0.Pregunta
1. Diseñar la estructura DHNN
2. Diseñar la matriz de pesos de conexión.
3. Prueba
2. Método de optimización
1. Pasos generales
1. Representar cada solución factible al problema de optimización como una matriz de transposición.
2. Corresponden a la matriz de transposición y la red neuronal compuesta por n neuronas: cada elemento de la matriz de transposición de cada solución factible corresponde a la salida en estado estacionario de la neurona correspondiente.
3. Construya la función de energía de modo que su valor mínimo corresponda a la solución óptima del problema de optimización y satisfaga las restricciones.
4. Utilice el método de la función de penalización para construir la función objetivo, que es igual a la expresión de la función de energía de cálculo de la red neuronal Hopfield, y determine el peso de cada conexión y el parámetro de sesgo.
5. Dado el estado inicial de la red y los parámetros de la red, etc., haga que la red funcione de acuerdo con la ecuación dinámica hasta que alcance un estado estable e interprete esto como la solución al problema de optimización.
2. Ejemplos de aplicación
3.Problemas existentes
1. Inestabilidad de la solución
2. Los parámetros son difíciles de determinar.
3. Hay una gran cantidad de mínimos locales en la función de energía, lo que dificulta garantizar la solución óptima.
11. Red neuronal profunda
1. Red neuronal convolucional
0.Breve descripción
1. Deficiencias de la PA
1. La red neuronal BP toma valores numéricos como entrada. Si desea procesar información relacionada con la imagen, primero debe extraer características de la imagen.
2. Dado que el algoritmo BP se basa en el ajuste de parámetros de gradiente, también es fácil caer en la solución óptima local.
3. A medida que aumenta el número de capas de la red neuronal, se produce un grave fenómeno de "difusión de gradiente" en el proceso de entrenamiento, es decir, los resultados de salida de la red se propagan hacia atrás cuando llegan a las primeras capas. desaparecerá gradualmente y los pesos de la red no podrán guiarse en el entrenamiento de valores, lo que provocará que el proceso de entrenamiento de la red no converja.
4. El algoritmo BP generalmente solo se puede usar para aprender estructuras de red poco profundas (generalmente igual a 3), lo que limita la capacidad de representación de datos del algoritmo BP y afecta su aplicación en ingeniería.
5. Dirección del esfuerzo: aumentar el número de capas ocultas de la red neuronal, es decir, la profundidad, por lo que la red neuronal correspondiente se denomina red neuronal profunda (DNN) y el algoritmo de aprendizaje correspondiente se denomina aprendizaje profundo (DL).
2. Red neuronal profunda base biológica de
1. En 2006, el profesor Hinton y el estudiante de doctorado Salakhutdinov propusieron un método de aprendizaje profundo basado en importantes descubrimientos en biología.
2. En 1968, cuando los neurobiólogos David Hunter Hubel y Torsten N. Wiesel estaban estudiando las neuronas utilizadas para la sensibilidad local y la selección de dirección en la corteza cerebral del gato, se descubrieron dos puntos importantes:
a Para la codificación visual, las neuronas de la corteza cerebral animal tienen campos receptivos locales, es decir, son localmente sensibles y tienen selectividad de dirección.
b. La corteza cerebral de los animales se procesa de forma jerárquica y jerárquica. Hay tres tipos de células en la corteza visual primaria del cerebro: células simples, células complejas y células supercomplejas. Estos diferentes tipos de células realizan funciones de percepción visual en diferentes niveles de abstracción.
3. En 2006, el profesor Hinton y otros publicaron un algoritmo de aprendizaje de redes neuronales profundas en la famosa revista académica "Science" y sacaron dos conclusiones importantes:
a. Las redes neuronales artificiales con múltiples capas ocultas tienen mejores capacidades de aprendizaje de características. La extracción de características de cada capa es una abstracción de la capa anterior y las características aprendidas caracterizan mejor los datos. La esencia del preentrenamiento jerárquico de aprendizaje profundo es abstraer los datos de entrada paso a paso, de acuerdo con el proceso cognitivo del cerebro biológico.
b A través del "entrenamiento previo capa por capa" de la inicialización capa por capa, se puede encontrar un peso de red neuronal que esté cerca de la solución óptima, y luego toda la red se optimiza y entrena mediante "finamente". tuning", reduciendo así en gran medida la necesidad de entrenar redes neuronales multicapa.
1.Definición
Las redes neuronales convolucionales (CNN) son redes neuronales de múltiples capas. Cada capa está compuesta por múltiples planos bidimensionales y cada plano está compuesto por múltiples neuronas independientes.
2.Estructura general
3. Operación de convolución
4. Cuatro tecnologías principales Reducir la cantidad de cálculo.
1. Conexión local
2. Compartir peso
3. Múltiples núcleos de convolución
4. Puesta en común
1. Después de obtener características mediante convolución, si usa estas características directamente para entrenar un clasificador, la cantidad de cálculo será muy grande. Agregar estadísticas sobre características en diferentes ubicaciones se denomina agrupación.
2. Métodos comunes de agrupación: agrupación promedio, agrupación máxima
3. La red neuronal convolucional pierde una gran cantidad de información en la capa de agrupación, lo que reduce la resolución espacial y hace que la salida casi no cambie con pequeños cambios en la entrada.
5.Aplicación
1. Red convolucional para sistema de reconocimiento de dígitos escritos a mano: LeNet-5 propuesto por YannLeCun en 1998. La mayoría de los bancos de Estados Unidos lo utilizaron para identificar números escritos a mano en cheques, llegando al punto de uso comercial.
2. Proceso
2. Red cápsula
1. Concepto
1. En vista de las deficiencias de los datos de entrenamiento de redes neuronales convolucionales, como la gran demanda, la débil adaptabilidad ambiental, la mala interpretabilidad y la dificultad para compartir datos, en octubre de 2017, el profesor Geoffrey E. Hinton y otros publicaron un artículo en "Neural Information Processing System Conference" y propuesta de nueva estructura de red neuronal: redes cápsula
2. Una cápsula es un vector que contiene múltiples neuronas. Cada neurona representa varios atributos de una entidad específica que aparece en la imagen.
3. Una cápsula no es una neurona de una red neuronal tradicional, sino un grupo de neuronas.
4. La idea central de la red de cápsulas: la información relevante de las características de detección encapsuladas en la cápsula existe en forma de vector. La entrada de la cápsula es un vector, que utiliza un grupo de neuronas para representar múltiples características. .
2.Estructura básica
0.imagen
1.Capa de entrada
La imagen digital pasa a través de una capa de convolución estándar, con 256 canales. Cada canal utiliza un núcleo de convolución de 9 × 9 para convertir el brillo de los píxeles en la imagen de la capa de entrada en una salida de características local, que se utiliza como entrada de la capa Conv1.
2.Capa primaria
La capa de cápsulas convolucionales contiene 32 cápsulas. PrimaryCaps es donde realmente comienzan las cápsulas
3.Capa DigitCaps
La capa completamente conectada de la red de cápsulas necesita reconocer 10 tipos de números (0 ~ 9), por lo que hay 10 cápsulas en esta capa. El número de elementos en el vector representado por cada cápsula es 16, lo que representa diferentes estados. número
3. Aprender operaciones
1.Entrada
2.Coeficiente de acoplamiento
3. Función de activación no lineal
La función de activación no lineal aplastante también se llama función de compresión. La primera parte es la dirección de entrada. La escala de escala de la suma lineal S de la cantidad, la última parte es el vector unitario de la suma lineal S
4. Algoritmo de enrutamiento dinámico
El algoritmo de enrutamiento dinámico en la red de cápsulas reemplaza la agrupación en la red neuronal convolucional, que es una forma de extraer información útil.
Explicación del algoritmo
5.Función de pérdida
Los parámetros de convolución de la red y los pesos en la Cápsula se actualizan de acuerdo con la función de pérdida. La función de pérdida utilizada es maximizar la distancia entre las muestras positivas y negativas al hiperplano.
6. Reconstruir la red
0.imagen
1. La reconstrucción consiste en utilizar el vector cápsula de categoría predicha, es decir, el vector con el valor de módulo más grande, para reconstruir la imagen real representada por la categoría.
2. Reconstruya la red para reconstruir el decodificador de red que contiene tres capas completamente conectadas. El decodificador genera 784 números, correspondientes al número de píxeles de la imagen reconstruida (28x28=784 píxeles)
3. La función de pérdida de este proceso se construye calculando la distancia euclidiana entre los píxeles de salida de la capa FCSigmoide y los píxeles de la imagen original.
4. Experimentar
1. Algunos resultados experimentales sobre el conjunto de datos de imágenes de dígitos escritos a mano MNIST
2. Resultados experimentales de capacidad de generalización.
Se han realizado algunos cambios en el tamaño del número, el grosor y la posición del conjunto de prueba MNIST. Resultados experimentales: CapsNet logró resultados mucho mejores que CNN en el conjunto de datos AFFNIST con dígitos superpuestos
3. Experimentos para identificar números muy superpuestos
1. En promedio, el 80% de los rangos fronterizos de los dos números en MultiMNIST son números superpuestos.
2. Números que se superponen a la imagen MultiMNIST (blanca) y los resultados reconstruidos por CapsNet (rojo y verde)
3. Resultados experimentales: CapsNet logró una tasa de error de clasificación más baja
5.Características
1. La cantidad de datos de entrenamiento necesarios para utilizar la red neuronal de cápsula es mucho menor que la de la red neuronal convolucional. Utiliza un algoritmo de protocolo de enrutamiento dinámico y puede mostrar un rendimiento excelente utilizando solo una red de tres capas, que es comparable a una. Red neuronal convolucional profunda.
2. La red cápsula resuelve los problemas de pérdida de información y cambio de perspectiva en la red neuronal convolucional.
3. Debido a que la red cápsula tiene la capacidad de procesar diferentes atributos por separado, puede mejorar la solidez de la transformación de imágenes en comparación con CNN y también tendrá un rendimiento excelente en la segmentación de imágenes.
4. El mecanismo de trabajo de la red de cápsulas está más cerca del modo de trabajo del cerebro humano que el de la red convolucional.
3. Red adversarial generativa
1.Breve descripción
0. Red típica de aprendizaje profundo no supervisada
1. Los modelos de aprendizaje profundo se dividen en modelos discriminativos y modelos generativos.
2. El modelo discriminante asigna una entrada sensorial de alta dimensión a una etiqueta de categoría.
3. La red generativa convierte puntos aleatorios en imágenes similares al conjunto de datos.
4. Los logros actuales en materia de aprendizaje profundo se centran principalmente en modelos discriminativos.
5. Goodfellow et al. propusieron la Red Generativa Adversarial (GAN) en 2014, utilizando un mecanismo de entrenamiento adversario para entrenar dos redes neuronales.
6. El modelo generativo asigna un vector de ruido gaussiano z a una distribución de probabilidad generativa y ajusta los parámetros optimizando la función de pérdida para acercar la distribución de probabilidad generativa lo más posible a la distribución de datos reales.
2. Estructura
3.Entrenamiento
1. Dos etapas de entrenamiento alternas de GAN: red de generación fija, red discriminante de entrenamiento, red discriminante fija, red de generación de entrenamiento;
2. El proceso de dos redes enfrentadas es el proceso de ajuste continuo de sus respectivos parámetros de red, es decir, el proceso de aprendizaje.
4.Aplicación
Restauración de imágenes, transferencia de estilos de imágenes, traducción de imágenes, creación artística, generación de imágenes a partir de descripciones de texto, escritura de poesía, cambio de rostro mediante IA, robots de transmisión de noticias
5. Pregunta
1. GAN es propenso a sufrir algunos problemas durante el entrenamiento, el proceso de entrenamiento es muy inestable y los resultados experimentales son aleatorios y específicos;
2. Es difícil converger en el entrenamiento y a menudo se producen oscilaciones;
3. El entrenamiento converge, pero se produce un colapso modal: varios estados nunca aparecen
4. El entrenamiento converge, pero se generarán algunas imágenes que no tienen sentido o son imposibles de aparecer en la realidad.
12. Sistema experto y gráfico de conocimiento
1.Definición
Un sistema experto es un programa informático inteligente que utiliza conocimiento y razonamiento para resolver problemas complejos que sólo los expertos pueden resolver. Es un tipo de programa informático inteligente que contiene conocimiento y razonamiento.
2.Composición básica
3.Características
1. Ideas de programación
Programa tradicional = algoritmo de estructura de datos
Sistema experto = razonamiento del conocimiento
2. Formas de aplicar el conocimiento
Programas tradicionales: el conocimiento sobre la resolución de problemas está implícito en el programa.
Sistema experto: el conocimiento forma una base de conocimiento separada y está separada del motor de inferencia.
3. Procesamiento de objetos
Programas Tradicionales: Computación Numérica y Procesamiento de Datos
Sistemas expertos: y procesamiento de símbolos
4. Explica la función.
Programa tradicional: sin función de interpretación
Sistema experto: con función explicativa
5. Corrección
Procedimiento tradicional: produce la respuesta correcta.
Sistemas expertos: generalmente producen respuestas correctas, a veces producen respuestas incorrectas.
6. La arquitectura del sistema es diferente.
4. Principio de funcionamiento
5. Adquisición de conocimientos
1. Proceso principal
Extraer conocimiento, convertir conocimiento, ingresar conocimiento, detectar conocimiento
2.Modo
1. Adquisición de conocimientos no automatizada
Literatura científica/experto en el campo → ingeniero de conocimiento → editor de conocimiento → base de conocimiento
2. Adquisición automática de conocimientos
6.Establecer
1. ¿Bajo qué circunstancias es posible desarrollar un sistema experto?
1. Tareas que se basan principalmente en conocimientos empíricos y pueden resolverse sin utilizar mucho conocimiento de sentido común.
2. Existen verdaderos expertos en el dominio
3. Tener objetivos de desarrollo claros y las tareas no sean demasiado difíciles de lograr.
2. ¿Bajo qué circunstancias es razonable desarrollar un sistema experto?
1. Tiene altos beneficios económicos
2. Hay una escasez crítica de expertos humanos, pero son muy necesarios en muchos lugares.
3. La experiencia de los expertos humanos sigue perdiéndose
4. Las situaciones peligrosas requieren conocimientos profesionales
3. ¿Bajo qué circunstancias es apropiado desarrollar un sistema experto?
1. Esencia: Los problemas se pueden resolver mediante operaciones simbólicas y estructuras simbólicas, y se requieren conocimientos heurísticos y reglas empíricas para obtener respuestas.
2. Complejidad
3. Alcance: El tamaño de la tarea seleccionada es manejable y la tarea tiene valor práctico.
4. Principios de diseño y pasos de desarrollo.
Tareas especializadas, colaboración de expertos, creación de prototipos, participación de usuarios, herramientas auxiliares, separación de base de conocimientos y motor de inferencia.
7.Ejemplos
1. Sistema experto médico MYCIN
1. Estructura del sistema
1. El sistema MYCIN fue construido por la Universidad de Stanford en 1972 y finalmente se completó en 1978.
2. El sistema está escrito en lenguaje INTERLISP.
3. La base de conocimientos tiene más de 200 reglas, que pueden identificar 51 tipos de bacterias y manejar correctamente 23 tipos de antibióticos.
4. Diagrama de estructura
2. Representación de datos: árbol de contexto
3. Representación del conocimiento
1. Representación del conocimiento del dominio: reglas de producción
2. Representación de parámetros clínicos.
1. Parámetros clínicos: triplete (árbol de contexto, atributo, valor)
2. Datos clínicos: valor único, valor correcto e incorrecto, valor múltiple
4. Estrategias de razonamiento
1. Razonamiento inverso y estrategia de búsqueda en profundidad
2.Sistema MYCIN: completa todo el proceso de consulta y razonamiento a través de dos subprogramas MONITOR y DESCUBRE
3.MONITOREAR: Analizar si se cumplen los requisitos previos de la regla para decidir si rechazar la regla o adoptarla, y registrar los resultados después de cada identificación de un requisito previo en la base de datos dinámica
4.DESCUBRIR: Verifique los parámetros requeridos por MONITOR. Puede estar en la base de datos dinámica o puede obtenerse a través de preguntas de los usuarios.
5. Selección del plan de tratamiento
1. Generar una posible “tabla de planes de tratamiento”
2. Elija la fórmula del medicamento
6. Adquisición de conocimientos
2. Sistema experto en exploración geológica PROSPECTOR
1. Estructura del sistema
1. Estructura general
2.Archivo de modelo (base de conocimientos modelo)
12 archivos modelo se expresan como una red de reglas de razonamiento, con un total de más de 1100 reglas. La premisa de las reglas son los datos de exploración geológica, y la premisa de la conclusión son los supuestos geológicos derivados de la inferencia, como la clasificación, el contenido, la distribución, etc. de los depósitos minerales.
3. Ficha terminológica (base de conocimientos terminológicos)
Hay 400 tipos de rocas, nombres geológicos, edades geológicas y otros términos utilizados en la Web Semántica
4.Analizador
Convierta archivos de modelo en redes de inferencia dentro del sistema.
5. Red de inferencia
Un árbol AND/OR con una estructura jerárquica, que conecta datos de exploración e hipótesis geológicas relevantes, y realiza un razonamiento paso a paso de arriba a abajo. La conclusión del nivel superior se utiliza como evidencia del siguiente nivel hasta la conclusión. Puede ser confirmado directamente por los datos de exploración hasta el punto.
6. Emparejador
para la coincidencia de redes semánticas
7.Transmisor
Valores de probabilidad utilizados para corregir los cambios de estado del espacio modelo en la red de inferencia
8.analizador de inglés
Analizar la información ingresada por el usuario en oraciones declarativas simples en inglés y transformarla en la red semántica.
9. Sistema de preguntas y respuestas
Para verificar el proceso de inferencia de la red de inferencia y el funcionamiento del modelo, los usuarios pueden consultar el sistema en cualquier momento, y el sistema también puede hacer preguntas a los usuarios y requerir evidencia de exploración. Sistema de adquisición de conocimientos: adquiera conocimientos expertos, agregue, elimine y modifique redes de razonamiento
10. Compilador de red
A través del modelo de posicionamiento de perforación y con base en los resultados de la inferencia, se compila un plan de selección de ubicación del pozo de perforación y se genera información de imagen.
11. Explica el sistema.
Explicar a los usuarios el proceso de razonamiento, los pasos y las bases para las conclusiones y afirmaciones.
12. Sistema de adquisición de conocimientos
Adquirir conocimiento experto, agregar, eliminar y modificar redes de razonamiento.
2. Funciones del sistema
Evaluación de resultados de exploración, evaluación de exploración de área minera, elaboración de planes de ubicación de pozos.
3. Red de inferencia
Una red codificada de modelos de depósitos que conecta evidencia de exploración y algunos supuestos geológicos importantes en un gráfico dirigido.
4. Métodos de razonamiento
1. Razonamiento de verosimilitud: razonamiento basado en la relación de probabilidad del principio de Bayes y utiliza la "tasa de verosimilitud" para expresar la solidez de la regla.
2. Razonamiento lógico: razonamiento basado en relaciones lógicas booleanas
3. Razonamiento contextual: razonamiento basado en la relación semántica entre contexto y contexto
8. Herramientas de desarrollo
1. Sistema esquelético
1.Sistema EMICINA
1. Función
Programa de intérprete, programa de edición de conocimientos y lenguaje conversacional simplificado similar al inglés, medios de gestión y mantenimiento de la base de conocimientos, funciones de seguimiento y depuración.
2.Proceso de trabajo
Proceso de establecimiento del sistema experto, proceso de consulta.
3.Aplicación
2.Sistema KAS
1.Definición
1. Se forma extrayendo el conocimiento original de exploración geológica del sistema PROSPECTOR y es adecuado para desarrollar sistemas expertos interpretativos.
2. Adoptar un método de expresión de conocimiento que combine reglas de producción y redes semánticas y una estrategia heurística de control de razonamiento híbrido directo e inverso.
2.Programa de edición de red
Convertir la información ingresada por el usuario en la red semántica correspondiente, y detectar errores gramaticales y coherencia, etc.
3. Programa de emparejamiento en línea
Analice la relación entre dos redes semánticas cualesquiera para determinar si hay equivalencia, inclusión, intersección, etc., para determinar si hay coincidencia y también detectar si hay contradicciones, redundancias, etc. en el conocimiento de la base de conocimientos.
4.Aplicación
1. Se utiliza para ayudar a los ingenieros químicos a seleccionar parámetros físicos en la producción química.
2. Se utiliza para identificar el modelo de aeronave en función de las características del objeto volador y las condiciones ambientales en el momento.
3.Sistema EXPERTO
1.Breve descripción
Un sistema de esqueleto diseñado y completado en 1981 por Weiss, Kulikowski y otros basado en el sistema CASNET (Glaucoma Diagnostic System), que es adecuado para el desarrollo de sistemas expertos de diagnóstico y clasificación.
2.Composición
El conocimiento del sistema EXPERTO consta de tres partes: supuestos, hechos y reglas de decisión.
3. Tres reglas
1.Reglas FF
Reglas de hecho a hecho
2.Reglas FH
Reglas de los hechos a las hipótesis
3.Reglas de HH
Reglas de hipótesis en hipótesis
4. Proceso de razonamiento
1. Razonamiento de todas las reglas de FF basado en hechos
2. A partir de los hechos existentes, verifique todas las reglas de FH. Si la parte izquierda es verdadera, almacene la hipótesis de la parte derecha en el conjunto PH.
3. Configure DH para que esté vacío
4. Según los hechos existentes, verifique el contexto de todas las reglas de HH.
5. Hacer inferencias a partir de la red de razonamiento formada por hipótesis.
6. Además de seleccionar la hipótesis más creíble según el método anterior, también se establece una función de puntuación.
5.Aplicación
2. Conocimientos generales Lenguaje de expresión OPS5
1.Breve descripción
Un lenguaje universal de expresión del conocimiento desarrollado por J. McDermott, A. Newell y otros en la Universidad Carnegie Mellon de Estados Unidos.
2.Características
La combinación de expresión general y control proporciona el mecanismo básico requerido por los sistemas expertos y no favorece ciertas estrategias de resolución de problemas ni estructuras de expresión del conocimiento.
3.Composición
Base de reglas de producción, motor de inferencia, base de datos.
4.Aplicación
3. Entorno de desarrollo
1.Breve descripción
Puede proporcionar una variedad de componentes convenientes para el desarrollo de sistemas expertos, como herramientas auxiliares para la adquisición de conocimientos, modos de representación del conocimiento adecuados para diversas estructuras de conocimiento, diversos mecanismos de razonamiento incierto, sistemas de gestión de bases de conocimientos, etc.
2.EDAD (intento de generalizar)
Una herramienta típica de desarrollo de combinación de módulos.
3. Formas de construir sistemas expertos a través de AGE
1. Los usuarios utilizan varios componentes existentes de AGE como materiales de construcción para ensamblar y diseñar fácilmente el sistema requerido.
2. Los usuarios definen y diseñan varios componentes necesarios a través de la interfaz de herramientas de AGE para formar su propio sistema experto.
4. Lenguaje de programación
1. Lenguaje de procesamiento de símbolos
0. Lenguajes orientados a la IA o lenguajes de IA
1. Lenguaje PROLOG (propuesto por primera vez por R. Kowalski; desarrollado con éxito por A. Comerauer y su equipo de investigación en 1972): un lenguaje de programación lógico basado en el razonamiento deductivo
2. Lenguaje LISP (desarrollado con éxito por McCarthy y su equipo de investigación en 1960): lenguaje de procesamiento de tablas; muchos de los primeros sistemas expertos (MYCIN, PROSPECTOR) se construyeron utilizando LISP
2. Lenguaje orientado a problemas
Lenguaje C, lenguaje C++
9. Gráfico de conocimiento
1. proponer
1. Propósito
Para mejorar las capacidades del motor de búsqueda, mejorar la calidad de la búsqueda del usuario y mejorar la experiencia de búsqueda del usuario.
2.Definición
1.Definición
También conocido como gráfico de conocimiento científico, utiliza varios gráficos y otras tecnologías de visualización para describir los recursos de conocimiento y sus portadores, y extraer, analizar, construir, dibujar y mostrar el conocimiento y sus interconexiones. Muestra campos de conocimiento complejos a través de la extracción de datos, el procesamiento de información, la medición del conocimiento y la representación de gráficos, y revela las reglas de desarrollo dinámico de los campos de conocimiento.
2. Formulario de representación
Los gráficos de conocimiento describen las relaciones complejas entre conceptos y entidades en el mundo objetivo de una forma estructurada, expresan la información de Internet en una forma más cercana al mundo cognitivo humano y proporcionan una manera de organizar, gestionar y comprender mejor la información masiva en el mundo objetivo. capacidad de internet
3.Esencia
Base de conocimientos, red semántica.
4.Forma
1.RDF proporciona un método de descripción universal de recursos.
2. La base de datos de gráficos se refiere a una base de datos que utiliza gráficos como estructuras de datos para almacenar y consultar datos.
5. Representación basada en símbolos
0. El gráfico de conocimiento es esencialmente una red semántica.
1. Los nodos representan entidades o conceptos.
2. Los bordes representan varias relaciones/atributos semánticos entre entidades/conceptos.
3.Hechos de relación = (cabeza, relación, cola)
6.Representación gráfica
Un gráfico de conocimiento también se puede ver como un gráfico. Los nodos del gráfico representan entidades o conceptos, y los bordes del gráfico están compuestos de atributos o relaciones.
7. Representación universal
0. Los trillizos son una representación universal de los gráficos de conocimiento. Las formas básicas de los triples se dividen principalmente en dos formas.
1. (Entidad 1-Relación-Entidad 2), China-Capital-Beijing
2. (Entidad-Atributo-Valor de Atributo), Beijing-Población-20,69 millones
3. Arquitectura y construcción
1. Arquitectura
1. Estructura lógica
Capa de esquema y capa de datos
2.Arquitectura del sistema
La arquitectura del sistema es la estructura del modelo de construcción. La parte en el cuadro de puntos es el proceso de construcción del gráfico de conocimiento y también incluye el proceso de actualización del gráfico de conocimiento. Los objetos de recursos para adquirir conocimiento se pueden dividir a grandes rasgos en tres categorías: estructurados, semiestructurados y no estructurados.
Diagrama de arquitectura
2.Construir
Creado automáticamente en base a la extracción de información, la edición y creación colaborativa masiva y la creación manual de expertos.
4. Extracción de conocimientos
0.Breve descripción
1. La extracción de conocimiento consiste en extraer conocimiento de datos de diferentes fuentes y diferentes estructuras para formar conocimiento (datos estructurados) y almacenarlo en el gráfico de conocimiento.
2. Orientado principalmente a datos abiertos vinculados, las entradas típicas son texto o imágenes en lenguaje natural o documentos de contenido multimedia de vídeo, etc. Luego extraiga las unidades de conocimiento disponibles mediante tecnología automatizada o semiautomática.
3. La unidad de conocimiento incluye principalmente tres elementos de conocimiento: entidad (extensión del concepto), relación y atributo.
1. Extracción de entidades
También conocido como aprendizaje de entidades/reconocimiento de entidades nombradas, sirve para identificar automáticamente entidades nombradas del corpus de datos original.
2. Extracción de clases semánticas
La extracción de clases semánticas se refiere a la extracción automática de información del texto para construir clases semánticas y establecer la asociación entre entidades y clases semánticas, como una regularización y abstracción a nivel de entidad.
3. Extracción de atributos y valores de atributos.
La tarea de la extracción de atributos es construir una lista de atributos para cada clase semántica de ontología. Los valores de atributos se extraen como valores de atributos adicionales para entidades de una clase semántica Los dos pueden formar una dimensión de gráfico de conocimiento completa de conceptos de entidad.
4.Extracción de relaciones
El objetivo es resolver el problema de la vinculación semántica de entidades. La información básica de la relación incluye el tipo de parámetros. patrón de tupla que satisface esta relación, etc.
5.Aplicaciones típicas
13. Aprendizaje automático
1.Desarrollo
1. Por qué estudiar
1. Problema de clasificación de imágenes: el conjunto de datos ILSVRC-2010 tiene más de 1000 categorías, que el ojo humano no puede reconocer completamente. ¿Puedes encontrar una función F para clasificar imágenes con precisión?
2. Problema de reconocimiento facial: cómo identificar con precisión a la misma persona en diferentes entornos de imágenes
3. Problema de detección de objetivos: detecta la posición y el tamaño de diferentes objetivos en la imagen
4. Problema de análisis del valor del cliente de las aerolíneas: cómo clasificar a los clientes por valor
2. ¿Qué es el aprendizaje automático?
1. El aprendizaje automático es una ciencia de la inteligencia artificial. El principal objeto de investigación en este campo es la inteligencia artificial, especialmente cómo mejorar el rendimiento de algoritmos específicos en el aprendizaje empírico.
2. El aprendizaje automático es el estudio de algoritmos informáticos que pueden mejorar automáticamente a través de la experiencia.
3. El aprendizaje automático utiliza datos o experiencias pasadas para optimizar los estándares de rendimiento de los programas informáticos.
El aprendizaje automático se basa en datos y experiencia para construir modelos matemáticos para problemas específicos con el fin de lograr un análisis preciso de los datos existentes o una clasificación, identificación y predicción precisas de datos futuros.
3. La relación entre los tres
1. Inteligencia artificial IA
Búsqueda, planificación, sistemas expertos, juegos inteligentes, teoría de juegos, robots, aprendizaje automático, etc.
2. Aprendizaje automático ML
El aprendizaje supervisado, el aprendizaje no supervisado, las teorías y algoritmos de aprendizaje son todos importantes.
3. Relaciones públicas de reconocimiento de patrones
Aprendizaje supervisado, centrado en la aplicación de algoritmos.
4. Proceso de desarrollo
1. Perceptrón lineal 1958
Resuelve una serie de problemas de clasificación, pero no puede resolver el problema XOR.
2. Máquina de vectores de soporte 1995
En el caso de muestras pequeñas se pueden obtener mejores resultados
3. Aprendizaje profundo desde 2012 hasta la actualidad
5. División de dominio
1. Dividir por tareas
Clasificación, regresión (ajuste lineal, ajuste no lineal), agrupación
2. Dividido por la capacidad de aprendizaje
Aprendizaje supervisado, aprendizaje no supervisado, aprendizaje semisupervisado, aprendizaje por refuerzo
2.Método
1. Aprendizaje supervisado
1. Regresión logística
1.Definición
Para cada muestra de entrenamiento, se puede encontrar su etiqueta correcta.
2. Ingrese x
imagen, vídeo, audio
3. Salida y
Categoría, ubicación y tamaño, profundidad.
4. Dos problemas de clasificación
5. Experimente la selección de riesgos
1. Error cuadrado (verde)
Resultando en sanciones por clasificación excesivamente correcta
Error 2.0-1 (negro)
La función objetivo es difícil de optimizar.
3. Riesgo empírico de regresión logística (rojo)
6. Experimentar riesgo Significado probabilístico
1. Definir la PDF de la clase positiva. (Función de densidad de probabilidad)
2. Definir PDF de clase negativa
3. PDF de todas las clases
7. Función de riesgo empírico general
plazo de regularización
Limite la complejidad del modelo de aprendizaje; de lo contrario, ocurrirá la situación más a la derecha: sobreajuste La función de clasificación se volverá muy compleja y funcionará bien en las muestras de entrenamiento y muy mal en las muestras de prueba. A través del término de regularización, esperamos obtener la apariencia de la imagen B.
8.Algoritmo de descenso de gradiente
1. Cuestiones de formación
2.Gradiente
2.Regresión logística de clasificación múltiple
1. Resuelve múltiples tipos de problemas
0.Múltiples categorías:
1. Para k problemas de clase, entrene k uno frente al resto de clasificadores (dos problemas de clasificación) Juicio integral de los resultados de k clasificadores.
2. Entrene directamente un clasificador de regresión logística multiclase
2. PDF del problema de clasificación múltiple
3. Función de costo en la muestra i
3. Bosque aleatorio
1. Confusión de etiquetas
1. Supongamos que hay un conjunto de etiquetas.
2. La confusión de etiquetas (incertidumbre) se define como
3. La pureza de la etiqueta es 0,5, la más mezclada es 1, y cuando hay una probabilidad de 0 o 1, la más pura es 0
2. Ganancia de información
1. Utilice una determinada regla para dividir un conjunto de datos S en varios subconjuntos, ¿Cómo medir la calidad de esta división?
2. En el proceso de aprendizaje, cada división (al seleccionar una determinada característica) se basa en maximizar la ganancia de información.
3. Árbol de decisión
4. Bosque aleatorio
1. Defectos de los árboles de decisión
Fácil de sobreadaptar (muestras de entrenamiento sobreadaptadas)
2.Solución
1.Embolsado de árboles: repita el muestreo aleatorio de muestras de entrenamiento varias veces y entrene un árbol de decisión para cada muestreo. El resultado de la predicción es igual a que todos los árboles voten por diferentes etiquetas.
2. Embolsado de características: al entrenar un árbol de decisión, cada división se basa en un conjunto de características aleatorias (eliminando los problemas de asociación del árbol de decisión causados por características sólidas)
4. Comparación de rendimiento
Falta de pruebas rigurosas, sólo resultados empíricos
5. Regresión lineal
1. Hay datos sobre el precio de la casa existente D y una casa nueva. ¿A cuánto asciende el valor de esta casa?
2. Supongamos que los precios de la vivienda están definidos por una función lineal.
3.
2. Aprendizaje semisupervisado
0.Breve descripción
1. Datos de entrenamiento
2. Objetivos de aprendizaje semisupervisados
Entrene un clasificador mejor (en comparación con usar solo datos etiquetados)
3. ¿Por qué utilizar muestras sin etiquetar?
La anotación de datos requiere contratar profesionales y la anotación de datos requiere equipo profesional.
4. Por qué los datos sin etiquetar pueden ser buenos para el aprendizaje
Suponiendo que cada tipo de datos forma un grupo relacionado (por ejemplo, obedece a una distribución gaussiana), se pueden aprender mejores límites de decisión utilizando datos sin etiquetar.
1. Algoritmo de autoformación
3. Aprendizaje no supervisado
1.k-significa agrupación
1. Definición de agrupación
2. Idea central
Los puntos similares se agrupan en una categoría.
3. Función objetivo
4.Ejemplos
5. Búsqueda y solución alternativas
1. Objetivo 1: dado el punto central, encontrar la clase a la que pertenece cada punto de datos
2. Objetivo 2: dada la categoría del punto de datos, encontrar el punto central
4. Aprendizaje por refuerzo
1. Matriz de recompensas
2. Algoritmo de aprendizaje Q
1. Conozca la matriz de conocimiento Q (calidad) del mismo orden que R. Suponga que se conoce el número de estados e inicialice Q para que sea una matriz totalmente cero.
Comparación de modelos
3. Tecnología
1. Optimización de parámetros
2. Aumento de datos
0. ¿Cómo ampliar los datos de entrenamiento sin agregar anotaciones?
1. Aumento de datos
2. Para datos de imagen/video: rotación, escala, recorte, volteo, transformación de color aleatoria, GAN
3.Evaluación del desempeño
1.Evaluación cuantitativa
1. Precisión (clasificación)
2. Matriz de confusión
3. Precisión y recuperación (recuperación)
2. Evaluación cualitativa
Visualización de resultados experimentales.
14.Sistema de agentes
1. Concepto
1.Definición
1. Un agente inteligente es un programa o entidad informática que está incrustado en un entorno determinado y tiene la capacidad de actuar de forma autónoma.
2. Puede detectar el entorno a través de sensores e influir en el entorno a través de efectores para lograr objetivos de diseño determinados.
2.Características
1. Autonomía
Capaz de funcionar sin intervención directa de humanos u otros agentes.
2.Reactividad
Los agentes inteligentes pueden responder a los cambios en el entorno de manera oportuna
3. Iniciativa
El cuerpo inteligente tomará la iniciativa para completar sus propios objetivos de diseño y mostrará un comportamiento espontáneo impulsado por los objetivos.
4. Socialidad
Diferentes agentes tienen la capacidad de comunicarse y comunicarse, pueden colaborar para completar tareas y pueden negociar y resolver problemas cuando encuentran conflictos.
2. Estructura
1. Arquitectura
La estructura de trabajo interna de un agente define todo el proceso, desde la percepción de información ambiental hasta la toma de decisiones de comportamiento y, finalmente, la ejecución de acciones externas.
2.Programa de agente
Funciones que realizan operaciones reales bajo la arquitectura del agente, Agente = programa de arquitectura
3. Arquitecturas comunes
Arquitectura reactiva, arquitectura deliberativa y arquitectura compuesta.
4. Arquitectura reactiva
1.Breve descripción
1. Elija acciones basadas en la información percibida actual, independientemente de la información histórica.
2. Utilice reglas si-entonces para mapear el estado actual del entorno y sus propias acciones.
3. El agente utiliza directamente información sensorial para el mapeo, sin la necesidad de construir un modelo ambiental internamente a través de símbolos, lo que acelera la velocidad de ejecución de los agentes reactivos.
2. Estructura
1. Modelo de comportamiento: máquina de estados finitos (máquina de estados finitos)
2. Selección de acción: mapeo del estado a la acción (sin representación simbólica compleja)
3. Puede haber múltiples comportamientos que satisfagan las reglas de selección de acciones al mismo tiempo.
4. Estructura jerárquica: las reglas de nivel inferior tienen mayor prioridad
3.Ejemplos
1.Condiciones
1. El rover de Marte recolecta muestras de rocas en Marte y las transporta de regreso a la base
2. Se desconoce la ubicación de la roca.
3. El detector puede recibir señales de radio desde la base.
2. Proceso
1. Si encuentra obstáculos, cambie de dirección.
2. Si estás en la base y llevas muestras, déjalas caer.
3. Si lleva una muestra y no está en la base, muévase en la dirección donde se fortalece la señal de radio.
4. Si se detecta una muestra, recoja la muestra.
5. Movimiento aleatorio (si es verdadero)
4.Ventajas
Comentarios simples, elegantes y oportunos del entorno.
5. Desventajas
1. Al no existir un modelo ambiental, no se puede considerar la información histórica y no se puede predecir el comportamiento de otros agentes.
2. Es muy difícil de diseñar (debe obtenerse mediante experimentos continuos) y no existe un método estándar.
3.La depuración es muy difícil
4. Cuando un agente tiene una gran cantidad de reglas, el diseño y la implementación son muy difíciles (por ejemplo, prioridad e interacción entre reglas)
5. Dificultad para comunicarse con los demás, no toda la información se procesa simbólicamente
5. Arquitectura deliberativa
1.Breve descripción
1. El agente construye internamente un modelo mundial completo.
2. Tomar decisiones sobre el comportamiento del agente mediante planificación o razonamiento lógico.
3. Agente de razonamiento práctico
2. Razonamiento teórico
Razonar contra conocimientos/creencias (obtener nuevos conocimientos)
3. Razonamiento práctico
0. Razonamiento para la acción, que consta de dos pasos principales.
1. Deliberación: decidir qué hacer, la intención del agente
2. Razonamiento de medios-fines: decidir qué hacer y cómo realizar la intención del agente (generar un plan para realizar la intención)
4.Características
1. Si el agente acepta una intención, elegirá un método para implementarla.
2. Una vez aceptada una intención, el agente sólo renunciará a ella cuando ésta se realice, se considere inalcanzable o se reconsidere.
3. El agente no optará por aceptar intenciones que entren en conflicto con sus intenciones actuales.
4.El agente cree que puede completar sus propias intenciones.
5.Modelo BDI
1. Creencias
comprensión del mundo
2.Deseos/meta
Una combinación de estados mundiales deseados
3.Intenciones
Un deseo que se promete y se está cumpliendo
4. Revisión de creencias (beliefrevision)
Actualizar el conjunto de creencias actual según la información sensorial.
5. Generación de objetivos
Generar nuevas metas basadas en creencias e intenciones actuales.
6. Función de selección de objetivos
Elige una meta a alcanzar
7. Función de planificación
Generar o seleccionar un plan para lograr objetivos.
8. Función de selección de intención
Seleccione una intención para ejecutar a continuación y las acciones dentro de esa intención
6.Ventajas
Al construir su propio modelo ambiental para predecir el comportamiento de otros agentes, puede predecir comportamientos históricos y utilizar comportamientos históricos para tomar decisiones de comportamiento.
7. Desventajas
Construir un modelo de entorno dentro de un agente a través de información ambiental requiere una sobrecarga adicional, y el proceso de toma de decisiones y razonamiento lógico consumirá más tiempo en comparación con un proceso de mapeo en una arquitectura reactiva.
6. Arquitectura compuesta
1.Breve descripción
1. Contiene partes de reacción y deliberación.
2. La parte de reacción puede responder a cambios en el mundo (medio ambiente) sin razonamientos complejos.
3. La parte de deliberación puede utilizar sistemas simbólicos para razonar sobre el comportamiento del agente.
4. Utilice a menudo estructuras en capas.
5. Cuestión clave: cómo manejar y controlar las relaciones e interacciones entre subsistemas.
2. Estructura en capas horizontales
1. Cada capa está conectada directamente a sensores y efectores.
2. Cada capa es equivalente a un subcomponente, que generará diferentes sugerencias de selección de acciones y eventualmente devolverá una de las acciones "adecuadas".
3. Ventajas: Sencillo e intuitivo
4. Desventajas: alta complejidad de selección y diseño difícil
3. Jerarquía vertical
1. Sólo una capa está conectada directamente al sensor/efector
2. Control de un solo paso: cada capa de componentes procesa la información de entrada y los resultados, y pasa los resultados del procesamiento a la siguiente capa. Las capas conectadas al sensor y al efector son dos capas diferentes.
3. Control de dos pasos: la información se transmite capa por capa desde el sensor hasta la última capa, y luego los resultados se procesan desde la última capa y la salida se transmite a la inversa al efector, que está conectado al sensor y el efector.
4. Problema: el procesamiento de información debe pasar por cada capa. Cuando ocurre un problema en una determinada capa, el programa no se puede ejecutar.
4.InterRaP
1. Capas verticales, doble control.
2. Capa conductual
Gestione el comportamiento reactivo del agente. Si se puede procesar, se devolverá directamente. Si no se puede procesar, se transmitirá a la capa de planificación.
3. Capa de planificación
Proporciona al agente la capacidad de generar y seleccionar planes. Si puede procesarlo, será devuelto a la capa de comportamiento. Si no puede, se transmitirá a la capa de interacción.
4.Capa de interacción
Determinar la estrategia para la interacción y colaboración de los agentes.
contenido de la memoria
1. Razonamiento determinista
1. Razonamiento deductivo natural
2. Reglas de inferencia
Regla 0.P (introducción de la premisa), regla T (introducción a la conclusión), razonamiento hipotético, razonamiento de rechazo
1. Razonamiento hipotético
2. Razonamiento rechazativo
2. Razonamiento deductivo reductivo
0. Prueba por contradicción
4. Fórmula de predicado conjunto de cláusulas
0.Preguntas de ejemplo
1. Elimina los símbolos "→" y "↔" en la fórmula del predicado.
1.
2. Mueva el símbolo de negación ¬ a la posición al lado del predicado.
1.
3. Estandarización de variables
1.
4. Eliminar los cuantificadores existenciales
1. Los cuantificadores existenciales no aparecen en el alcance de los cuantificadores universales: basta con utilizar cualquier individuo a, b, c.
2. El cuantificador existencial aparece en un o Dentro del alcance de múltiples cuantificadores universales
Todas las variables son x y todas están bajo el mismo cuantificador universal.
5. Transfórmate en forma de convergencia
0. Forma de prefijo = (prefijo) {forma madre}, (prefijo): cadena cuantificadora universal, {forma madre}: fórmula de predicado sin componente
1. Simplemente coloque todos los cuantificadores universales al frente.
6. Convertir al formulario estándar de Skolem
1.
7. Omitir el cuantificador universal.
8. Elimina las conjunciones
1. Cambiar a la forma de un conjunto, dos cláusulas y la relación conjuntiva predeterminada entre las cláusulas.
9. Estandarización de variables de cláusula
1. Diferentes cláusulas utilizan diferentes variables.
ejemplo
3. Principio de reducción de Robinson
1. Definición resumida
Supongamos que C1 y C2 son dos cláusulas cualesquiera en el conjunto de cláusulas. Si el texto L1 en C1 y el texto L2 en C2 son complementarios, elimine L1 y L2 de C1 y C2 respectivamente y analice las partes restantes de las dos cláusulas. , formar una nueva cláusula C12.
1.
4. Inversión reductiva
(1) Exprese la premisa conocida como una fórmula de predicado F. (2) Expresar la conclusión a demostrar como una fórmula de predicado Q y negarla para obtener ﹁Q. (3) Convierta el conjunto de fórmulas de predicados {F,¬Q} en un conjunto de cláusulas S. (4) Aplicar el principio de reducción para resumir las cláusulas del conjunto de cláusulas S e incorporar las fórmulas de reducción obtenidas de cada reducción en S. Repita este proceso repetidamente. Si aparece una cláusula vacía, la reducción se detendrá. En este momento, se demuestra que Q es verdadero.
5. Resolver problemas mediante reducción e inversión.
2. Razonamiento de incertidumbre
1. Algoritmo de transferencia de incertidumbre
2.CF(H)=CF(H,E)×máx{0,CF(E)}
Cuando CF(E)<0, entonces CF(H)=0 Cuando CF(E)=1, entonces CF(H)=CF(H,E)
2. Síntesis de la incertidumbre en conclusión
2. Encuentre la credibilidad CF12(H) formada por el impacto combinado de E1 y E2 en H
3.Teoría de la evidencia
1. Función de confianza
1.
4. Función de probabilidad
1. También conocida como función irrefutable o función de límite superior
2.
3. La posibilidad de que la función de confianza sea verdadera y la posibilidad de que la función de probabilidad no sea falsa
3.Teoría de la evidencia
1. Suma ortogonal de funciones de distribución de probabilidad. (combinación de evidencia)
1.Definición
4. Estrategias de búsqueda y resolución
1.Un diagrama de flujo del algoritmo de búsqueda.
5. Algoritmo de inteligencia de enjambre
1. Optimización del enjambre de partículas
5. Cuatro tipos de modelos PSO
1. Si ψ1>0, ψ2>0, entonces el algoritmo se llama modelo completo PSO
2. Si ψ1>0, ψ2=0, entonces el algoritmo se llama modelo cognitivo PSO.
3. Si ψ1=0, ψ2>0, entonces el algoritmo se llama modelo social PSO.
4. Si ψ1=0, ψ2>0 y g≠i, entonces el algoritmo se llama modelo desinteresado PSO.
tema
algoritmo de aprendizaje automático
Comparar
1.LDA y PCA
1. Similitudes
1. Ambos pueden reducir la dimensionalidad de los datos.
2. Ambos utilizan la idea de descomposición propia de matrices al reducir dimensiones.
3. Ambos suponen que los datos siguen una distribución gaussiana.
2. Diferencias
1.LDA es un método de reducción de dimensionalidad supervisado, mientras que PCA es un método de reducción de dimensionalidad no supervisado.
2.LDA puede reducir la dimensionalidad a un máximo de categorías k-1, mientras que PCA no tiene esta limitación.
3. Además de usarse para la reducción de dimensionalidad, LDA también se puede usar para clasificación.
4.LDA selecciona la dirección de proyección con el mejor rendimiento de clasificación, mientras que PCA selecciona la dirección con la mayor variación en la proyección del punto de muestra.
3.Ventajas de LDA
1. El algoritmo LDA se puede utilizar tanto para la reducción de dimensionalidad como para la clasificación, pero actualmente se utiliza principalmente para la reducción de dimensionalidad.
2. La experiencia del conocimiento previo de la clase se puede utilizar en el proceso de reducción de dimensionalidad, pero el aprendizaje no supervisado como PCA no puede utilizar el conocimiento previo de la clase.
3.LDA es mejor que algoritmos como PCA cuando la información de clasificación de la muestra se basa en la media en lugar de la varianza.
4.Desventajas de LDA
1.LDA no es adecuado para la reducción de dimensionalidad de muestras distribuidas no gaussianas. PCA también tiene este problema.
2. LDA puede reducir la dimensión a un máximo de categorías k-1. Si la dimensión que reducimos es mayor que k-1, no se puede utilizar LDA.
3.LDA tiene un efecto deficiente de reducción de dimensionalidad cuando la información de clasificación de la muestra se basa en la varianza en lugar de la media.
4. LDA puede sobreajustar los datos
2.LPP y PCA
1. PCA es un algoritmo de reducción de dimensionalidad global, principalmente para encontrar la divergencia máxima de la covarianza de los datos.
2.LPP es un algoritmo de reducción de dimensionalidad local, que busca principalmente el cambio mínimo en la varianza del vecino más cercano de los datos.
3. Ambos son algoritmos de reducción de dimensionalidad no supervisados y ambos son algoritmos muy utilizados en el campo actual de la inteligencia artificial.
0.Puntos de conocimiento
1. No supervisado y supervisado
1. No supervisado: El dato objeto a tratar no tiene ningún conocimiento previo
agrupamiento
2. Supervisado: existe un conjunto de datos de entrenamiento con conocimientos previos.
Clasificación
1.k_means significa agrupación
0.Definición de agrupación
Según el principio de similitud, los objetos de datos con mayor similitud se dividen en el mismo grupo. Divida los objetos de datos con baja disimilitud en diferentes grupos.
1.Características
1. Proceso no supervisado
2. Función objetivo
Reino Unido es el centro del conglomerado y xi es el punto de muestra.
El centro de agrupación es el valor promedio de cada punto de datos en la categoría correspondiente. Al mismo tiempo, para que el algoritmo converja, Durante el proceso de iteración, el centro del clúster final debe mantenerse lo más inalterado posible
3. Proceso algorítmico
0.K-means es un proceso iterativo y el algoritmo se divide en cuatro pasos
1. Seleccione K objetos en el espacio de datos como centro inicial, cada objeto representa un centro de agrupación
2. Para los objetos de datos de la muestra, según su distancia euclidiana a estos centros de conglomerados, se dividen en las clases correspondientes a los centros de conglomerados más cercanos a ellos (los más similares) según el criterio de distancia más cercana.
3. Actualice el centro del grupo: utilice el valor medio correspondiente a todos los objetos en cada categoría como el centro del grupo de esa categoría y calcule el valor de la función objetivo.
4. Determine si los valores del centro del grupo y la función objetivo han cambiado. Si no cambian, genere el resultado. Si cambian, devuelva 2.
4. Ventajas y desventajas
1.Ventajas
1.El algoritmo KMeans es bueno para procesar datos distribuidos esféricamente
2. Sencillo y fácil de dominar
2. Desventajas
1. El valor de k debe basarse en la experiencia y no tiene referencia.
2. Muy sensible a datos anormalmente desviados.
5.Atención
1. Existe una prueba matemática de que K-Means definitivamente convergerá.
2. Análisis de componentes principales PCA (reducción de dimensionalidad)
Análisis de componentes principales
0.Tres situaciones de restricción
1. Sin restricciones
2. Restricciones de igualdad
Método multiplicador de Langrange
3. Restricciones de la desigualdad
KKT
1. Principio de funcionamiento
1. La primera selección de nuevo eje es la dirección con la mayor variación en los datos originales.
2. Se selecciona el segundo nuevo eje de coordenadas para maximizar la varianza en el plano ortogonal al primer eje de coordenadas.
3. El tercer eje tiene la mayor variación en el plano ortogonal al primer y segundo eje.
4. Conserve únicamente las características dimensionales que contienen la mayor parte de la variación e ignore las dimensiones de las características que contienen casi 0 variación. Implementar el procesamiento de reducción de dimensionalidad de las características de datos.
2.Teoría de la varianza máxima
1. En el procesamiento de señales, se considera que la señal tiene una gran variación y el ruido tiene una pequeña variación. La relación señal-ruido es la relación de variación de la señal al ruido. Cuanto mayor, mejor.
2. La mejor característica de k dimensiones es que después de convertir puntos de muestra de n dimensiones en puntos de k dimensiones, la varianza de la muestra en cada dimensión es muy grande.
3. Algunos conceptos
1. Media muestral
2. Variación de la muestra
3. Covarianza de la muestra X y la muestra Y
4.Conjunto de datos
5. Matriz de divergencia
Nota
La matriz de divergencia es la matriz de covarianza multiplicada por (volumen total de datos - 1), y sus valores propios y vectores propios son los mismos.
4. Proceso de razonamiento
1. Resuelva una matriz de proyección tal que:
2. Función objetivo de PCA
3.Construir la función lagrangiana
4. Conclusión
1.λ es el valor propio correspondiente al vector propio w. Un conjunto de vectores propios de una matriz es un conjunto de vectores ortogonales.
2. Ordene los valores propios de mayor a menor y seleccione los k más grandes.
3. Utilice los k vectores propios correspondientes como vectores de fila (columna) para formar una matriz de vectores propios.
5. Proceso algorítmico
1. Organice los datos originales en una matriz X con n filas ym columnas.
2. Haga una media cero en cada fila de X (que representa una muestra), es decir, reste la media de esta fila.
3. Encuentra la matriz de covarianza.
4. Encuentre los valores propios y los vectores propios correspondientes de la matriz de covarianza.
5. Organice los vectores propios en una matriz por filas de arriba a abajo de acuerdo con el tamaño de los valores propios correspondientes, y tome las primeras k filas para formar la matriz W.
6. Convierta los datos en un nuevo espacio construido mediante vectores de características.
2.1 Análisis discriminante lineal LDA
Lineal Análisis discriminante
1. Pensamientos
Proyecte muestras de patrones de alta dimensión en el espacio vectorial de discriminación óptimo para lograr el efecto de extraer información de clasificación y comprimir la dimensionalidad del espacio de características. Después de la proyección, se garantiza que las muestras de patrones tendrán la distancia máxima entre clases y la distancia mínima entre clases. distancia de clase en el nuevo subespacio, es decir, el patrón tiene la mejor separabilidad en este espacio.
2. Pasos clave
Elija la dirección de proyección adecuada, es decir, establezca una función discriminante lineal adecuada
3.Características
1. Tecnología de reducción de dimensionalidad para aprendizaje supervisado.
2. Cada muestra de su conjunto de datos tiene una salida de categoría.
3. Después de la proyección, la varianza intraclase es la más pequeña y la varianza entre clases es la mayor.
4. Implementación
1. Para acercar los puntos de proyección de muestras similares lo más posible, puede hacer que la matriz de covarianza de puntos de muestra similares sea lo más pequeña posible.
2. Si desea mantener los puntos de proyección de muestras heterogéneas lo más lejos posible, puede hacer que la distancia entre los centros de clases sea lo más grande posible.
3. La covarianza no solo refleja la correlación entre variables, sino que también refleja el grado de discreción de la distribución de la muestra multidimensional. (Las muestras unidimensionales utilizan varianza). Cuanto mayor es la covarianza, más dispersa es la distribución de los datos.
5. Matriz de divergencia entre clases Sb
1. Para garantizar que las muestras entre clases estén lo más separadas posible después de la proyección, debemos elegir la dirección representada por el vector propio con el valor propio más grande para la proyección.
2. Después de la proyección de diferentes tipos de muestras, las variaciones deben ser lo más grandes y lo más alejadas posible.
6. Matriz de divergencia intraclase Sw
1. Para garantizar que las muestras dentro de la clase estén lo más cerca posible después de la proyección, debemos elegir la dirección representada por el vector propio con el valor propio más pequeño para la proyección.
2. Después de la proyección de muestras similares, la varianza debe ser lo más pequeña y cercana posible.
7. Función objetivo
8. Tres tipos de matrices
1.Matriz de dispersión total
2. Matriz de divergencia intraclase
3. Matriz de divergencia entre clases
9. Pasos del algoritmo
1. Calcule la matriz de divergencia intraclase Sw
2. Calcule la matriz de divergencia entre clases Sb
3. Calcular matriz
4. Calcule los vectores propios (w1, w2,...,wd) correspondientes a los valores propios d más grandes de la matriz para obtener la matriz de proyección.
5. Proyecte cada muestra en el conjunto de datos.
2.2 Proyección de preservación local de la LPP
Proyecciones que preservan la localidad
0.Características
1. Cuando se minimiza la función objetivo, el efecto de reducción de dimensionalidad es el mejor.
1. Propósito
Al tiempo que reduce la dimensión espacial, puede mantener mejor la estructura local fija interna. Y es insensible a los valores enajenados (normalmente entendidos como puntos erróneos, o manchas)
2.Función de pérdida
1.yi representa cualquier punto de datos i después de la reducción de dimensionalidad.
2.yj representa cualquier punto de datos después de la reducción de dimensionalidad que no incluye i
3. El cuadrado representa la distancia euclidiana de dos puntos cualesquiera, que es la relación de distancia entre dos puntos de datos cualesquiera.
4.Wij representa una matriz compuesta por coeficientes de peso de distancia entre ij en el espacio original.
3.El proceso de construcción de Wij
1. Si los puntos de datos i y j son k vecinos más cercanos, Si el punto de datos i es el vecino más cercano de j, o el punto de datos j es el vecino más cercano de i
Cuanto más cerca está, más grande es Wij.
2. No tiene la forma de k vecino más cercano, entonces Wij es igual a 0
4.Derivación de fórmulas
1.Dii = suma de wij de la i-ésima fila, Djj es la suma de Wij de la j-ésima columna
2.Construir la matriz laplaciana L=D-W
5. Función objetivo
Convertido a
6. Resolver
Ordene los valores propios de pequeño a grande, seleccione la matriz A compuesta por vectores propios con los primeros d valores propios más pequeños y finalmente obtenga
2.3 Incrustación lineal local LLE
Incrustación localmente lineal
1.Características
3.Factorización matricial no negativa de NMF
Factorización de matrices no negativas
1. Pensamientos
Para cualquier matriz V no negativa dada, el algoritmo NMF puede encontrar una matriz W no negativa y una matriz H no negativa, Satisface la descomposición de una matriz no negativa en el producto de dos matrices no negativas izquierda y derecha.
2.Función de pérdida
3. Pasos del algoritmo
1. Generar aleatoriamente matrices W y H
2. Resuelve H según la segunda fórmula.
3. Resuelva para W según la primera fórmula.
4. Repita (2) y (3) hasta que la función de pérdida permanezca sin cambios o cambie muy poco.
Breve introducción a Baidu
0.Instancia
1. Algoritmo AlphaGo
1. Exhaustivo
Calcular todas las posiciones posibles. Hay demasiadas posiciones posibles en Go. Calcular todas las posiciones parece inapropiado y extremadamente difícil.
2. Función de evaluación
1. La computadora puede determinar automáticamente los pros y los contras de la situación.
2. Utilice una función para calcular la puntuación de cada situación, calcule todos los siguientes pasos posibles para una situación y tome el paso con la puntuación calculada más alta.
3. Aprendizaje automático
1. La función de evaluación utilizada por AlphaGo es solo un marco y no tiene valores de parámetros específicos.
2. Deje que Alpha Dog observe los registros de juego de ajedrez humanos y forme sus propios parámetros.
3. Al observar los registros de ajedrez humanos, se genera una función de evaluación, denominada red estratégica en el algoritmo.
4. Google desarrolló dos perros Alpha, les permitió jugar ajedrez entre sí, guardó los resultados del juego y los combinó en la función de evaluación existente; esto se llama red de aprendizaje en el algoritmo.
4. Algoritmo del árbol de búsqueda de Monte Carlo
Determine la dirección del siguiente movimiento y realice un movimiento aleatorio en una posición donde la puntuación estimada sea aproximadamente la misma.
1.Definición
1. La investigación sobre inteligencia artificial a menudo implica el estudio de la propia inteligencia humana. Otras inteligencias relacionadas con animales u otros sistemas artificiales también se consideran generalmente temas de investigación relacionados con la inteligencia artificial.
2. “La inteligencia artificial es el estudio de cómo hacer que las computadoras realicen un trabajo inteligente que solo los humanos podían hacer en el pasado”.
3. La inteligencia artificial es el estudio de las leyes de las actividades inteligentes humanas, la construcción de sistemas artificiales con cierta inteligencia y el estudio de cómo permitir que las computadoras completen tareas que antes requerían inteligencia humana.
4. Estudiar las teorías, métodos y tecnologías básicas sobre cómo aplicar software y hardware informático para simular determinados comportamientos humanos inteligentes.
5. La relación entre la inteligencia artificial y la ciencia del pensamiento es la de la práctica y la teoría. La inteligencia artificial se encuentra en el nivel de aplicación técnica de la ciencia del pensamiento.
2. Valor
1. Aprendizaje continuo
1. La base matemática del "aprendizaje automático" son la "estadística", la "teoría de la información" y la "cibernética".
2. Este tipo de "aprendizaje automático" depende en gran medida de la "experiencia". Las computadoras necesitan adquirir conocimientos y aprender estrategias continuamente a partir de la experiencia de resolver un tipo de problema.
2. Saltar aprendiendo
1. Además de aprender de la experiencia, los humanos también pueden crear, es decir, "aprender por saltos" (inspiración/epifanía)
2. Lo más difícil de aprender para las computadoras siempre ha sido la "epifanía"
3. Es difícil para las computadoras aprender "cambios cualitativos que no dependen de cambios cuantitativos" en términos de aprendizaje y "práctica". Es difícil pasar de una "calidad" directamente a otra "calidad", o de una "calidad". concepto" directamente a otro "concepto" "
3.Investigación técnica
1. Métodos de investigación
0. Hoy en día no existe un principio o paradigma unificado que oriente la investigación en inteligencia artificial.
1. Simulación cerebral
1. Explorar las conexiones entre neurología, teoría de la información y cibernética.
2. También se creó cierta inteligencia preliminar utilizando estructuras de redes electrónicas.
3. En la década de 1960, la mayoría de la gente había abandonado este método, aunque los principios se propusieron nuevamente en la década de 1980.
2. Procesamiento de símbolos
1. Con el exitoso desarrollo de las computadoras digitales, los investigadores comenzaron a explorar si la inteligencia humana puede reducirse al procesamiento de símbolos.
2. Llame a estos métodos GOFAI (Inteligencia artificial tradicional). Los métodos simbólicos tienen grandes logros en la simulación del pensamiento de alto nivel en programas de prueba pequeños.
3. Los investigadores de los años 1960 y 1970 estaban convencidos de que los métodos simbólicos podrían llegar a crear máquinas con una potente inteligencia artificial, y ese era también su objetivo.
4. Los economistas de simulación cognitiva Herbert Simon y Allen Newell estudiaron las habilidades humanas para resolver problemas y trataron de formalizarlas. Su equipo de investigación utilizó los resultados de experimentos psicológicos para desarrollar programas que simulan métodos humanos de resolución de problemas.
5. Basándose en el conocimiento, alrededor de 1970 aparecieron las computadoras con memoria de gran capacidad, y los investigadores comenzaron a convertir el conocimiento en software de aplicación utilizando tres métodos. Esta "revolución del conocimiento" condujo al desarrollo y planificación de sistemas expertos, la primera forma exitosa de software de inteligencia artificial. La "revolución del conocimiento" también hizo que la gente se diera cuenta de que muchos software de inteligencia artificial simples pueden requerir mucho conocimiento.
3. Método del subsímbolo
1. La inteligencia artificial simbólica se estancó en la década de 1980. Mucha gente creía que los sistemas simbólicos nunca podrían imitar todos los procesos cognitivos humanos, especialmente la percepción. Muchos investigadores comenzaron a centrarse en métodos subsimbólicos para resolver problemas específicos de la inteligencia artificial.
2. Negar la inteligencia artificial simbólica y centrarse en problemas básicos de ingeniería como el movimiento y la supervivencia de los robots. Su trabajo revisa las ideas de los primeros investigadores cibernéticos y propone el uso de la teoría del control en la inteligencia artificial.
3. Esto es consistente con el argumento de la percepción representacional en la ciencia cognitiva: una inteligencia superior requiere representaciones individuales (como movimiento, percepción e imágenes).
4. En la década de 1980, la inteligencia computacional propuso nuevamente las redes neuronales y el conexionismo. Este y otros métodos subsimbólicos, como el control difuso y la computación evolutiva, pertenecen todos al ámbito de investigación de las disciplinas de la inteligencia computacional.
4. Método estadístico
1. En la década de 1990, la investigación en inteligencia artificial desarrolló herramientas matemáticas complejas para resolver problemas de ramas específicas.
2. Estas herramientas son verdaderos métodos científicos, es decir, los resultados de estos métodos son medibles y verificables, y también son la razón del éxito de la inteligencia artificial. Estos avances son nada menos que la "revolución" y el "éxito de la inteligencia artificial". LIMPIADOS"
3. Algunas personas critican estas tecnologías por estar demasiado centradas en problemas específicos sin considerar el objetivo a largo plazo de una inteligencia artificial potente.
5. Enfoque integrado
1. El paradigma del AGENTE inteligente es un sistema que detecta el entorno y toma acciones para lograr objetivos.
2. Los agentes inteligentes más simples son aquellos programas que pueden resolver problemas específicos. Los agentes más complejos incluyen humanos y organizaciones humanas.
3. Estos paradigmas permiten a los investigadores estudiar problemas individuales e identificar soluciones útiles y verificables sin tener que considerar un solo método.
4. Los paradigmas también proporcionan a los investigadores un lenguaje común para comunicarse con otros campos, como la teoría de la decisión y la economía.
5. Un sistema que contiene partes simbólicas y subsimbólicas se denomina sistema inteligente híbrido, y el estudio de dicho sistema es la integración de sistemas de inteligencia artificial.
6. El sistema de control jerárquico proporciona un puente entre la IA subsímbolo de nivel de reacción y la IA simbólica tradicional de más alto nivel, al tiempo que relaja el tiempo para la planificación y el modelado mundial.
2. Simulación inteligente
1. Simulación de métodos de visión artificial, audición, tacto, sentimiento y pensamiento.
2. Reconocimiento de huellas dactilares, reconocimiento facial, reconocimiento de retina, reconocimiento de iris, reconocimiento de huellas dactilares, sistema experto, búsqueda inteligente, prueba de teoremas, razonamiento lógico, juegos, detección de información y procesamiento dialéctico
3. Ámbito temático
La inteligencia artificial es una materia de frontera que es una materia interdisciplinaria de tres vías de ciencias naturales, ciencias sociales y ciencias técnicas.
4. Involucrar disciplinas
Filosofía y ciencias cognitivas, matemáticas, neurofisiología, psicología, informática, teoría de la información, cibernética, teoría de la incertidumbre, biónica, estructura social y perspectiva científica del desarrollo.
5. Alcance de la investigación
1. Aprendizaje y procesamiento de lenguajes, representación de conocimientos, búsqueda inteligente, razonamiento, planificación, aprendizaje automático, adquisición de conocimientos, problemas de programación combinatoria, problemas de percepción, reconocimiento de patrones, programación lógica, informática suave, gestión imprecisa e incierta, inteligencia artificial Vida, red neuronal , sistema complejo, algoritmo genético, forma de pensar humana
2. El problema más crítico es la autonomía de la máquina y la configuración y mejora de su capacidad de pensamiento creativo.
6.Campos de aplicación
1. Traducción automática, control inteligente, sistemas expertos, robótica, comprensión de lenguajes e imágenes, fábricas de robots genéticamente programados, programación automática, aplicaciones aeroespaciales, procesamiento, almacenamiento y gestión de enormes cantidades de información, ejecución de compuestos químicos que no pueden ser ejecutados por organismos vivos o que no pueden ser ejecutados por organismos vivos. tarea compleja o masiva
2. La traducción automática es una rama importante y el primer campo de aplicación de la inteligencia artificial. La calidad de la traducción del sistema de traducción automática aún está lejos del objetivo final.
3. Para mejorar la calidad de la traducción automática, lo primero que hay que resolver es el problema del lenguaje en sí, no el problema de la programación; confiar únicamente en unos pocos programas para construir un sistema de traducción automática definitivamente no mejorará la calidad de la traducción automática. .
4. Antes de que los humanos aún no comprendan cómo el cerebro realiza el reconocimiento confuso y el juicio lógico del lenguaje, es imposible que la traducción automática alcance el nivel de "fidelidad, expresividad y elegancia".
7. Método de implementación
1. Técnicas de programación tradicionales. (métodos de ingeniería)
1.Definición
Hacer que un sistema parezca inteligente, independientemente de si los métodos utilizados son los mismos que los utilizados por los organismos humanos o animales.
2.Aplicación
Reconocimiento de texto, juego de ajedrez por computadora.
3. Date cuenta
Necesidad de especificar manualmente la lógica del programa en detalle
4.Características
1. A medida que aumenta el número de caracteres y el espacio de actividad, la lógica correspondiente será muy complicada (aumentando exponencialmente) y la programación manual será muy engorrosa y propensa a errores.
2. Una vez que ocurre un error, el programa original debe modificarse, recompilarse, depurarse y finalmente proporcionarse al usuario una nueva versión o un nuevo parche, lo cual es muy problemático.
2. Método de simulación
1.Definición
No solo depende del efecto, sino que también requiere que el método de implementación sea igual o similar al método utilizado por humanos u organismos biológicos.
2.Aplicación
1. Algoritmo genético
Simular el mecanismo genético-evolutivo de humanos u organismos.
2.Red neuronal artificial
Simular la actividad de las células nerviosas en el cerebro humano o animal.
3. Date cuenta
Diseñar un sistema inteligente (un módulo) para que cada personaje lo controle.
4.Características
1. El sistema inteligente (módulo) no comprende nada al principio, pero puede aprender, adaptarse gradualmente al entorno y afrontar diversas situaciones complejas.
2. A menudo se cometen errores al principio, pero puede aprender lecciones y corregirlas la próxima vez que se ejecute. Al menos no cometerá errores para siempre y no será necesario lanzar nuevas versiones ni aplicar parches.
3. Los programadores deben tener un método de pensamiento biológico, lo que dificulta el inicio. Pero una vez que comienzas, puede usarse ampliamente.
4. No es necesario establecer regulaciones detalladas sobre las reglas de actividad del personaje. Cuando se aplica a problemas complejos, suele ahorrar más trabajo que el método anterior.
8. Simulación de pensamiento
0.En esencia, la inteligencia artificial es una simulación del proceso de información del pensamiento humano.
1. Dos maneras
1. Simulación estructural
Modelar la estructura y el mecanismo del cerebro humano para crear una máquina "parecida al cerebro humano"
2. Simulación de funciones
Dejar de lado temporalmente la estructura interna del cerebro humano y simularla desde su proceso funcional
2. La aparición de las computadoras electrónicas modernas es una simulación de la función de pensamiento del cerebro humano y del proceso de información del pensamiento del cerebro humano.
3. La inteligencia artificial débil continúa desarrollándose rápidamente, especialmente después de la crisis económica de 2008. Estados Unidos, Japón y Europa esperan utilizar robots para lograr la reindustrialización.
4. La inteligencia artificial fuerte se encuentra actualmente en un cuello de botella y aún requiere los esfuerzos de científicos y humanos.
4. Principales resultados
1. Juego hombre-máquina
2. Reconocimiento de patrones
El motor de reconocimiento 1.2D ha lanzado el reconocimiento de huellas dactilares, reconocimiento de retratos, reconocimiento de texto, reconocimiento de imágenes y reconocimiento de matrículas.
2. Se lanzó el motor de reconocimiento de ondas estacionarias para el reconocimiento de voz.
El motor de reconocimiento 3.3D ha lanzado el reconocimiento de huellas dactilares con cinturón de jade colgante en el bosque (Wanyou Smart Edition 1.25)
3.Ingeniería automática
Conducción autónoma (sistema OSO)/Fábrica de impresión de dinero (¥ línea de montaje)/Sistema Falcon (dibujo YOD)
4. Ingeniería del conocimiento
0. Tomando el conocimiento mismo como objeto de procesamiento, estudiar cómo utilizar la inteligencia artificial y la tecnología de software para diseñar, construir y mantener sistemas de conocimiento.
1. Sistemas expertos/motores de búsqueda inteligentes/visión por computadora y procesamiento de imágenes/traducción automática y comprensión del lenguaje natural/minería de datos y descubrimiento de conocimientos