Menú
gratis
Registro
Hogar  /  Recetas/ Lea la disertación sobre informática, tecnología informática, telecomunicaciones: “Redes neuronales cuánticas en procesos de aprendizaje y control”. a) Operación en estado de rotación. Entrenar una red neuronal clásica consiste en ajustar los coeficientes de ponderación de cada

Lea la disertación sobre informática, tecnología informática, telecomunicaciones: “Redes neuronales cuánticas en procesos de aprendizaje y control”. a) Operación en estado de rotación. Entrenar una red neuronal clásica consiste en ajustar los coeficientes de ponderación de cada

Redes neuronales cuánticas en procesos de aprendizaje y control.

tesis de maestría

2.1 Arquitectura de redes neuronales cuánticas

Las redes neuronales cuánticas son un campo emergente y son una combinación de redes neuronales clásicas y computación cuántica.

Un sistema puede denominarse neuronal si en él se puede identificar al menos una neurona. Un sistema neuronal es un sistema neuronal cuántico si es capaz de implementar computación cuántica.

Existen varios enfoques diferentes para lo que se pueden llamar redes neuronales cuánticas. Varios investigadores utilizan sus propias analogías para establecer conexiones entre mecánica cuántica y redes neuronales artificiales. Algunos conceptos básicos de estas dos áreas se resumen en la siguiente Tabla 1:

Tabla 1. Conceptos básicos de mecánica cuántica y teoría de redes neuronales

Los pares de conceptos en la misma fila de una tabla no deben tratarse como analogías; de hecho, establecer tal analogía es una de las principales tareas de la teoría de las redes neuronales cuánticas. Hasta la fecha, los conceptos cuánticos se han utilizado principalmente para implementar cálculos clásicos. El concepto de computación cuántica fue introducido en 1982 por Richard Feynman, quien exploró el papel efectos cuánticos en futuros procesadores, cuyos elementos pueden ser de tamaño atómico. En 1985, David Deutsch formuló el concepto de computación cuántica. Es importante señalar que la eficacia del uso de redes neuronales está asociada con el procesamiento masivo de información distribuida en paralelo y la no linealidad de la transformación de los vectores de entrada por parte de las neuronas. Por otro lado, los sistemas cuánticos tienen un paralelismo cuántico mucho más potente, expresado por el principio de superposición.

Al desarrollar el concepto de computación cuántica clásica y neuronal. papel importante juega la interpretación elegida de la mecánica cuántica, entre las cuales

Interpretación de Copenhague;

Formalismo de Feynman de integrales de trayectoria;

Interpretación de los muchos mundos de Everett, etc.

La elección de la interpretación es importante a la hora de establecer analogías entre la mecánica cuántica y la neurocomputación. En particular, es importante para resolver el problema de correlacionar tales teoría lineal, que es la mecánica cuántica con el procesamiento esencialmente no lineal que define el poder de la neurotecnología.

Introducción a la nanoelectrónica

Los transistores de puntos cuánticos son un tipo de dispositivo de electrones calientes muy prometedor para la electrónica de microondas. La Figura 14 muestra la estructura de un transistor dopado modulado con puntos cuánticos...

Teoría de la resonancia de ondas

En la figura. La Figura 8 muestra un diagrama de la red BPT, presentado en forma de cuatro módulos funcionales. Incluye una Unidad de Control, N filtros, N conjuntos de neuronas y un Módulo de Mando. La unidad de control y el módulo de comando proporcionan funciones de control...

Redes informáticas. Métodos básicos de transferencia de datos.

Una red informática es una red de intercambio y procesamiento de información distribuida, que está formada por una variedad de sistemas de suscriptores y medios de comunicación interconectados...

Diplomado - Sistema de redes neuronales para control y diagnóstico de una unidad de bombeo de varillas de bombeo

Una red neuronal es un conjunto de elementos conectados de alguna manera de manera que se asegura la interacción entre ellos. Estos elementos, también llamados neuronas o nodos, son procesadores simples...

Para que la cuantificación del espectro de energía descrita anteriormente se manifieste en cualquier efecto observable, la distancia entre niveles de energía En+1: En debería ser lo suficientemente grande. En primer lugar...

Estructuras de dimensión cuántica y dispositivos nanoelectrónicos.

Los procesos de ionización óptica de pozos cuánticos se pueden utilizar para crear nuevos tipos de detectores de radiación infrarroja...

Cuántico redes neuronales en procesos de formación y gestión

La clase de problemas que se pueden resolver utilizando una CNN está determinada por cómo funciona la red y cómo aprende. Durante la operación, el CNS acepta los valores de las variables de entrada y produce los valores de las variables de salida. De este modo...

Enrutamiento en redes multiservicio

Hay muchas opciones para construir una red multiservicio. Uno de ellos implica la construcción de una infraestructura homogénea: se trata de una red completamente de paquetes y no orientada a la conexión (como redes LAN compartidas y conmutadas...

En principio, los pozos cuánticos se pueden utilizar para detectar luz en cualquier rango de frecuencia, lo que se debe a sus características ópticas...

Dispositivos optoelectrónicos basados ​​en nanoestructuras.

Los pozos cuánticos se utilizan generalmente para modular directamente la radiación luminosa, ya que los efectos electroópticos en ellos son mucho más fuertes que en los materiales semiconductores convencionales (esencialmente...

Desarrollo e investigación de un sistema de reconocimiento de aplicaciones multimedia basado en redes neuronales.

Hay dos razones principales para el interés por las redes neuronales cuánticas. Uno implica argumentos de que los procesos cuánticos pueden desempeñar un papel importante en la función cerebral. Por ejemplo, Roger Penrose ha argumentado en varias ocasiones que sólo una nueva física que unificara la mecánica cuántica con la relatividad general podría describir fenómenos como la comprensión y la conciencia. Sin embargo, su enfoque no está dirigido a las redes neuronales en sí, sino a estructuras intracelulares como los microtúbulos. Otra razón está relacionada con el rápido crecimiento de la computación cuántica, cuyas ideas principales bien podrían trasladarse a la neurocomputación, lo que les abriría nuevas posibilidades.

Los sistemas neuronales cuánticos pueden sortear algunas cuestiones difíciles que son esenciales para la computación cuántica debido a su naturaleza analógica y su capacidad para aprender de un número limitado de ejemplos.

¿Qué podemos esperar de las redes neuronales cuánticas? Actualmente, las redes neuronales cuánticas tienen las siguientes ventajas:

Capacidad de memoria exponencial;

Mejor rendimiento con menos neuronas ocultas;

Aprendizaje rápido;

Eliminación del olvido catastrófico debido a la ausencia de interferencias en la imagen;

Resolver problemas linealmente inseparables con una red de una sola capa;

Falta de conexiones;

Alta velocidad de procesamiento de datos (10 10 bits/s);

Miniatura (10 11 neuronas/mm 3);

Mayor estabilidad y confiabilidad;

Estos beneficios potenciales de las redes neuronales cuánticas son los que motivan principalmente su desarrollo.

Neurona cuántica

Las sinapsis se comunican entre neuronas y multiplican la señal de entrada por un número que caracteriza la fuerza de la conexión: el peso de la sinapsis. El sumador realiza la suma de señales que llegan a través de conexiones sinápticas de otras neuronas y señales de entrada externas. El convertidor implementa la función de un argumento, la salida del sumador, en algún valor de salida de la neurona. Esta función se llama función de activación neuronal.

Por lo tanto, la neurona está completamente descrita por sus pesos y su función de activación F. Habiendo recibido un conjunto de números (vector) como entradas, la neurona produce un cierto número como salida.

La función de activación puede ser de varios tipos. Las opciones más utilizadas se muestran en la tabla (Tabla 2).

Tabla 2: Lista de funciones de activación neuronal

Nombre

Rango de valor

Límite

Icónico

Sigmoideo

Semilineal

Lineal

base radial

Semilineal con saturación

Lineal con saturación

Tangente hiperbólica

Triangular

La definición de neurona cuántica se da de la siguiente manera:

Recibe señales de entrada (datos iniciales o señales de salida de otras neuronas del SNC) a través de varios canales de entrada. Cada señal de entrada pasa por una conexión que tiene una determinada intensidad (o peso); este peso corresponde a la actividad sináptica de la neurona. Cada neurona tiene un valor umbral específico asociado. Se calcula la suma ponderada de las entradas, se le resta el valor umbral y el resultado es la cantidad de activación de la neurona (también llamado potencial postsináptico de la neurona - PSP).

La señal de activación se convierte utilizando una función de activación (o función de transferencia) para producir la salida de la neurona (Figura 1).


Figura 1

Un modelo matemático de una neurona cuántica, donde hay matrices que actúan sobre la base de un operador que puede implementar una red de células cuánticas.

Por ejemplo: El proceso de aprendizaje de una neurona cuántica. = - operador de identidad: .

La regla del aprendizaje cuántico se proporciona en analogía con el caso clásico, de la siguiente manera: , donde está el resultado deseado. Esta regla de aprendizaje lleva a la neurona cuántica al estado deseado que se utiliza para el aprendizaje. Tomando la diferencia entre la salida real y la deseada al cuadrado para el módulo, vemos que:


Se puede ensamblar una red completa a partir de elementos primitivos utilizando reglas estándar de arquitecturas ANN.

2 Conceptos básicos de la computación cuántica Qubits Qubits La unidad de información cuántica es el qubit La unidad de información cuántica es el qubit Un qubit puede considerarse como un sistema con 2 estados, p.e. Sistema de giro de 1/2 o dos niveles. Se puede considerar un qubit como un sistema con 2 estados, p. Sistema de giro de 1/2 o dos niveles. El estado de un qubit se describe mediante un vector de 2 componentes: El estado de un qubit se describe mediante un vector de 2 componentes:


3 Conceptos básicos de la computación cuántica Puertas cuánticas Puertas cuánticas Las puertas cuánticas son análogas a las operaciones booleanas Y, O, NO, etc. Las puertas cuánticas son análogas a las operaciones booleanas Y, O, NO, etc. Una puerta cuántica que actúa sobre n qubits es un operador unitario. Una puerta cuántica que actúa sobre n qubits es un operador unitario. Ejemplo: puerta NOT: Ejemplo: puerta NOT:


4 Algoritmos cuánticos Algoritmo de Simon para buscar el período de una función Algoritmo de Simon para buscar el período de una función Algoritmo de Shor para la factorización prima Algoritmo de Shor para la factorización prima Algoritmo de búsqueda de Grover Algoritmo de búsqueda de Grover Algoritmo de Deutsch Jos Algoritmo de Deutsch Jos






7 Algoritmo de Shor: pasos principales 1. Seleccione un resto aleatorio en módulo N 2. Verifique MCD(a, N)=1 3. Encuentre el orden r del resto en módulo N 4. Si r es par entonces calcule MCD (a r/ 2 - 1 , N) Definición: el mínimo r tal que a r 1 (mod N) se llama orden de un módulo N. El orden es el período de la función f(x)=a x (mod N)




















17 Memoria asociativa cuántica Red asociativa cuántica Perusha (2000) Red asociativa cuántica Perusha (2000) Basado en el modelo de Hopfield Basado en el modelo de Hopfield Generalización continua del hamiltoniano Hopfield Generalización continua del hamiltoniano Hopfield Principio holográfico Principio holográfico Procedimiento de examen a través de los dos- punto Función de Green Procedimiento de examen mediante la función de Green exacta de dos puntos Colapso de la función de onda como convergencia hacia un atractor Colapso de la función de onda como convergencia hacia un atractor


18 Red neuronal cuántica Red neuronal cuántica (Berman et al, 2002) Red neuronal cuántica (Berman et al, 2002) Diseñado para calcular el grado de entrelazamiento cuántico Diseñado para calcular el grado de entrelazamiento cuántico Funciona en el tiempo Funciona en el tiempo Es una alimentación- red directa Es una red de retroalimentación Consta de objetos cuánticos de dos niveles y osciladores lineales Consta de objetos cuánticos de dos niveles y osciladores lineales




20 Memoria asociativa cuántica Quantum AP Ventura (1998, 2000, 2003) Quantum AP Ventura (1998, 2000, 2003) Basado en el algoritmo de Grover Basado en el algoritmo de Grover Se recuerdan m vectores binarios n-dimensionales Se recuerdan m vectores binarios n-dimensionales Cuántica especializada algoritmo de aprendizaje da el operador P Un algoritmo de aprendizaje cuántico especializado da el operador P Tiene capacidad exponencial ~2 n Tiene capacidad exponencial ~2 n





Comparación de datos de simulaciones de la molécula de hidrógeno mediante ordenadores cuánticos con valores experimentales. El eje horizontal es la distancia entre los átomos de hidrógeno en la molécula.

Un equipo británico-estadounidense de físicos, incluidos expertos de Google y de la Universidad de California, realizó el primer experimento sobre modelado cuántico escalable de la molécula de hidrógeno. En el trabajo, los autores utilizaron una computadora cuántica de dos qubits y prescindieron de una compilación preliminar de algoritmos que requiere muchos recursos. El estudio fue publicado en la revista Revisión Física X, el blog de Google lo describe brevemente.

El experimento se basa en un algoritmo variacional para buscar soluciones propias utilizando una computadora cuántica (VQE), que, según los científicos, es una red neuronal cuántica. Como cualquier red neuronal, contiene muchos parámetros variables que se pueden seleccionar mediante entrenamiento, pero las redes neuronales tradicionales modelan sistemas clásicos y cuánticos, respectivamente, sistemas cuánticos.

Con este método, los científicos calcularon cómo cambia la energía de una molécula de hidrógeno (H 2) dependiendo de la distancia entre los átomos de hidrógeno que contiene. Estos cálculos son caso especial resolviendo el problema de la estructura electrónica de las moléculas. Sabiendo cómo están dispuestos los electrones en el estado fundamental de una molécula, podemos predecir la velocidad a la que fluirán los electrones. reacciones quimicas. Sin embargo, esto requiere cálculos energéticos de alta precisión. A medida que aumenta el número de átomos en una molécula, el tiempo necesario para los cálculos en una computadora clásica aumenta exponencialmente. Como describe el blog de Google, mientras que calcular la energía del estado fundamental del metano (CH 4) toma un segundo, el etano (C 2 H 6) tomará un minuto y el propano (C 3 H 8) tomará un día entero de cálculos.

El sistema utilizaba qubits superconductores enfriados a una temperatura de 20 milikelvin. Cada qubit constaba de un interferómetro cuántico superconductor (conocido como SQUID) y un condensador.


Esquema de cálculo. A la izquierda hay microfotografías de qubits, las líneas inferiores son operaciones lógicas realizadas en qubits.

P. J. J. O'Malley et al. / Físico. Rdo. X, 2016

Los autores compararon los resultados de los cálculos utilizando VQE con datos experimentales y otro algoritmo cuántico. Según los físicos, gracias a la formación fue posible eliminar los errores sistemáticos asociados con equipos imperfectos y obtener resultados cercanos a los datos experimentales. Los científicos esperan que la resistencia a tales errores ayude a eliminar uno de los problemas que enfrentará la implementación de computadoras cuánticas en el futuro.

Como responden los físicos, al escalar la tecnología y crear sistemas multiqubit, será posible realizar cálculos similares para moléculas más complejas. Por ejemplo, bastarán cien qubits para simular el proceso de fijación de nitrógeno, que permite a las bacterias producir fertilizantes literalmente de la nada. Quizás esto mejore métodos existentes Síntesis de fertilizantes nitrogenados.

A pesar de que los ordenadores cuánticos son ahora sistemas de un pequeño número de qubits (-), los físicos ya los utilizan para simular procesos de alta energía.

Vladímir Korolev

Tipo de trabajo: Trabajo de maestría Materia: Tecnologías de la comunicación

Extracto del trabajo

Ministerio educación Y ciencia ruso Federación

Estado institución educativa Región de Moscú

Internacional universidad naturaleza, sociedad y persona "Dubná"

METROagisterskese es el trabajo

Sujeto Redes neuronales cuánticas en procesos de aprendizaje y control.

CONalumno Afanasyeva Olga Alexandrovna

Anotación

este trabajo está dedicado al análisis de redes neuronales cuánticas (QNN) y sus aplicaciones prácticas.

La solución de estos problemas está estrechamente relacionada con el desarrollo de métodos de programación cuántica y es de interés teórico y práctico para el diseño de procesos de control inteligente robusto en condiciones de riesgo y situaciones de control imprevistas, teniendo en cuenta los efectos cuánticos en la formación de la información. proceso de autoorganización de las bases de conocimiento.

Para lograr los objetivos, se estudió la literatura de autores extranjeros y se consideraron ejemplos del uso de QNS en los procesos de gestión.

El resultado del trabajo es análisis comparativo entre neuronas clásicas y cuánticas. Se proponen nuevos operadores cuánticos como la superposición, la correlación cuántica y la interferencia. QNN le permite ver el espacio de búsqueda y entrenamiento, aumentar la precisión y solidez del proceso de aproximación de señales de aprendizaje.

El trabajo se llevó a cabo bajo la supervisión científica del Dr. Phys.-Math. Ciencias, Profesor S.V. Ulyanov del Instituto de Análisis y Gestión de Sistemas de la Universidad Internacional de la Naturaleza, la Sociedad y el Hombre “Dubna”.

  • Introducción
  • 1 . Declaración del problema
    • 1.1 Propósito
    • 1.2 Datos iniciales
    • 1.3 Componente de investigación
  • 2 . Componente científico
    • 2.1 Arquitectura de redes neuronales cuánticas
    • 2.2 Por qué son interesantes las redes neuronales cuánticas
    • 2.3 Neurona cuántica
    • 2.4 Construcción de una red neuronal cuántica
    • 2.5 Computación cuántica
    • Modelos 2.6 KNS
    • 2.7 Estado cuántico y su representación
  • 3 . entrenamiento del sistema nervioso central
    • 3.2 Perceptrones de una y varias capas
      • 3.2.1 Perceptrón monocapa. Educación
      • 3.2.2 Perceptrón multicapa. Entrenamiento de perceptrón multicapa
    • 3.4 Algoritmo genético. Problema clásico del viajante de comercio
  • 4 . Gestión automática de objetos
    • 4.1 Objeto de control
    • 4.2 La robótica como dirección de la Inteligencia Artificial
      • 4.2.1 Diagrama de bloques general del robot
      • 4.2.2 Modelo conceptual
    • 4.2 Control eficiente de un registro de espín cuántico. Criptografía y teletransportación cuántica
  • 5 . Parte práctica. Ejemplos de redes neuronales cuánticas
    • 5.1 Péndulo invertido
    • 5.2 Compresión de imágenes
    • 5.3 Codificación alfabética
  • 6 Caja de herramientas HERRAMIENTA DE RED NEURAL MATLAB. Red Kohonen
  • Conclusión
  • Referencias
  • Introducción
  • Hoy, como hace cien años, no hay duda de que el cerebro funciona de manera más eficiente y de una manera fundamentalmente diferente que cualquier máquina informática creada por el hombre. Es este hecho el que durante tantos años ha motivado y guiado el trabajo de científicos de todo el mundo para crear y estudiar redes neuronales artificiales.
  • Las redes neuronales artificiales (RNA) tienen algunas características atractivas, como el procesamiento distribuido paralelo, la tolerancia a errores y la capacidad de aprender y generalizar el conocimiento adquirido. La propiedad de generalización se refiere a la capacidad de una ANN de generar salidas correctas para señales de entrada que no se tuvieron en cuenta durante el proceso de aprendizaje. Estas dos propiedades hacen de ANN un sistema de procesamiento de información que resuelve problemas multidimensionales complejos que están más allá de las capacidades de otras técnicas. Sin embargo, las RNA también enfrentan muchos desafíos, incluida la falta de reglas para arquitecturas óptimas deterministas, capacidad de memoria limitada, tiempo de entrenamiento prolongado, etc.
  • Las Redes Neuronales Artificiales han entrado en práctica allí donde es necesario resolver problemas de previsión, clasificación o control. Este impresionante éxito se debe a varias razones:
  • 1. Ricas posibilidades. Las redes neuronales son una técnica de modelado extremadamente poderosa que puede reproducir dependencias extremadamente complejas. Durante muchos años, el modelado lineal ha sido la técnica de modelado dominante en la mayoría de los campos porque los procedimientos de optimización están bien desarrollados para ello. En problemas en los que la aproximación lineal no es satisfactoria (y hay bastantes), los modelos lineales funcionan mal. Además, las redes neuronales hacen frente a la "maldición de la dimensionalidad", que no permite modelar dependencias lineales en el caso de una gran cantidad de variables.
  • 2.Fácil de usar. Las redes neuronales aprenden de ejemplos. El usuario de la red neuronal selecciona datos representativos y luego ejecuta un algoritmo de aprendizaje que aprende automáticamente la estructura de los datos. En este caso, el usuario, por supuesto, requiere cierto conjunto de conocimientos heurísticos sobre cómo seleccionar y preparar datos, seleccionar la arquitectura de red deseada e interpretar los resultados, pero el nivel de conocimiento requerido para el uso exitoso de las redes neuronales es mucho mayor. modesto que, por ejemplo, cuando se utilizan métodos estadísticos tradicionales.
  • En el campo de las RNA, algunos pioneros introdujeron cuántico cálculo en una discusión similar, como la neuronal cuántica cálculo, Red neuronal cuántica absorbida, memoria asociativa cuántica y aprendizaje paralelo. Crearon un fondo para estudio adicional Computación cuántica en ANN. En el proceso, el campo de las redes neuronales artificiales basadas en tecnología cuántica conceptos teóricos y métodos. Se llaman Redes Neuronales Cuánticas.
  • 1. Planteamiento del problema

1.1 Propósito

Investigación y análisis de Redes Neuronales Cuánticas, su aplicación práctica.

Áreas de trabajo de investigación

· Identificar las ventajas de las redes neuronales cuánticas frente a las redes clásicas.

· Considere ejemplos del uso de redes neuronales cuánticas en procesos de control inteligente.

· Simular el funcionamiento de una neurona cuántica en un ordenador clásico.

· Modelado de una red de clustering de datos en MATLAB.

· Considere un ejemplo específico de robótica (robot manipulador).

1.2 Datos iniciales

· Libro de nueve volúmenes sobre computación cuántica y programación cuántica, publicado por la Universidad de Milán, del autor Ulyanov S.V.

· Monografía de Nilsson, 2006.

· Sitio web www.qcoptimizer.com.

1.3 Componente de investigación

La investigación se relaciona con tecnologías innovadoras para el desarrollo de redes neuronales cuánticas en el campo sistemas inteligentes gestión con formación. La solución de estos problemas está estrechamente relacionada con el desarrollo de métodos de programación cuántica y es de interés teórico y práctico para el diseño de procesos de control inteligente robusto en condiciones de riesgo y situaciones de control imprevistas, teniendo en cuenta los efectos cuánticos en la formación de la información. proceso de autoorganización de las bases de conocimiento.

2. Componente científico

2.1 Arquitectura de redes neuronales cuánticas

Las redes neuronales cuánticas son un campo emergente y son una combinación de redes neuronales clásicas y computación cuántica.

Algún sistema puede llamarse neural, si es posible identificar al menos uno neurona. El sistema neuronal es neuronal cuántica sistema si es capaz de implementar computación cuántica.

Existen varios enfoques diferentes para lo que se pueden llamar redes neuronales cuánticas. Varios investigadores utilizan sus propias analogías para establecer la conexión entre la mecánica cuántica y las redes neuronales artificiales. Algunos conceptos básicos de estas dos áreas se resumen en la siguiente Tabla 1:

Tabla 1. Conceptos básicos de mecánica cuántica y teoría de redes neuronales

Los pares de conceptos en la misma fila de una tabla no deben tratarse como analogías; de hecho, establecer tal analogía es uno de los principales objetivos de la teoría de redes neuronales cuánticas. Hasta la fecha, los conceptos cuánticos se han utilizado principalmente para implementar cálculos clásicos. El concepto de computación cuántica fue introducido en 1982 por Richard Feynman, quien estaba explorando el papel de los efectos cuánticos en futuros procesadores, cuyos elementos podrían ser de tamaño atómico. En 1985, David Deutsch formuló el concepto de computación cuántica. Es importante señalar que la eficacia del uso de redes neuronales está asociada con el procesamiento masivo de información distribuida en paralelo y la no linealidad de la transformación de los vectores de entrada por parte de las neuronas. Por otro lado, los sistemas cuánticos tienen un paralelismo cuántico mucho más potente, expresado por el principio de superposición.

En el desarrollo del concepto de computación cuántica clásica y neuronal, la interpretación elegida de la mecánica cuántica juega un papel importante, entre los cuales

Interpretación de Copenhague;

Formalismo de Feynman de integrales de trayectoria;

Interpretación de los muchos mundos de Everett, etc.

La elección de la interpretación es importante a la hora de establecer analogías entre la mecánica cuántica y la neurocomputación. En particular, es importante para resolver el problema de relacionar la teoría lineal que es la mecánica cuántica con el procesamiento de datos esencialmente no lineal que define el poder de la neurotecnología.

2.2 Por qué son interesantes las redes neuronales cuánticas

Hay dos razones principales para el interés por las redes neuronales cuánticas. Uno implica argumentos de que los procesos cuánticos pueden desempeñar un papel importante en la función cerebral. Por ejemplo, Roger Penrose ha argumentado en varias ocasiones que sólo una nueva física que unificara la mecánica cuántica con la relatividad general podría describir fenómenos como la comprensión y la conciencia. Sin embargo, su enfoque no está dirigido a las redes neuronales en sí, sino a estructuras intracelulares como los microtúbulos. Otra razón está relacionada con el rápido crecimiento de la computación cuántica, cuyas ideas principales bien podrían trasladarse a la neurocomputación, lo que les abriría nuevas posibilidades.

Los sistemas neuronales cuánticos pueden sortear algunas cuestiones difíciles que son esenciales para la computación cuántica debido a su naturaleza analógica y su capacidad para aprender de un número limitado de ejemplos.

¿Qué podemos esperar de las redes neuronales cuánticas? Actualmente, las redes neuronales cuánticas tienen las siguientes ventajas:

— capacidad de memoria exponencial;

— mejor rendimiento con menos neuronas ocultas;

— aprendizaje rápido;

-eliminación de olvidos catastróficos debido a la ausencia de interferencias en la imagen;

— resolver problemas linealmente inseparables con una red de una sola capa;

— falta de conexiones;

— alta velocidad de procesamiento de datos (10 10 bits/s);

- miniatura (10 11 neuronas/mm 3);

— mayor estabilidad y fiabilidad;

Estos beneficios potenciales de las redes neuronales cuánticas son los que motivan principalmente su desarrollo.

2. 3 neurona cuántica

Las sinapsis se comunican entre neuronas y multiplican la señal de entrada por un número que caracteriza la fuerza de la conexión: el peso de la sinapsis. El sumador realiza la suma de señales que llegan a través de conexiones sinápticas de otras neuronas y señales de entrada externas. El convertidor implementa la función de un argumento, la salida del sumador, en algún valor de salida de la neurona. Esta función se llama función de activación neuronal.

Por lo tanto, la neurona está completamente descrita por sus pesos y su función de activación F. Habiendo recibido un conjunto de números (vector) como entradas, la neurona produce un cierto número como salida.

La función de activación puede ser de varios tipos. Las opciones más utilizadas se muestran en la tabla (Tabla 2).

Tabla 2: Lista de funciones de activación neuronal

La definición de neurona cuántica se da de la siguiente manera:

Recibe señales de entrada (datos iniciales o señales de salida de otras neuronas del SNC) a través de varios canales de entrada. Cada señal de entrada pasa por una conexión que tiene una determinada intensidad (o peso); este peso corresponde a la actividad sináptica de la neurona. Cada neurona tiene un valor umbral específico asociado. Se calcula la suma ponderada de las entradas, se le resta el valor umbral y el resultado es la cantidad de activación de la neurona (también llamado potencial postsináptico de la neurona - PSP).

La señal de activación se convierte utilizando una función de activación (o función de transferencia) para producir la salida de la neurona (Figura 1).

Figura 1: Modelo matemático de una neurona

Un modelo matemático de una neurona cuántica, donde hay matrices que actúan sobre la base de un operador que puede implementar una red de células cuánticas.

Por ejemplo: El proceso de aprendizaje de una neurona cuántica. = - operador de identidad: .

La regla del aprendizaje cuántico se proporciona en analogía con el caso clásico, de la siguiente manera: ¿dónde está el resultado deseado? Esta regla de aprendizaje lleva a la neurona cuántica al estado deseado que se utiliza para el aprendizaje. Tomando la diferencia entre la salida real y la deseada al cuadrado para el módulo, vemos que:

Se puede ensamblar una red completa a partir de elementos primitivos utilizando reglas estándar de arquitecturas ANN.

2.4 Construcción de una red neuronal cuántica

Este problema se resuelve en dos etapas: selección del tipo (arquitectura) de la CNN, selección de pesos (entrenamiento) de la CNN.

En la primera etapa, debemos elegir lo siguiente: qué neuronas queremos usar (número de entradas, funciones de transferencia); ¿Cómo deberían estar conectados entre sí? qué tomar como entradas y salidas del SNC.

A primera vista, esta tarea parece enorme, pero, afortunadamente, no tenemos que crear una CNN "desde cero": existen varias docenas de arquitecturas de redes neuronales diferentes y la eficacia de muchas de ellas ha sido probada matemáticamente. Las arquitecturas más populares y estudiadas son el perceptrón multicapa, la red neuronal de regresión general, las redes neuronales Kohonen y otras.

En la segunda etapa, debemos "entrenar" la red seleccionada, es decir, seleccionar dichos valores de sus pesos para que funcione como deseamos. Un SNC no entrenado es como un niño: puedes enseñarle cualquier cosa. En las redes neuronales utilizadas en la práctica, el número de pesos puede ser de varias decenas de miles, por lo que el entrenamiento es un proceso verdaderamente complejo. Para muchas arquitecturas, se han desarrollado algoritmos de aprendizaje especiales que permiten configurar los pesos de la CNN de cierta manera. El más popular de estos algoritmos es el método de propagación inversa de errores, que se utiliza, por ejemplo, para entrenar un perceptrón.

2.5 Computación cuántica

La computación cuántica permite resolver problemas que no se pueden resolver en las computadoras clásicas. Por ejemplo, el algoritmo de Shor proporciona en una computadora cuántica una solución polinómica para la factorización de un número entero en dos factores primos, que se considera insoluble en una computadora clásica. Además, el algoritmo de Grover proporciona una velocidad significativa al buscar datos en una base de datos desordenada.

Hasta ahora no hemos visto una diferencia cualitativa entre el uso de bits normales y qubits, pero algo extraño sucede cuando se expone un átomo a la luz suficiente para que el electrón se encuentre a medio camino entre los niveles de excitación. Dado que los electrones en realidad no pueden existir en el espacio entre estos niveles, existen EN AMBOS niveles al mismo tiempo. Esto se conoce como "superposición".

Esta superposición permite el cálculo teórico de múltiples posibilidades a la vez, ya que un grupo de qubits puede representar múltiples números a la vez. Para calcular utilizando la propiedad de superposición, puede crear un conjunto de qubits, ponerlos en estados de superposición y luego realizar una acción sobre ellos.

Cuando se completa el algoritmo, la superposición se puede colapsar y se obtendrá un determinado resultado, es decir, todos los qubits pasarán a los estados 0 o 1. Podemos considerar que el algoritmo actúa en paralelo sobre todas las combinaciones posibles de ciertos estados de qubits (es decir, 0 o 1) es un truco conocido como paralelismo cuántico (Tabla 3).

Tabla 3: Conceptos principales de la computación cuántica

La construcción de modelos de sistemas neuronales cuánticos (así como la creación de modelos de computación cuántica) enfrenta la necesidad de aclarar qué cálculos pueden caracterizarse como verdaderamente cuánticos y cuáles son las fuentes de eficiencia de estos cálculos.

Un lugar importante también lo ocupa la aclaración de las áreas de aplicación más efectivas de los sistemas de computación cuántica.

El recurso fundamental y la formación básica de la información cuántica es un bit cuántico (qubit). Desde un punto de vista físico, un qubit representa el estado dual ideal de un sistema cuántico. Ejemplos de tales sistemas incluyen fotones (polarización vertical y horizontal), electrones y sistemas definidos por dos niveles de energía de átomos o iones. Desde el principio, el estado dual de un sistema ha desempeñado un papel central en el estudio de la mecánica cuántica. Este es el sistema cuántico más simple y, en principio, todos los demás sistemas cuánticos se pueden modelar en el espacio de estados de conjuntos de qubits.

El estado de un bit cuántico se especifica mediante un vector en un espacio vectorial complejo bidimensional. Aquí el vector tiene dos componentes y sus proyecciones sobre las bases del espacio vectorial son números complejos. Un bit cuántico se representa (en notación de Dirac como un vector ket) como o en notación vectorial (vector bra). Si entonces. Para fines de computación cuántica, los estados básicos |0> y |1> codifican los valores de bits clásicos 0 y 1, respectivamente. Sin embargo, a diferencia de los bits clásicos, los qubits pueden estar en una superposición de |0> y |1>, como donde y son números complejos para los cuales se cumple la siguiente condición:. Si o toma valores cero, entonces define el estado puro clásico. En caso contrario, se dice que se encuentra en un estado de superposición de dos estados básicos clásicos. Geométricamente, un bit cuántico está en un estado continuo entre y hasta que se mide su estado. En el caso en que el sistema consta de dos bits cuánticos, se describe como un producto tensorial. Por ejemplo, en notación de Dirac, un sistema de dos bits cuánticos se expresa como. El número de estados posibles de un sistema combinado aumenta exponencialmente con la adición de un bit cuántico.

Esto lleva al problema de estimar la correlación cuántica que está presente entre los bits cuánticos en un sistema compuesto.

El crecimiento exponencial en el número de estados, junto con la capacidad de someter todo el espacio a transformaciones (ya sea la evolución dinámica unitaria de un sistema o el diseño de medición subespacial de vectores propios) proporciona la base para la computación cuántica. Dado que las transformaciones unitarias son reversibles, todos los cálculos cuánticos (excepto las mediciones) serán reversibles, limitándolos a transformaciones cuánticas unitarias. Esto significa que cada celda cuántica (uno o varios qubits) realiza un cálculo reversible. Por lo tanto, dada una celda de salida, es necesario determinar de forma única cuál fue la entrada. Afortunadamente, hay teoría clásica computación reversible, que nos dice que todo algoritmo clásico puede hacerse reversible con un límite superior aceptable, por lo que esta limitación de la computación cuántica no plantea un problema grave. Sin embargo, esto es algo que debería tenerse en cuenta al proponer una especificación para puertas cuánticas.

Modelos 2.6 KNS

Hay varios institutos de investigación en todo el mundo que trabajan en el concepto de red neuronal cuántica, por ejemplo Universidad Técnica en Georgia y la Universidad de Oxford. La mayoría, sin embargo, se abstiene de publicar su trabajo. Probablemente esto se deba al hecho de que la implementación de una red neuronal cuántica es potencialmente mucho más sencilla que una computadora cuántica convencional, y todas las instituciones quieren ganar la carrera cuántica. En teoría, es más fácil construir una red neuronal cuántica que una computadora cuántica por una razón. Esta razón es la coherencia. La superposición de muchos qubits reduce la resistencia al ruido en una computadora cuántica, y el ruido puede potencialmente causar el colapso o la decoherencia de la superposición antes de que pueda ocurrir un cálculo útil. Sin embargo, dado que las redes neuronales cuánticas no requerirán períodos muy largos ni muchas superposiciones por neurona, serán menos susceptibles al ruido mientras realizan cálculos. temas similares, que se llevan a cabo mediante una red neuronal normal, pero muchas veces más rápido (de hecho, exponencialmente).

Las redes neuronales cuánticas podrían aprovechar su ventaja de velocidad exponencial mediante el uso de una superposición de las magnitudes de las entradas y salidas de una neurona. Pero otro beneficio que se podría obtener es que, dado que las neuronas pueden procesar una superposición de señales, la red neuronal podría tener menos neuronas en la capa oculta cuando aprende a aproximarse a una función determinada. Esto permitiría construir redes más simples con menos neuronas y, por tanto, mejoraría la estabilidad y fiabilidad de su funcionamiento (es decir, se reduciría el número de oportunidades de que la red perdiera coherencia). Teniendo todo esto en cuenta, ¿no podría una red neuronal cuántica ser computacionalmente más poderosa que una red normal? Actualmente la respuesta parece ser no, ya que todos los modelos cuánticos utilizan numero final qubits para realizar sus cálculos, y esto es una limitación.

2.7 Estado cuántico y su representación

Robótica del perceptrón de neuronas cuánticas

El estado cuántico y el operador de computación cuántica son importantes para comprender el paralelismo y la plasticidad en los sistemas de procesamiento de información.

En un circuito de lógica cuántica, los estados cuánticos fundamentales son la rotación de un bit del estado Ui, como se muestra en la Fig. 2, y el estado NOT controlado por dos bits que se muestra en la Fig. 3. Los primeros estados rotan el estado cuántico de entrada a este a lo largo y. Estos últimos estados realizan una operación XOR.

Arroz. 2. Estado de rotación de un bit

Arroz. 3. Control de estado NO de dos bits

Seleccionamos la siguiente evaluación compleja de la representación Ec. (3) correspondiente restrictivamente al estado cúbico en la ecuación. (1).

(3)

La ecuación (3) permite expresar las siguientes operaciones: estado de rotación y estados NOT controlados por dos bits.

a) Operación en estado de rotación

El estado de rotación es una fase de estados en movimiento que transforma la fase en un estado cúbico. Dado que el estado cúbico está representado por la ecuación. (3), se entiende por estado la siguiente relación:

(4)

b) Operación NOT controlada por dos bits

Esta operación está definida por el parámetro de entrada r de la siguiente manera:

(5)

donde r=1 corresponde a una rotación de cancelación y r=0 corresponde a una no rotación. En el caso r=0, la fase de probabilidad de la amplitud del estado cuántico |1> cambia completamente.

Sin embargo, la probabilidad observada es invariante, por lo que consideramos este caso como una no rotación.

3. Entrenamiento del SNC

Las redes neuronales cuánticas son eficaces para realizar funciones complejas en varias áreas. Estos incluyen reconocimiento de patrones, clasificación, visión, sistemas de control y predicción.

La capacidad de aprender (de adaptarse a las condiciones y oportunidades en un entorno externo cambiante) es una característica tan importante de las redes neuronales que ahora se adjunta como un punto separado a la llamada "prueba de Turing", que es una definición operativa de El concepto de inteligencia.

Una prueba empírica, cuya idea fue propuesta por Alan Turing en el artículo "Computing Machinery and Intelligence", publicado en 1950 en la revista filosófica Mind. El objetivo de esta prueba es determinar la posibilidad de un pensamiento artificial cercano al humano.

La interpretación estándar de esta prueba es: “Una persona interactúa con una computadora y una persona. A partir de las respuestas a las preguntas, debe determinar con quién está hablando: una persona o un programa de computadora. Tarea programa de computadora"engañar a una persona para que tome la decisión equivocada". Todos los participantes de la prueba no pueden verse entre sí.

En general, el aprendizaje es un cambio relativamente permanente en el comportamiento provocado por la experiencia. El aprendizaje en el SNC es un proceso más directo y puede capturar el aprendizaje en cada paso del proceso. excelentes relaciones eficacia de la causa. El conocimiento de una red neuronal almacenado en las sinapsis son los pesos de las conexiones entre neuronas. Estos pesos entre dos capas de una neurona se pueden representar como matrices. Si se define una red neuronal con un algoritmo de aprendizaje adecuado para analizar y preprocesar los datos, entonces se puede hacer una predicción razonable.

La definición del proceso de aprendizaje implica la siguiente secuencia de eventos:

· La red neuronal es estimulada por el entorno.

· La red neuronal sufre cambios en sus parámetros libres como resultado de la excitación.

· La red responde de una nueva forma al entorno debido a los cambios que se han producido en su estructura interna.

Hay numerosos algoritmos disponibles y uno esperaría que existiera algún algoritmo único para diseñar un modelo QNN. Las diferencias entre los algoritmos son la formulación que puede cambiar los pesos de las neuronas y la relación de las neuronas con su entorno.

Todos los métodos de enseñanza se pueden clasificar en dos categorías principales: supervisados ​​y no supervisados.

La Tabla 4 presenta varios algoritmos de aprendizaje y sus arquitecturas de red asociadas (la lista no es exhaustiva). La última columna enumera las tareas para las que se puede aplicar cada algoritmo. Cada algoritmo de aprendizaje se centra en una red de una arquitectura específica y está destinado a una clase limitada de tareas. Además de los comentados, cabe mencionar algunos otros algoritmos: Adaline y Madaline, análisis discriminante lineal, proyecciones de Sammon, análisis de componentes principales.

Tabla 4: Algoritmos de aprendizaje conocidos:

Paradigma

Regla de aprendizaje

Arquitectura

Algoritmo de aprendizaje

Con profesor

Corrección de errores

Perceptrón monocapa y multicapa

Algoritmos de entrenamiento de perceptrones

Propagación hacia atrás

Adaline y Madaline

entrenamiento de perceptrón

Propagación hacia atrás

Adaline y Madaline Clasificación de imágenes

Aproximación de funciones

Predicción, control

Boltzmann

Recurrente

Algoritmo de aprendizaje de Boltzmann

Clasificación de imágenes

Análisis discriminante lineal

Análisis de datos

Clasificación de imágenes

Competencia

Competencia

Cuantización vectorial

Clasificación de imágenes

sin maestro

Corrección de errores

Propagación directa multicapa

La proyección de Sammon.

Distribución directa o competencia

Análisis de componentes principales

Análisis de datos

Compresión de datos

Red Hopfield

Entrenamiento de la memoria asociativa

memoria asociativa

Competencia

Competencia

Cuantización vectorial

Categorización

Compresión de datos

SOM Kohonen

SOM Kohonen

Categorización

Análisis de datos

Mezclado

Corrección de errores y competencia.

Algoritmo de aprendizaje RBF

Clasificación de imágenes

Aproximación de funciones

Predicción, control

Entrenar una red significa decirle lo que queremos de ella. Este proceso es muy similar a enseñarle el alfabeto a un niño. Después de mostrarle al niño una imagen de la letra “A”, le preguntamos: “¿Qué letra es esta?” Si la respuesta es incorrecta, le decimos al niño la respuesta que nos gustaría que dé: “Esta es la letra A”. El niño recuerda este ejemplo junto con la respuesta correcta, es decir, se producen algunos cambios en su memoria en la dirección correcta. Repetiremos el proceso de presentación de las letras una y otra vez hasta memorizar firmemente las 33 letras. Este proceso se denomina “aprendizaje supervisado” (Fig. 4).

Arroz. 4. El proceso de “aprender con un profesor”.

Al entrenar una red, actuamos exactamente de la misma manera. Disponemos de una base de datos que contiene ejemplos (un conjunto de imágenes de letras escritas a mano). Al presentar la imagen de la letra “A” a la entrada del SNC, recibimos de él alguna respuesta, no necesariamente correcta. También conocemos la respuesta correcta (deseada); en este caso, nos gustaría que el nivel de señal en la salida del SNS con la etiqueta "A" sea máximo. Normalmente, la salida deseada en un problema de clasificación es el conjunto (1, 0, 0, ...), donde 1 está en la salida denominada "A" y 0 está en todas las demás salidas. Al calcular la diferencia entre la respuesta deseada y la respuesta real de la red, obtenemos 33 números: el vector de error. El algoritmo de retropropagación es un conjunto de fórmulas que permiten calcular las correcciones requeridas para los pesos de una red neuronal utilizando el vector de error. Podemos presentar la misma letra (así como diferentes imágenes de la misma letra) a la red neuronal muchas veces. En este sentido, aprender se parece más a repetir ejercicios en el deporte: entrenar.

Después de múltiples presentaciones de ejemplos, los pesos de KNN se estabilizan y KNN da respuestas correctas a todos (o casi todos) los ejemplos de la base de datos. En este caso, dicen que "la red ha aprendido todos los ejemplos", "la red neuronal está entrenada" o "la red está entrenada". En las implementaciones de software, se puede ver que durante el proceso de aprendizaje, la magnitud del error (la suma de los errores al cuadrado de todas las salidas) disminuye gradualmente. Cuando el error llega a cero o a un nivel pequeño aceptable, se detiene el entrenamiento y la red resultante se considera entrenada y lista para usar con nuevos datos.

Capacitación en red se divide en las siguientes etapas:

Inicialización de la red: a los pesos y sesgos de la red se les asignan pequeños valores aleatorios de los rangos y respectivamente.

Definición de un elemento del conjunto de entrenamiento: (<текущий вход>, <желаемый выход>). Las entradas actuales (x0, x1... xN-1) deben ser diferentes para todos los elementos del conjunto de entrenamiento. Cuando se utiliza un perceptrón multicapa como clasificador, la señal de salida deseada (d0, d1 ... dN-1) consta de ceros excepto un elemento unitario correspondiente a la clase a la que pertenece la señal de entrada actual.

Cálculo de la señal de salida actual: la señal de salida actual se determina de acuerdo con el esquema de operación tradicional de una red neuronal multicapa.

Ajuste de pesos sinápticos: el ajuste de pesos utiliza un algoritmo recursivo que primero se aplica a las neuronas de salida de la red y luego recorre la red hacia atrás hasta la primera capa. Los pesos sinápticos se ajustan según la fórmula:

,

donde w ij es el peso de la neurona i o del elemento de señal de entrada i a la neurona j en el momento t, x i " es la salida de la neurona i o el i-ésimo elemento de la señal de entrada, r es el paso de aprendizaje, g j es el valor de error para la neurona j. Si la neurona número j pertenece a la última capa, entonces

,

donde dj es la salida deseada de la neurona j, yj es la salida actual de la neurona j. Si la neurona número j pertenece a una de las capas desde la primera hasta la penúltima, entonces

,

donde k recorre todas las neuronas de la capa con un número uno mayor que aquella a la que pertenece la neurona j. Los sesgos externos de las neuronas b se ajustan de manera similar.

El modelo considerado se puede utilizar para el reconocimiento, clasificación y predicción de patrones. Ha habido intentos de construir sistemas expertos basados ​​en perceptrones multicapa con entrenamiento utilizando el método de retropropagación. Es importante señalar que toda la información que tiene la CNN sobre el problema está contenida en el conjunto de ejemplos. Por lo tanto, la calidad del entrenamiento QNN depende directamente de la cantidad de ejemplos en el conjunto de entrenamiento, así como de cuán completamente describen estos ejemplos. esta tarea. Una vez más, entrenar redes neuronales es un proceso complejo y que requiere mucho conocimiento. Los algoritmos de aprendizaje KNN tienen varios parámetros y configuraciones, cuya gestión requiere comprender su influencia.

3.1 Aplicación de Redes Neuronales Cuánticas. El significado del algoritmo de aprendizaje supervisado.

La clase de problemas que se pueden resolver utilizando una CNN está determinada por cómo funciona la red y cómo aprende. Durante la operación, el CNS acepta los valores de las variables de entrada y produce los valores de las variables de salida. Por lo tanto, la red se puede utilizar en una situación en la que se tiene cierta información conocida y se desea obtener de ella otra información aún desconocida (Patterson, 1996; Fausett, 1994). A continuación se muestran algunos ejemplos de tales tareas:

·Reconocimiento y clasificación de patrones.

Como imágenes pueden actuar objetos de diferente naturaleza: símbolos de texto, imágenes, muestras de sonido, etc. Al entrenar la red se ofrecen varias muestras de imágenes, indicando a qué clase pertenecen. Una muestra suele representarse como un vector de valores de características. En este caso, la totalidad de todas las características debe determinar inequívocamente la clase a la que pertenece la muestra. Si no hay suficientes funciones, la red puede asignar la misma muestra a varias clases, lo cual es incorrecto. Una vez que la red ha sido entrenada, se le pueden presentar imágenes previamente desconocidas y recibir una respuesta sobre la pertenencia a una determinada clase.

·Toma de decisiones y gestión

Esta tarea está cerca del problema de clasificación. Las situaciones cuyas características se reciben en la entrada del SNC están sujetas a clasificación. A la salida de la red debería aparecer una señal de la decisión que ha tomado. En este caso, se utilizan como señales de entrada varios criterios para describir el estado del sistema controlado.

· Agrupación

La agrupación se refiere a la división de un conjunto de señales de entrada en clases, a pesar de que ni el número ni las características de las clases se conocen de antemano. Después del entrenamiento, dicha red es capaz de determinar a qué clase pertenece la señal de entrada.

· Previsión

Después del entrenamiento, la red es capaz de predecir el valor futuro de una determinada secuencia en función de varios valores anteriores y/o algunos factores existentes actualmente. Cabe señalar que la previsión sólo es posible cuando los cambios anteriores en realidad, en cierta medida, predeterminan los futuros.

· Aproximación

Se ha demostrado un teorema de aproximación generalizada: utilizando operaciones lineales y una conexión en cascada, es posible obtener a partir de un elemento no lineal arbitrario un dispositivo que calcule cualquier función continua con una precisión predeterminada.

· Compresión de datos y memoria asociativa

La capacidad de las redes neuronales para identificar relaciones entre varios parámetros hace posible expresar datos de alta dimensión de manera más compacta si los datos están estrechamente interrelacionados entre sí. El proceso inverso (restaurar el conjunto de datos original a partir de un fragmento de información) se denomina memoria autoasociativa. La memoria asociativa también le permite restaurar la señal/imagen original a partir de datos de entrada ruidosos/dañados. Resolver el problema de la memoria heteroasociativa nos permite implementar una memoria direccionable por contenido.

Etapas de la resolución de problemas:

— recopilación de datos para la formación;

— preparación y normalización de datos;

— elección de la topología de la red;

— selección experimental de características de la red;

formación real;

— comprobar la idoneidad de la formación;

— ajuste de parámetros, entrenamiento final;

— verbalización de la red para su uso posterior.

Entonces, pasemos a la segunda condición importante para el uso de Redes Neuronales Cuánticas: debemos saber que existe una conexión entre los valores de entrada conocidos y las salidas desconocidas. Esta comunicación puede verse distorsionada por el ruido.

Como regla general, QNS se utiliza cuando el vista exacta conexiones entre entradas y salidas: si se conociera, entonces la conexión podría modelarse directamente. Otra característica importante de QNN es que la relación entre entrada y salida se encuentra durante el proceso de entrenamiento de la red. Para entrenar una CNN se utilizan dos tipos de algoritmos (diferentes tipos de redes utilizan diferentes tipos de entrenamiento): supervisado (“aprendizaje supervisado”) y no supervisado (“no supervisado”). El método más común utilizado es el aprendizaje supervisado.

Para el entrenamiento de red supervisado, el usuario debe preparar un conjunto de datos de entrenamiento. Estos datos son ejemplos de entradas y sus correspondientes salidas. La red aprende a establecer una conexión entre el primero y el segundo. Normalmente, los datos de entrenamiento se toman de datos históricos. Esto también podría incluir los valores de las acciones y el índice FTSE, información sobre prestatarios anteriores: sus datos personales y si cumplieron con éxito sus obligaciones, ejemplos de las posiciones del robot y su reacción correcta.

Luego, la CNN se entrena utilizando algún tipo de algoritmo de aprendizaje supervisado (el más conocido es la retropropagación de Rumelhart et al., 1986), que utiliza los datos disponibles para ajustar los pesos y umbrales de la red para minimizar el error de pronóstico en el conjunto de entrenamiento. Si una red está bien entrenada, adquiere la capacidad de modelar una función (desconocida) que relaciona los valores de las variables de entrada y salida, y dicha red se puede utilizar posteriormente para hacer predicciones en una situación en la que los valores de salida son desconocido.

3.2 Perceptrones de una y varias capas

3.2.1 Perceptrón monocapa. Educación

Históricamente, la primera red neuronal artificial capaz de percibir (percepción) y formar una reacción a un estímulo percibido fue perceptrón Rosenblatt (F.Rosenblatt, 1957). El término " perceptrón" viene del latín percepción, que significa percepción, cognición. El análogo ruso de este término es "Perceptrón". Su autor consideró el perceptrón no como un dispositivo informático técnico específico, sino como un modelo de función cerebral. Los trabajos modernos sobre redes neuronales artificiales rara vez persiguen ese objetivo.

El perceptrón clásico más simple contiene elementos de tres tipos (Fig. 5).

Arroz. 5. Perceptrón Rosenblatt elemental

Un perceptrón de una sola capa se caracteriza por una matriz de conexiones sinápticas ||W|| de elementos S a A. El elemento de matriz corresponde a la conexión que va del i-ésimo elemento S (filas) al j-ésimo elemento A (columnas). Esta matriz recuerda mucho a las matrices de frecuencias absolutas y contenidos de información formadas en el modelo de información semántica basado en la teoría de la información de sistemas.

Desde el punto de vista de la neuroinformática moderna, un perceptrón de una sola capa tiene un interés principalmente puramente histórico; sin embargo, con su ejemplo se pueden estudiar conceptos básicos y algoritmos simples para entrenar redes neuronales;

Entrenar una red neuronal clásica consiste en ajustar los coeficientes de ponderación de cada neurona.

F. Rosenblatt propuso un algoritmo de aprendizaje iterativo de 4 pasos, que consiste en ajustar una matriz de pesos que reduce consistentemente el error en los vectores de salida:

Paso 1: Se supone que los valores iniciales de los pesos de todas las neuronas son aleatorios.

Paso 2: La imagen de entrada x a se presenta a la red, lo que da como resultado una imagen de salida.

Paso 3: Se calcula el vector de error cometido por la red en la salida. Los vectores de coeficientes de ponderación se ajustan de tal manera que la cantidad de ajuste es proporcional al error en la salida y es igual a cero si el error es cero:

b solo se modifican los componentes de la matriz de pesos correspondientes a valores de entrada distintos de cero;

b el signo del incremento de peso corresponde al signo del error, es decir, un error positivo (el valor de salida es menor que el requerido) conduce a un aumento en la conexión;

b El aprendizaje de cada neurona se produce independientemente del aprendizaje de otras neuronas, lo que corresponde al principio de aprendizaje local, que es importante desde un punto de vista biológico.

Paso 4: los pasos 1 a 3 se repiten para todos los vectores de entrenamiento. Un ciclo de presentación secuencial de toda la muestra se llama época. El entrenamiento finaliza después de varias épocas si se cumple al menos una de las siguientes condiciones:

b cuando las iteraciones convergen, es decir, el vector de pesos deja de cambiar;

b cuando el error absoluto total sumado sobre todos los vectores llega a ser menor que un cierto valor pequeño.

3.2.2 Perceptrón multicapa. Entrenamiento de perceptrón multicapa

Esta es probablemente la arquitectura de red más utilizada en la actualidad. Fue propuesto por Rumelhart y McClelland (1986) y se analiza en detalle en casi todos los libros de texto sobre redes neuronales (ver, por ejemplo, Bishop, 1995). Cada elemento de la red construye una suma ponderada de sus entradas, ajustada como un término, y luego pasa este valor de activación a través de una función de transferencia para producir el valor de salida de ese elemento. Los elementos están organizados en una topología capa por capa con transmisión directa de señales. Una red de este tipo puede interpretarse fácilmente como un modelo de entrada-salida, en el que las ponderaciones y los umbrales (sesgos) son parámetros libres del modelo. Una red de este tipo puede modelar una función de casi cualquier grado de complejidad, y el número de capas y el número de elementos en cada capa determinan la complejidad de la función. Determinar el número de capas intermedias y el número de elementos que contienen es una cuestión importante a la hora de diseñar un perceptrón multicapa (Haykin, 1994; Bishop, 1995).

El número de elementos de entrada y salida está determinado por las condiciones del problema. Pueden surgir dudas sobre qué valores de entrada utilizar y cuáles no. Supondremos que las variables de entrada se eligen intuitivamente y que todas son significativas. La cuestión de cuántas capas intermedias y elementos utilizar en ellas aún no está del todo clara. Como aproximación inicial, podemos tomar una capa intermedia y establecer el número de elementos en ella igual a la mitad de la suma del número de elementos de entrada y salida. Nuevamente, discutiremos este tema con más detalle más adelante.

Un perceptrón multicapa es un sistema de reconocimiento entrenable que implementa una regla de decisión lineal, ajustada durante el proceso de aprendizaje, en el espacio de características secundarias, que generalmente son funciones de umbral lineales fijas y seleccionadas aleatoriamente de las características primarias.

Durante el entrenamiento, las señales de la muestra de entrenamiento se envían alternativamente a la entrada del perceptrón, así como instrucciones sobre la clase a la que se debe asignar esta señal. Entrenar el perceptrón consiste en corregir los pesos para cada error de reconocimiento, es decir, para cada caso de discrepancia entre la solución producida por el perceptrón y la clase verdadera. Si el perceptrón asignó incorrectamente una señal a una determinada clase, entonces los pesos de la función, la clase verdadera, aumentan y los pesos de la clase errónea disminuyen. En caso la decisión correcta todos los pesos permanecen sin cambios (Fig. 6.).

Arroz. 6. Perceptrón de doble capa

Ejemplo: Considere un perceptrón, es decir, un sistema con n canales de entrada y un canal de salida y. La salida de un perceptrón clásico es donde está la función de activación del perceptrón y los pesos de sintonización durante el proceso de entrenamiento. El algoritmo de entrenamiento del perceptrón funciona de la siguiente manera.

1. Los pesos se inicializan en pequeñas cantidades.

2. El vector de muestra representa el perceptrón y la salida y obtenida según la regla

3. Los pesos se actualizan de acuerdo con la regla donde t es el tiempo discreto y d es el resultado deseado producido para el entrenamiento y es el paso.

Comentario. Es poco probable que sea posible construir un análogo exacto de la función de activación no lineal F, como la función sigmoidea y otras funciones generales en redes neuronales, quizás para el caso cuántico.

3.3 Algoritmo de propagación hacia atrás

A mediados de la década de 1980, varios investigadores propusieron de forma independiente un algoritmo eficiente para entrenar perceptrones multicapa basado en calcular el gradiente de la función de error. El algoritmo se denominó "propagación hacia atrás".

El algoritmo de retropropagación es un algoritmo de aprendizaje de gradiente iterativo que se utiliza para minimizar la desviación estándar de la salida actual y la salida deseada de las redes neuronales multicapa.

En el neuroparadigma de "propagación hacia atrás", las funciones de transferencia sigmoideas se utilizan con mayor frecuencia, por ejemplo

Las funciones sigmoidales aumentan monótonamente y tienen derivadas distintas de cero en todo el dominio de definición. Estas características aseguran el correcto funcionamiento y aprendizaje de la red.

El funcionamiento de una red multicapa se realiza de acuerdo con las fórmulas:

donde s es la salida del sumador, w es el peso de la conexión, y es la salida de la neurona, b es el sesgo, i es el número de neuronas, N es el número de neuronas en la capa, m es el número de capa, L es el número de capas, f es la función de activación.

Método de propagación hacia atrás- una forma de calcular rápidamente el gradiente de la función de error.

El cálculo se realiza desde la capa de salida hasta la capa de entrada mediante fórmulas recurrentes y no requiere volver a calcular los valores de salida de las neuronas.

La retropropagación del error permite muchas veces reducir los costos computacionales del cálculo del gradiente en comparación con el cálculo mediante la determinación del gradiente. Conociendo el gradiente, se pueden aplicar muchos métodos de teoría de optimización que utilizan la primera derivada.

En el algoritmo de retropropagación, se calcula el vector gradiente de la superficie de error. Este vector indica la dirección del descenso más corto a lo largo de la superficie desde un punto determinado, por lo que si nos movemos “un poco” a lo largo de él el error disminuirá. Una secuencia de estos pasos (reducir la velocidad a medida que se acerca al final) eventualmente conducirá a un mínimo de un tipo u otro. Alguna dificultad Aquí está la cuestión de qué longitud de pasos tomar.

Por supuesto, con tal entrenamiento de una red neuronal no hay certeza de que haya aprendido de la mejor manera posible, ya que siempre existe la posibilidad de que el algoritmo caiga en un mínimo local (Fig. 7). Para ello, se utilizan técnicas especiales para "eliminar" la solución encontrada del extremo local. Si después de varias acciones de este tipo la red neuronal converge a la misma solución, entonces podemos concluir que la solución encontrada probablemente sea óptima.

Arroz. 7. Método de descenso de gradiente para minimizar el error de red.

3.4 Algoritmo genético. Problema clásico del viajante de comercio

Un algoritmo genético (GA) es capaz de sintonizar de manera óptima una CNN con una dimensión de espacio de búsqueda suficiente para resolver la mayoría de los problemas prácticos. Además, la gama de aplicaciones consideradas supera con creces las capacidades del algoritmo de retropropagación.

El procesamiento de información mediante un algoritmo genético utiliza dos mecanismos principales para seleccionar rasgos útiles, tomados de ideas modernas sobre la selección natural: mutaciones en una cadena separada y cruce entre dos cadenas. Consideremos estos mecanismos con más detalle (Tabla 5).

Tabla 5: Mutaciones y cruces

La figura muestra las sucesivas etapas del intercambio de información entre dos cadenas durante el cruce. Las nuevas cadenas resultantes (o una de ellas) pueden incluirse posteriormente en la población si el conjunto de características que definen da mejor valor función objetivo. De lo contrario, serán eliminados y sus antepasados ​​permanecerán en la población. Una mutación en la cadena genética es de naturaleza puntual: en algún punto aleatorio de la cadena, uno de los códigos es reemplazado por otro (cero por uno y uno por cero) | "www..

Desde el punto de vista de los sistemas artificiales de procesamiento de información, la búsqueda genética es un método específico para encontrar una solución a un problema de optimización. Además, dicha búsqueda iterativa se adapta a las características de la función objetivo: las cadenas nacidas en el proceso de cruce prueban áreas cada vez más amplias del espacio de características y se ubican predominantemente en la región óptima. Mutaciones relativamente raras impiden la degeneración del acervo genético, lo que equivale a una búsqueda rara pero interminable de lo óptimo en todas las demás áreas del espacio característico.

En los últimos diez años, se han desarrollado muchos métodos para el aprendizaje supervisado de CNN utilizando GA. Los resultados obtenidos demuestran las grandes posibilidades de tal simbiosis. El uso combinado de los algoritmos QNN y GA también tiene una ventaja ideológica porque pertenecen a los métodos de modelado evolutivo y se desarrollan en el marco del mismo paradigma de tecnología que toma prestados métodos y mecanismos naturales como los más óptimos.

Para simular el proceso evolutivo, primero generamos una población aleatoria: varios individuos con un conjunto aleatorio de cromosomas (vectores numéricos). El algoritmo genético simula la evolución de esta población como un proceso cíclico de cruce de individuos y cambio de generaciones (Fig. 8).

Arroz. 8. Algoritmo de cálculo Consideremos las ventajas y desventajas de los métodos estándar y genéticos usando el ejemplo. problema clásico Problema del viajante (TSP - problema del viajante). La esencia del problema es encontrar el camino cerrado más corto alrededor de varias ciudades dadas por sus coordenadas. Resulta que para ya 30 ciudades encontrar el camino óptimo es una tarea compleja, lo que ha impulsado el desarrollo de varios métodos nuevos (incluidas redes neuronales y algoritmos genéticos).

Complete el formulario con su trabajo actual

Ministerio de Educación y Ciencia Federación Rusa Institución educativa estatal de la región de Moscú Universidad Internacional de la Naturaleza, la Sociedad y el Hombre "Dubna" Tesis de maestría Tema Redes neuronales cuánticas en procesos de aprendizaje y gestión Estudiante Olga Aleksandrovna Afanasyeva Resumen Este trabajo está dedicado al análisis de redes neuronales cuánticas...

Tesis de maestría, ruso

tesis de maestría