Pensándolo bien...
Comprender los efectos cuánticos para incorporarlos a las herramientas usuales puede suponer un cambio cualitativo. La computación está llegando al límite imaginable de velocidad asociada a la miniaturización. Los procesadores y el entramado de comunicación entre los diversos dispositivos que constituyen un ordenador están al borde del límite alcanzable con la miniaturización. Los algoritmos hace tiempo que han agotado el ingenio simplificador del coste temporal y de recursos y van demandando nuevas estructuras y arquitecturas capaces de abordar problemas en los que la velocidad de cálculo resulta central.
Las redes neuronales son unos sistemas artificiales, supuestamente inspirados en la estructura neuronal del cerebro. Han llegado a ser herramientas esenciales para resolver tareas en las que fallan las herramientas más tradicionales basadas en algoritmos o reglas. Ejemplos que han logrado el éxito son: el reconocimiento de la voz, la inteligencia artificial en una de sus versiones y el análisis de lo que ha dado en denominarse macrodatos (o el barbarismo abrazado, big data). Pero todas las redes neuronales que se han empleado en estas áreas se basan en las leyes de la Física Clásica. Hay una creencia, fundada, de que la computación cuántica puede incidir en este mundo en que la velocidad no es capricho, sino necesidad, que la imponen muchos problemas todavía sin resolver. Los trabajos de Shor y Grover son alardes de ingenio que ponen a las claras como se pueden concebir algoritmos cuánticos que superan a los equivalentes clásicos. En todo caso, la concepción de arquitecturas cuánticas está ocupando la mayor parte de la investigación que tiene que superar la dificultad que representa la decoherencia, que es la bestia negra del manejo de los estados entrelazados en los que se basan los algoritmos cuánticos. Emplear estados cuánticos entrelazados y que estén suficientemente aislados como para que se pueda mantener el entrelazamiento es un reto de la ingeniería, más que de la Ciencia. Poco a poco se van materializando máquinas de unos pocos qubits que hacen albergar la esperanza de lograr hacer realidad la computación cuántica.
El algoritmo de Shor abordó la factorización de números enteros haciendo uso del entrelazamiento cuántico, con lo que, el requerimiento exponencial de cálculo, se convirtió en polinómico. Se ha implementado en pequeños ordenadores cuánticos de 11 qubits basado en iones atrapados como sustentación física de los estados entrelazados. Hay otras muchas posibilidades de lograrlo. Las denominadas máquinas D-wave, proyecto de computador cuántico de Google y la NASA, trabaja a temperaturas de milikelvin, para que los materiales se comporten como superconductores. Utiliza los qubits, basados en el entrelazamiento cuántico y las especiales características de los espines a nivel atómico. La versión más reciente en desarrollo alcanza más de 1000 qubits. El procesador que usa es de semiconductores y la baja temperatura, hasta 15 milikelvin, minimiza las interferencias entre estados. Una de las versiones, la denominada D-wave 2x procesa unas 600 veces más rápido que los ordenadores convencionales. La potencia de este tipo de ordenadores crece exponencialmente con el número de partículas que se agrega al entrelazamiento. El momento actual es ese, tan crítico, en el que permanecen sin resolver todavía, problemas que oscurecen el logro. No hay suficientes algoritmos matemáticos para las máquinas cuánticas, ya que los algoritmos convencionales no son de aplicación. La programación de los computadores cuánticos hay que reformularla. Estamos casi en pañales en esta parcela. A finales del año pasado, IBM presentó un ordenador cuántico de 50 qubits. Muy poco antes, Lukin, un físico de Harvard, había presentado un computador cuántico de 51 qubits. El tiempo de coherencia del ordenador de IBM se estableció en 90 segundos, lo que quiere decir que dispone de ese tiempo para efectuar cálculos u operaciones complejas, antes de que la decoherencia imposibilite calcular. IBM anunció que ponía en la nube, a disposición de sus clientes, un ordenador cuántico de 20 qubits a finales de 2017. Comienza a dispararse la carrera, donde el uso a nivel de experiencia ya es posible. Cirac, miembro de la Academia de Ciencias de la Región de Murcia y acreditado físico del Instituto Max Planck en esta área, opina que es necesario mejorar el aislamiento de los ordenadores cuánticos, de forma que se logre eliminar las interacciones que inciden en el entrelazamiento, que es la pieza clave de la herramienta.
Estas máquinas ya han evidenciado que son capaces, suficientemente veloces, para abordar los denominados problemas duros NP, que son aquellos problemas de decisión que, en el marco de la teoría de la complejidad computacional, suponen que un problema H tiene un problema L que puede ser transformado polinomialmente en H, es decir, que podemos encontrar un algoritmo A, que trabajen en tiempo polinómico ejecutando primero la reducción del problema H y luego extendiendo la aplicación del algoritmo A. Pese a que el control preciso de muchos qubits no es trivial y el problema de la escalabilidad sigue presente y la velocidad alcanzable, todavía está sometida a debate, representan una esperanza de lograr computadores capaces de procesar grandes cantidades de información.
Una de las aplicaciones de mayor interés son las redes neuronales. Hay muy pocos ejemplos de análisis de la incidencia de la computación cuántica sobre la capacidad de aprendizaje de modelos de “preceptron” cuánticos. De hecho, hay auténticos problemas de tipo conceptual a superar: la dinámica de los sistemas cuánticos cerrados está gobernada por ecuaciones de evolución temporal deterministas, mientras que las redes neuronales están descritas por ecuaciones dinámicas disipativas, lo que impide la generalización directa del cálculo con redes neuronales en sistemas cuánticos. Una propuesta ha consistido en formular un marco para las redes neuronales cuánticas, basadas en sistemas cuánticos abiertos. El caso más simple es incluir la dinámica markoviana en la que la evolución de la matriz densidad se describe mediante la ecuación de Lindblad, como proponen Rotondo y col.
Originalmente las redes neuronales de Hopfield, derivan del tratamiento de Ising de los espines atómicos, para explicar el magnetismo de los materiales. La Naturaleza tiende a minimizar la energía potencial. Ising se planteó el interrogante de cómo se comporta la energía de interacción entre átomos. Si cambia el espín total de un átomo, ¿cómo afecta a los vecinos? Formuló el modelo más simple posible: el espín de un átomo afecta al vecino más próximo. Ahora bien, la interacción la estableció en términos de unas reglas, enteramente cuánticas, ya que si coinciden los espines de dos átomos contiguos, la energía de interacción es menor (como correspondería a un estado triplete), mientras que si discrepan (están apareados) la energía de interacción es mayor (como correspondería a un estado singlete). La representación matemática de este simple modelo es el producto de los espines atómicos. Finalmente, Ising introdujo una expresión explícita para la energía de interacción, consistente en E= - J Si Si Si+1, siendo Si el espín del átomo i y Si+1 el espín del átomo más cercano. Si todos los espines concuerdan, la energía de interacción, E, será elevada. J especifica la energía de interacción. Cuanto mayor sea J, mayor energía de interacción entre espines. Por ejemplo, si J = 0.1 y Si Si Si+1 = 400, la energía de interacción será 40. En todo caso si hay concordancia de espines (tienen el mismo signo), Si Si Si+1 > 0, E= - J Si Si Si+1 < 0 y la energía de interacción hace disminuir la energía total, mientras que si Si Si Si+1 < 0, es decir hay discordancia de espines, entonces E= - J Si Si Si+1 > 0 y hay un crecimiento debido a la energía de interacción. Ahora bien, debido a la discrepancia de los espines, los campos magnéticos decrecen por la concordancia de espines de los átomos que quedan anuladas y el metal no tiene un comportamiento magnético. En cambio, si hay muchos espines concordantes el efecto acumulativo de los campos magnéticos se suma, como consecuencia la energía disminuye, como corresponde a los espines alineados y la materia tendrá campo magnético, es decir se comporta como un imán y la energía potencial se ha minimizado. Cuando los átomos de hierro se alinean, el material se magnetiza y adquiere propiedades que rotulan al material como ferromagnético. La clave del modelo de Ising viene a dictar desde la Cuántica si el material se convierte en un imán o no.
Este modelo de Ising del ferromagnetismo es el que conduce al modelo neurológico de Hopfield. Partió de un circuito clásico neuronal y reinterpretó el modelo de Ising pero introduciendo el concepto de interacciones comunicativas entre neuronas cerebrales, lo que Ising interpretaba como interacciones entre los espines. Su objetivo fue obedecer a unas reglas simples para almacenar información aprendida, que pudiese almacenarse y recuperarse. Introdujo un elemento diferencial que fueron las “islas locales de espines”, correlacionadas como configuraciones responsables de la memoria. Para la comunicación entre neuronas supuso “disparos” que pueden ser liberación de neurotransmisores en las sinapsis que las conectan. Hopfield simplificó la transmisión, asignando una fuerza de interacción entre dos neuronas (lo equivalente a la J de Ising). En Ising los espines interaccionan con los espines vecinos inmediatos. El papel de los espines de Ising, en el modelo de Hopfield son los disparos. Si el estado de la neurona es +1 es que ha disparado una señal eléctrica y si es -1, no la ha disparado. La ecuación de Hopfield para la energía de interacción es muy similar a la de Ising y emplea la misma matemática: dos neuronas que disparan o no al unísono, incrementan el estado de conexión y en el caso opuesto, reducen la conexión. La variable de espín, Si, se traslada a la variable neurona, ni y la energía de interacción se escribe ahora como E= Si wij ni nj. Es decir, en lugar del término J para el cambio de estado de cualquier par de neuronas, se introduce wij, uno para cada par (por lo tanto, podrían ser diferentes para todos los pares). Este elemento de ponderación dicta la intensidad de la comunicación de una neurona i con una neurona j vecina siendo, por tanto, una medida de la eficacia de la sinapsis entre ambas. El objetivo de Hopfield es establecer las fuerzas de conexión. Hay limitaciones derivadas de que la analogía con la memoria humana es, relativamente débil. La memoria humana es más compleja que la de un material “magnetizado”. Las personas están vivas y ejercen un control sobre los procesos, consciente o no. Pero la utilidad de las redes neuronales es que pueden recordar. Se han formulado, tras Hopfield, muchas modificaciones del modelo. En la red de Hopfield se le muestra a la red neuronal lo que han de aprender para entrenar las sinapsis e identificar los patrones, las pautas y las denominadas redes no supervisadas se entrenan por si solas para aprender nuevos recuerdos. El eje de aplicación es el tratamiento de gran cantidad de datos sin categorías preexistentes obvias. La red adquiere inteligencia que identifica las clases naturales en las que encuadrar los datos. El modelo de Hopfiel es un ejemplo clásico de translación de conceptos de un campo a otro, del ferromagnetismo a la memoria asociativa.
Hopfield introdujo las redes neuronales como un modelo de juegos de memoria asociativa. En el patrón de memoria del cerebro humano, se supone que se recupera la información a través de la asociación. Supone que, cuando un patrón suficientemente similar a uno de los almacenados se le presenta a una red neuronal, el sistema es capaz de recuperar el patrón correcto, por la vía de recuperación clásica. Los dos elementos clave para hacer esto son: a) una dinámica sobre un sistema de N espines binarios (si = ± 1, i Î (1,N) que representa la actividad neuronal (+1 disparo, -1 silencio), b) un acoplamiento wij, que conecta la neurona i-ésima con la j-ésima, que debe ser capaz de almacenar la serie de p patrones de memorias diferentes, xi(µ). (es decir configuraciones de espines concretas) con i Î (1,N), µ Î (1,p). Memoria recuperable significa una fase en la que la dinámica dirige al sistema hacia configuraciones que están próximas a una dada. En el marco de los sistemas cuánticos abiertos se puede estudiar la competición entre los efectos cuánticos y térmicos. En particular una neurona puede cambiar su estado de actividad a una velocidad Gi± , como en el modelo clásico o sufrir un cambio de estado cuántico debido a la coherencia como directriz, de forma que puede describir la dinámica incluyendo la descripción clásica, es decir, estados estacionarios correspondientes al equilibrio térmico. Los patrones de memoria se almacenan como mínimos de energía de la función energía frente a la función de neurona (en Ising de espín). Cuando la red neuronal se ha inicializado suficientemente próxima a un patrón almacenado en la memoria se puede recuperar el patrón almacenado correspondiente. De haber presentes efectos cuánticos, la naturaleza de los estados no es trivial debido a la competencia establecida entre la coherencia cuántica y la dinámica clásica irreversible. En todo caso, la técnica empleada en la Física estadística de sistemas desordenados permite investigar las redes neuronales de Hopfield cuantitativamente. En el lenguaje de la Física estadística, la fase de recuperación es la fase de temperatura, correspondiente al ámbito en que los patrones de memoria son estados estables de las redes neuronales, es decir, los estados estacionarios de equilibrio.
Al incluir los efectos cuánticos, mediante una generalización a sistemas cuánticos abiertos del modelo de memoria asociativa, es decir el modelo de Hopfield, al igual que en el caso clásico es posible usar un tratamiento del campo promedio(análogo del campo autoconsistente de la Mecánica Cuántica convencional, SCF) para determinar los diagramas de fases. Se identifica la fase de recuperación con puntos fijos asociados a os patrones clásicos y los efectos cuánticos se incorporan mediante la inclusión de una temperatura efectiva. Como evidencia Rotondo y col. hacen notar la existencia de una nueva fase caracterizada por ciclos límite, consecuencia de la conducción cuántica del proceso. En realidad, se trata de una extensión natural del paradigma de las redes neuronales al dominio de los sistemas cuánticos abiertos.
Una de las áreas especialmente interesantes de la computación es la relacionada con las redes neuronales. El impacto de los efectos cuánticos se revela decisivo. Es muy interesante implementar la dinámica de las redes neuronales en términos de sistemas cuánticos abiertos markovianos, que permite un tratamiento adecuado de los efectos térmicos y los coherentes cuánticos en pie de igualdad. En particular, la red neuronal de Hopfield se puede generalizar a un sistema cuántico abierto para modelar la memoria asociativa. Las fluctuaciones cuánticas dan lugar a una nueva fase cualitativa de no equilibrio. Esta fase se caracteriza por ciclos límite correspondientes a la estacionariedad multidimensional que viene a suponer una generalización de patrones clásicos de almacenamiento al dominio cuántico. Se abre una perspectiva nueva, profunda e interesante que promete interesar al campo de tratamiento de la información mediante redes neuronales, incorporando elementos cuánticos. La computación cuántica requiere algoritmos apropiados para la herramienta. Este es un camino abierto, que hay que recorrer.
Las redes neuronales son unos sistemas artificiales, supuestamente inspirados en la estructura neuronal del cerebro. Han llegado a ser herramientas esenciales para resolver tareas en las que fallan las herramientas más tradicionales basadas en algoritmos o reglas. Ejemplos que han logrado el éxito son: el reconocimiento de la voz, la inteligencia artificial en una de sus versiones y el análisis de lo que ha dado en denominarse macrodatos (o el barbarismo abrazado, big data). Pero todas las redes neuronales que se han empleado en estas áreas se basan en las leyes de la Física Clásica. Hay una creencia, fundada, de que la computación cuántica puede incidir en este mundo en que la velocidad no es capricho, sino necesidad, que la imponen muchos problemas todavía sin resolver. Los trabajos de Shor y Grover son alardes de ingenio que ponen a las claras como se pueden concebir algoritmos cuánticos que superan a los equivalentes clásicos. En todo caso, la concepción de arquitecturas cuánticas está ocupando la mayor parte de la investigación que tiene que superar la dificultad que representa la decoherencia, que es la bestia negra del manejo de los estados entrelazados en los que se basan los algoritmos cuánticos. Emplear estados cuánticos entrelazados y que estén suficientemente aislados como para que se pueda mantener el entrelazamiento es un reto de la ingeniería, más que de la Ciencia. Poco a poco se van materializando máquinas de unos pocos qubits que hacen albergar la esperanza de lograr hacer realidad la computación cuántica.
El algoritmo de Shor abordó la factorización de números enteros haciendo uso del entrelazamiento cuántico, con lo que, el requerimiento exponencial de cálculo, se convirtió en polinómico. Se ha implementado en pequeños ordenadores cuánticos de 11 qubits basado en iones atrapados como sustentación física de los estados entrelazados. Hay otras muchas posibilidades de lograrlo. Las denominadas máquinas D-wave, proyecto de computador cuántico de Google y la NASA, trabaja a temperaturas de milikelvin, para que los materiales se comporten como superconductores. Utiliza los qubits, basados en el entrelazamiento cuántico y las especiales características de los espines a nivel atómico. La versión más reciente en desarrollo alcanza más de 1000 qubits. El procesador que usa es de semiconductores y la baja temperatura, hasta 15 milikelvin, minimiza las interferencias entre estados. Una de las versiones, la denominada D-wave 2x procesa unas 600 veces más rápido que los ordenadores convencionales. La potencia de este tipo de ordenadores crece exponencialmente con el número de partículas que se agrega al entrelazamiento. El momento actual es ese, tan crítico, en el que permanecen sin resolver todavía, problemas que oscurecen el logro. No hay suficientes algoritmos matemáticos para las máquinas cuánticas, ya que los algoritmos convencionales no son de aplicación. La programación de los computadores cuánticos hay que reformularla. Estamos casi en pañales en esta parcela. A finales del año pasado, IBM presentó un ordenador cuántico de 50 qubits. Muy poco antes, Lukin, un físico de Harvard, había presentado un computador cuántico de 51 qubits. El tiempo de coherencia del ordenador de IBM se estableció en 90 segundos, lo que quiere decir que dispone de ese tiempo para efectuar cálculos u operaciones complejas, antes de que la decoherencia imposibilite calcular. IBM anunció que ponía en la nube, a disposición de sus clientes, un ordenador cuántico de 20 qubits a finales de 2017. Comienza a dispararse la carrera, donde el uso a nivel de experiencia ya es posible. Cirac, miembro de la Academia de Ciencias de la Región de Murcia y acreditado físico del Instituto Max Planck en esta área, opina que es necesario mejorar el aislamiento de los ordenadores cuánticos, de forma que se logre eliminar las interacciones que inciden en el entrelazamiento, que es la pieza clave de la herramienta.
Estas máquinas ya han evidenciado que son capaces, suficientemente veloces, para abordar los denominados problemas duros NP, que son aquellos problemas de decisión que, en el marco de la teoría de la complejidad computacional, suponen que un problema H tiene un problema L que puede ser transformado polinomialmente en H, es decir, que podemos encontrar un algoritmo A, que trabajen en tiempo polinómico ejecutando primero la reducción del problema H y luego extendiendo la aplicación del algoritmo A. Pese a que el control preciso de muchos qubits no es trivial y el problema de la escalabilidad sigue presente y la velocidad alcanzable, todavía está sometida a debate, representan una esperanza de lograr computadores capaces de procesar grandes cantidades de información.
Una de las aplicaciones de mayor interés son las redes neuronales. Hay muy pocos ejemplos de análisis de la incidencia de la computación cuántica sobre la capacidad de aprendizaje de modelos de “preceptron” cuánticos. De hecho, hay auténticos problemas de tipo conceptual a superar: la dinámica de los sistemas cuánticos cerrados está gobernada por ecuaciones de evolución temporal deterministas, mientras que las redes neuronales están descritas por ecuaciones dinámicas disipativas, lo que impide la generalización directa del cálculo con redes neuronales en sistemas cuánticos. Una propuesta ha consistido en formular un marco para las redes neuronales cuánticas, basadas en sistemas cuánticos abiertos. El caso más simple es incluir la dinámica markoviana en la que la evolución de la matriz densidad se describe mediante la ecuación de Lindblad, como proponen Rotondo y col.
Originalmente las redes neuronales de Hopfield, derivan del tratamiento de Ising de los espines atómicos, para explicar el magnetismo de los materiales. La Naturaleza tiende a minimizar la energía potencial. Ising se planteó el interrogante de cómo se comporta la energía de interacción entre átomos. Si cambia el espín total de un átomo, ¿cómo afecta a los vecinos? Formuló el modelo más simple posible: el espín de un átomo afecta al vecino más próximo. Ahora bien, la interacción la estableció en términos de unas reglas, enteramente cuánticas, ya que si coinciden los espines de dos átomos contiguos, la energía de interacción es menor (como correspondería a un estado triplete), mientras que si discrepan (están apareados) la energía de interacción es mayor (como correspondería a un estado singlete). La representación matemática de este simple modelo es el producto de los espines atómicos. Finalmente, Ising introdujo una expresión explícita para la energía de interacción, consistente en E= - J Si Si Si+1, siendo Si el espín del átomo i y Si+1 el espín del átomo más cercano. Si todos los espines concuerdan, la energía de interacción, E, será elevada. J especifica la energía de interacción. Cuanto mayor sea J, mayor energía de interacción entre espines. Por ejemplo, si J = 0.1 y Si Si Si+1 = 400, la energía de interacción será 40. En todo caso si hay concordancia de espines (tienen el mismo signo), Si Si Si+1 > 0, E= - J Si Si Si+1 < 0 y la energía de interacción hace disminuir la energía total, mientras que si Si Si Si+1 < 0, es decir hay discordancia de espines, entonces E= - J Si Si Si+1 > 0 y hay un crecimiento debido a la energía de interacción. Ahora bien, debido a la discrepancia de los espines, los campos magnéticos decrecen por la concordancia de espines de los átomos que quedan anuladas y el metal no tiene un comportamiento magnético. En cambio, si hay muchos espines concordantes el efecto acumulativo de los campos magnéticos se suma, como consecuencia la energía disminuye, como corresponde a los espines alineados y la materia tendrá campo magnético, es decir se comporta como un imán y la energía potencial se ha minimizado. Cuando los átomos de hierro se alinean, el material se magnetiza y adquiere propiedades que rotulan al material como ferromagnético. La clave del modelo de Ising viene a dictar desde la Cuántica si el material se convierte en un imán o no.
Este modelo de Ising del ferromagnetismo es el que conduce al modelo neurológico de Hopfield. Partió de un circuito clásico neuronal y reinterpretó el modelo de Ising pero introduciendo el concepto de interacciones comunicativas entre neuronas cerebrales, lo que Ising interpretaba como interacciones entre los espines. Su objetivo fue obedecer a unas reglas simples para almacenar información aprendida, que pudiese almacenarse y recuperarse. Introdujo un elemento diferencial que fueron las “islas locales de espines”, correlacionadas como configuraciones responsables de la memoria. Para la comunicación entre neuronas supuso “disparos” que pueden ser liberación de neurotransmisores en las sinapsis que las conectan. Hopfield simplificó la transmisión, asignando una fuerza de interacción entre dos neuronas (lo equivalente a la J de Ising). En Ising los espines interaccionan con los espines vecinos inmediatos. El papel de los espines de Ising, en el modelo de Hopfield son los disparos. Si el estado de la neurona es +1 es que ha disparado una señal eléctrica y si es -1, no la ha disparado. La ecuación de Hopfield para la energía de interacción es muy similar a la de Ising y emplea la misma matemática: dos neuronas que disparan o no al unísono, incrementan el estado de conexión y en el caso opuesto, reducen la conexión. La variable de espín, Si, se traslada a la variable neurona, ni y la energía de interacción se escribe ahora como E= Si wij ni nj. Es decir, en lugar del término J para el cambio de estado de cualquier par de neuronas, se introduce wij, uno para cada par (por lo tanto, podrían ser diferentes para todos los pares). Este elemento de ponderación dicta la intensidad de la comunicación de una neurona i con una neurona j vecina siendo, por tanto, una medida de la eficacia de la sinapsis entre ambas. El objetivo de Hopfield es establecer las fuerzas de conexión. Hay limitaciones derivadas de que la analogía con la memoria humana es, relativamente débil. La memoria humana es más compleja que la de un material “magnetizado”. Las personas están vivas y ejercen un control sobre los procesos, consciente o no. Pero la utilidad de las redes neuronales es que pueden recordar. Se han formulado, tras Hopfield, muchas modificaciones del modelo. En la red de Hopfield se le muestra a la red neuronal lo que han de aprender para entrenar las sinapsis e identificar los patrones, las pautas y las denominadas redes no supervisadas se entrenan por si solas para aprender nuevos recuerdos. El eje de aplicación es el tratamiento de gran cantidad de datos sin categorías preexistentes obvias. La red adquiere inteligencia que identifica las clases naturales en las que encuadrar los datos. El modelo de Hopfiel es un ejemplo clásico de translación de conceptos de un campo a otro, del ferromagnetismo a la memoria asociativa.
Hopfield introdujo las redes neuronales como un modelo de juegos de memoria asociativa. En el patrón de memoria del cerebro humano, se supone que se recupera la información a través de la asociación. Supone que, cuando un patrón suficientemente similar a uno de los almacenados se le presenta a una red neuronal, el sistema es capaz de recuperar el patrón correcto, por la vía de recuperación clásica. Los dos elementos clave para hacer esto son: a) una dinámica sobre un sistema de N espines binarios (si = ± 1, i Î (1,N) que representa la actividad neuronal (+1 disparo, -1 silencio), b) un acoplamiento wij, que conecta la neurona i-ésima con la j-ésima, que debe ser capaz de almacenar la serie de p patrones de memorias diferentes, xi(µ). (es decir configuraciones de espines concretas) con i Î (1,N), µ Î (1,p). Memoria recuperable significa una fase en la que la dinámica dirige al sistema hacia configuraciones que están próximas a una dada. En el marco de los sistemas cuánticos abiertos se puede estudiar la competición entre los efectos cuánticos y térmicos. En particular una neurona puede cambiar su estado de actividad a una velocidad Gi± , como en el modelo clásico o sufrir un cambio de estado cuántico debido a la coherencia como directriz, de forma que puede describir la dinámica incluyendo la descripción clásica, es decir, estados estacionarios correspondientes al equilibrio térmico. Los patrones de memoria se almacenan como mínimos de energía de la función energía frente a la función de neurona (en Ising de espín). Cuando la red neuronal se ha inicializado suficientemente próxima a un patrón almacenado en la memoria se puede recuperar el patrón almacenado correspondiente. De haber presentes efectos cuánticos, la naturaleza de los estados no es trivial debido a la competencia establecida entre la coherencia cuántica y la dinámica clásica irreversible. En todo caso, la técnica empleada en la Física estadística de sistemas desordenados permite investigar las redes neuronales de Hopfield cuantitativamente. En el lenguaje de la Física estadística, la fase de recuperación es la fase de temperatura, correspondiente al ámbito en que los patrones de memoria son estados estables de las redes neuronales, es decir, los estados estacionarios de equilibrio.
Al incluir los efectos cuánticos, mediante una generalización a sistemas cuánticos abiertos del modelo de memoria asociativa, es decir el modelo de Hopfield, al igual que en el caso clásico es posible usar un tratamiento del campo promedio(análogo del campo autoconsistente de la Mecánica Cuántica convencional, SCF) para determinar los diagramas de fases. Se identifica la fase de recuperación con puntos fijos asociados a os patrones clásicos y los efectos cuánticos se incorporan mediante la inclusión de una temperatura efectiva. Como evidencia Rotondo y col. hacen notar la existencia de una nueva fase caracterizada por ciclos límite, consecuencia de la conducción cuántica del proceso. En realidad, se trata de una extensión natural del paradigma de las redes neuronales al dominio de los sistemas cuánticos abiertos.
Una de las áreas especialmente interesantes de la computación es la relacionada con las redes neuronales. El impacto de los efectos cuánticos se revela decisivo. Es muy interesante implementar la dinámica de las redes neuronales en términos de sistemas cuánticos abiertos markovianos, que permite un tratamiento adecuado de los efectos térmicos y los coherentes cuánticos en pie de igualdad. En particular, la red neuronal de Hopfield se puede generalizar a un sistema cuántico abierto para modelar la memoria asociativa. Las fluctuaciones cuánticas dan lugar a una nueva fase cualitativa de no equilibrio. Esta fase se caracteriza por ciclos límite correspondientes a la estacionariedad multidimensional que viene a suponer una generalización de patrones clásicos de almacenamiento al dominio cuántico. Se abre una perspectiva nueva, profunda e interesante que promete interesar al campo de tratamiento de la información mediante redes neuronales, incorporando elementos cuánticos. La computación cuántica requiere algoritmos apropiados para la herramienta. Este es un camino abierto, que hay que recorrer.
© 2023 Academia de Ciencias de la Región de Murcia