La historia y los posibles casos de uso de la tecnología derivada cuántica
Autor: Daniel García Solla

Foto de Eilis Garvey en Unsplash
Introducción
En los últimos años, la tasa de miniaturización del hardware informático de uso general ha sido limitada debido a los avances técnicos exponenciales en la estructura de componentes, la eficiencia, la velocidad y las mejoras de calidad. Estos cambios fueron y son alentados principalmente por las necesidades sociales surgidas de comunicación, ocio digital, escape de la vida real y sus problemas, y trabajo remoto debido a una situación particular de pandemia.
Por lo tanto, una vez que una necesidad ha llevado a la ciencia y la técnica al límite, comenzamos a encontrar un límite físico insuperable, el átomo. Además, la incapacidad de reducir aún más el tamaño de los dispositivos de procesamiento clásicos ha extendido la creencia de que la tendencia que respalda la ley de Moore se aplanará en las próximas décadas, ya que el trabajo del ingeniero será mucho más complicado al construir mecanismos tan pequeños. Para comprender adecuadamente lo que esto significa y por qué va a suceder, la magnitud más pequeña de un transistor, el bloque de construcción más fundamental de la computación clásica, es de aproximadamente 2 nanómetros. Eso significa que el virus más pequeño que se encuentra en la tierra es diez veces más grande que el transistor más pequeño incrustado en una CPU. Sabiendo eso, es conveniente tener en cuenta que el diámetro de un átomo oscila entre 0,1 y 0,5 nanómetros, que es una distancia increíblemente cercana a la que nos estamos acercando cuando producimos tecnología de alta gama.

Foto de Brian Kostiuk en Unsplash
Las restricciones de tamaño no solo impiden que las CPU tengan más transistores y, por lo tanto, más potencia computacional, sino que también las excluyen de ser baratas o fáciles de construir y reparar debido a su extraordinaria complejidad. Además, incluso si pudiéramos diseñar una CPU que sea un millón de veces más potente que la actual, sería de poca utilidad si requiriera un millón de veces más energía para funcionar, introduciendo nuevos problemas a considerar. Entonces, una solución propuesta por muchos expertos mundiales en ciencias de la computación, física, electrónica y matemáticas es construir una llamada “computadora cuántica”. Sin embargo, esta idea de cuantificar las reglas clásicas no es tan contemporánea como parece. La primera persona en presentarlo fue Paul Benioff, un notorio físico estadounidense ampliamente considerado el padre de la computación cuántica. En su artículo de 1981 “The Computer as a Physical System”, propuso la idea de una “máquina cuántica de Turing” que utilizaría los principios de la mecánica cuántica para realizar la computación. Sin embargo, no fue hasta 1995 que los investigadores del NIST Christopher Monroe y David Wineland realizaron experimentalmente la primera puerta lógica cuántica, la puerta controlada-NOT (C-NOT), que condujo a la creación de la primera computadora cuántica de RMN (resonancia magnética nuclear) de 2 qubits en 1998.
Después de pasar más de dos décadas desarrollando nuevos enfoques para la realización experimental de puertas lógicas cuánticas y demostrando su viabilidad en el laboratorio, los equipos científicos de todo el mundo han construido con éxito procesadores cuánticos en varias plataformas cuánticas, que van desde iones atrapados hasta circuitos superconductores. Además, su rápido crecimiento también ha hecho de la computación cuántica una opción viable para resolver algunos de los problemas más desafiantes que enfrenta la humanidad. Sin embargo, el poco tiempo que ha existido este campo ha jugado en su desventaja. Muchos desarrolladores de hardware, investigadores y físicos que han soñado con actualizar este mundo se han enfrentado a una gran cantidad de obstáculos y contratiempos; la mayoría de ellos se originaron a partir de los conocimientos específicos necesarios para comprender los principios de funcionamiento de una forma diferente de manejar elementos físicos para generar hardware funcional aplicable en la industria. Por lo tanto, es probable que la relación entre los no expertos y la tecnología cuántica sea una en la que el primer grupo busque en el segundo posibles soluciones a los problemas, entendiendo que puede haber una gran dificultad en la implementación de estas ideas.
Por lo tanto, estas rápidas progresiones resultan en una prominente falta de conciencia por parte del público en general, a veces abrumado por su contraste con la aparente simplicidad de la tecnología antigua del siglo 20 o anterior. Además de los efectos adversos a largo plazo en ciertos grupos de personas que actualmente se están quedando atrás cuando se trata de educación tecnológica, cada vez hay más problemas relacionados con su impacto en el planeta, el medio ambiente y, por lo tanto, todos nosotros. Lanzar productos tan avanzados como los que tenemos en el mercado, no solo en electrónica o computación sino en todos los ámbitos, implica el gasto de una gran cantidad de recursos y la producción de residuos, lo que puede tener graves consecuencias para nuestro bienestar físico. Dado que no podremos resolver completamente este problema en un corto período de tiempo, debemos aprovechar las ideas, proyectos, innovaciones y la voluntad de las personas de hoy para lograr una forma de existencia sostenible.
Objetivo
Este artículo tiene como objetivo explicar los fundamentos de la mecánica cuántica, la computación cuántica y su combinación con el aprendizaje automático lo más simple posible, proporcionando una visión general de esos campos de investigación para resolver la pregunta propuesta en el título “¿Puede el aprendizaje automático cuántico ayudarnos a resolver el cambio climático?” . Al hacerlo, podemos aumentar el conocimiento y la confianza de la sociedad en estas herramientas distantes y disruptivas, suponiendo una excelente oportunidad para aprender, contribuir y crear conciencia sobre sus posibles casos de uso, principalmente en el ámbito del cuidado del medio ambiente. Además, reducir los conceptos avanzados inextricables vinculados al lenguaje y las matemáticas a algo más familiar también proporciona una puerta de entrada a nuevos estudios y experimentación, esenciales para mantener una tasa de progresión tecnológica intensiva sin causar un inconveniente a otros aspectos de la sociedad.
Como las posibilidades son infinitas cuando se trata de un campo tan necesario para investigar como la mecánica cuántica, tener una comprensión de lo básico nos obliga a adaptar el marco mental con el que concebimos el conocimiento y nos da una comprensión más profunda del universo en el que vivimos.
Conceptos básicos
Historia:
Antes de saltar directamente a los conceptos de computación cuántica, necesitamos comprender los principios físicos que subyacen y respaldan su hardware. Primero, descubramos la historia de cómo comenzó a estudiarse. A principios del siglo 20, la física consistía en tres componentes destacados, la mecánica de Newton, la electrodinámica de Maxwell y la termodinámica de Clausius-Boltzmann. Juntas, cada una de estas ramas del conocimiento conformaba una explicación completa de los fenómenos conocidos que se consideraba “física clásica” debido a su naturaleza determinista. Sin embargo, cuando se trataba de modelar los aspectos más fundamentales de la materia como los espectros atómicos, o situaciones cercanas a la velocidad de la luz, incurrió en intensas contradicciones, que más tarde condujeron a la Teoría de la Relatividad de Einstein. A pesar de esto, los científicos siguieron buscando una teoría física unificada que pudiera describir consistentemente todos los fenómenos naturales a través de numerosos experimentos. Algunos de ellos inevitablemente nos llevaron a la mecánica cuántica que conocemos hoy.

Imagen de physics-stack-exchange.
Como ejemplo, no es superfluo resaltar problemas trascendentales como la catástrofe ultravioleta, en la que se estaba tratando de encontrar una ley que modelara la cantidad de radiación emitida por un cuerpo negro ideal. Este objeto físico absorbe todo tipo de radiación en relación con su longitud de onda. Como se puede ver en el gráfico anterior, la función representa la longitud de onda de la “luz” emitida por un objeto correspondiente a su temperatura en grados kelvin. Por ejemplo, si el objeto no está lo suficientemente caliente, irradiará luz infrarroja, que los humanos no pueden ver sin un dispositivo de detección adecuado. En cambio, los objetos con una temperatura en la franja “Visible” del gráfico producen radiación que podemos percibir como luz. Por ejemplo, el hierro al rojo vivo tiene un color diferente al de una estrella de neutrones. Cuando los científicos intentaron construir esta función con la mecánica clásica, se propusieron dos enfoques principales; la ley de Rayleigh-Jeans y la ley de Wien, que no pudieron predecir la correlación con precisión. Uno de ellos tiende al infinito cuando se acerca a valores de longitud de onda bajos, el otro respectivamente cuando la longitud de onda se acerca a valores más altos.
Como las soluciones físicas tradicionales no tuvieron éxito, Max Planck decidió resolver matemáticamente el problema construyendo una distribución que coincidiera con precisión con la mayoría de los valores de la función y luego interpretara su significado físico. Planck, quien es considerado el padre de la mecánica cuántica, llegó a la conclusión de que la energía está realmente cuantizada, de ahí el nombre de la nueva rama de la física. En resumen, eso significa que la luz (así como la energía) se proyecta y absorbe en pequeños “paquetes” llamados cuantos, no continuamente como se consideraba.

La energía es igual a la constante de Planck h veces la frecuencia de un oscilador atómico, multiplicada por un número entero n
Finalmente, después de que nació la mecánica cuántica, la naturaleza comenzó a entenderse mucho mejor gracias a experimentos adicionales como el efecto fotoeléctrico o la experiencia de doble rendija. Además, fomentó el desarrollo teórico con trabajos como los postulados de Bohr o la hipótesis de DeBroglie.
Fundamentos
Si quieres saber más sobre el origen de la mecánica cuántica, puedes ir a la sección de recursos. Pero ahora, exploraremos la teoría detrás de la parte práctica de la computación cuántica.
Una gran cantidad de conocimiento se basa en el comportamiento del electrón, desde la velocidad hasta el espín. Modelar estos parámetros y conocer con precisión sus propiedades es crucial para operar a distancias tan cercanas al átomo, donde la percepción y el sesgo humanos juegan un papel significativo en la interpretación de los resultados a veces extraños de los experimentos y las pruebas teóricas. Para introducir este trabajo “extraño” con el que se conoce, respondamos a la pregunta; ¿Qué es un electrón?. Desde que se conocen los electrones, se han definido como partículas subatómicas que forman un átomo, junto con protones o neutrones. La característica más emocionante de conocer sobre ellos es su carga negativa, que en contraste con la carga positiva de los protones, da lugar a interacciones electrostáticas y fuerzas subatómicas como la electromagnética, responsable de mantener los electrones alrededor del núcleo del átomo.
Sin embargo, los electrones se vuelven extraños de estudiar cuando tratamos de conocer su posición, velocidad o momento angular, también relacionado con el espín popular o momento angular intrínseco, que puede ser hacia arriba o hacia abajo en este caso. Por lo tanto, si nos preguntamos sobre la ubicación o velocidad del electrón en el espacio, tendremos que lidiar con el principio de incertidumbre de Heisenberg, formalizado de la siguiente manera:

Los deltas de la posición x y el momento p representan la incertidumbre de esas variables.

Como el momento es la masa multiplicada por la velocidad

Podemos reescribirlo con deltas en ambos lados


Y también sustituir en la expresión de la incertidumbre.
Las fórmulas anteriores relacionan la constante h de Planck con las cantidades de incertidumbre de la posición x y la velocidad v y nos dicen que no podemos medir ambas variables simultáneamente ya que están conjugadas (y conectadas por la Transformada de Fourier). Pero sin entrar en tanto detalle sobre su prueba, podemos reducir y entender el concepto considerando el siguiente ejemplo: Imagina que tienes un objeto en movimiento en el espacio, y tomas una foto de exposición muy corta. En este caso, conocerás su posición pero no su velocidad, ya que no eres capaz de determinar dónde se va a mover en el siguiente paso, por lo que tienes incertidumbre sobre la velocidad. En cambio, si aumenta el tiempo de exposición de la cámara, podrá saber con certeza su velocidad, pero esta posición de tiempo será indeterminada.
Este fenómeno ocurre con todas las posibles variables conjugadas que podemos extraer de los electrones, no solo las mencionadas anteriormente; posición y momento, energía y tiempo, es decir, Esta idea de no poder conocer parámetros simples como la posición puede parecer contradictoria, pero tenemos que recordar que estamos tratando con los componentes más fundamentales de toda la materia. El mundo macroscópico también se rige por leyes cuánticas, pero como decía Aristóteles;
Un todo es mayor que la suma de sus partes
Para concluir con la explicación de la mecánica básica, es esencial tener la idea de que la materia no siempre se comporta como partículas, sino también como ondas. DeBroglie introdujo esta hipótesis en 1924, y su núcleo reside en la asociación de una longitud de onda específica a una partícula dependiendo de su momento (velocidad).

Longitud de onda en función del momento p

Este, en cambio, dependiendo de la velocidad v
Esta hipótesis fue posible gracias a experimentos como el de doble rendija, en el que se demostró que medir a escalas cuánticas tiene efectos profundos. Para saber por qué sucede, tenemos que tener en cuenta que, por naturaleza, los electrones se encuentran en un estado de superposición a través del cual pueden ubicarse simultáneamente en todas las posiciones pertenecientes a una región particular del espacio. Este estado de superposición siempre se conserva mientras no lo midamos. Si tratamos de observar su posición real, el estado colapsará, y el electrón se colocará en un punto del espacio influenciado por su función de onda.

Imagen por autor
Como se puede ver arriba, la función de onda tiene una forma concreta que encapsula la probabilidad de encontrar el electrón en un punto en el espacio (según la regla de Born), teniendo un valor más alto cuando es más probable encontrar el electrón y un valor más bajo cuando ocurre lo contrario. Luego, después de medir una posición exacta y romper el estado de superposición, la función de onda colapsa en una función alternativa con un pico en el punto en el que se detectó el electrón. Este proceso matemático tiene varias interpretaciones físicas como la interpretación de Copenhague o la interpretación de Muchos Mundos.

La función de densidad de probabilidad para una medición de la posición en un momento determinado es el módulo cuadrado de la función de onda (regla de Born)

Como la función de onda Ψ se define en el plano complejo, su módulo cuadrado es igual a la función multiplicada por su conjugado complejo.

Probabilidad de encontrar el electrón entre 2 puntos en el espacio a y b
Conocer la posición de un electrón es necesario para entender su comportamiento en el tiempo. Pero antes, necesitamos encontrar su función de onda Ψ(x, y, z, t), y el modelo formal responsable de hacerlo posible es la ecuación de Schrodinger. Básicamente, es una ecuación diferencial lineal utilizada para obtener una función de onda apropiada para un sistema cuántico, que puede estar formada por partículas subatómicas individuales o moléculas complejas completas. Cada uno de estos sistemas tendrá una expresión diferente de la ecuación de Schrodinger y la causa de esta variabilidad es el operador hamiltoniano, el núcleo de la ecuación:

El operador hamiltoniano H que actúa sobre la función de onda Ψ es igual a la unidad imaginaria i veces la constante reducida de Planck h veces la diferenciación parcial de la función de onda con respecto al tiempo.
El hamiltoniano es un operador de física que introduce el principio de conservación de energía mecánica en la ecuación, funcionando de manera similar a la física clásica.

Por ejemplo, si tenemos un átomo de hidrógeno como sistema cuántico y queremos saber el movimiento de un electrón dentro de él, el hamiltoniano será:


Ecuación de Schrodinger resultante para resolver el sistema cuántico del átomo de hidrógeno

Misma expresión pero con el operador Nabla expandido.
Como esta expresión puede llegar a ser mucho más grande y compleja dependiendo del sistema cuántico, hay varias maneras de encontrar una solución adecuada para la función de onda; visite el siguiente recurso para aprender en detalle cómo lo resuelven los físicos:
Computación clásica
Hemos visto que la computación clásica se está acercando al límite atómico con varias consecuencias, por ejemplo, el efecto túnel cuántico. Para comprender sus implicaciones, primero definamos qué es una computadora en su forma más simple.

Imagen por autor
También conocidas como máquinas de Turing universales, las computadoras consisten en una lista de celdas que contienen un valor discreto representado formalmente como 0 o 1, llamado memoria principal. Fuera de este almacenamiento, un encabezado puede cortar a través de la memoria, leyendo y modificando los valores de la celda dirigidos por un conjunto de instrucciones (programa) codificadas en una representación binaria y almacenadas en la memoria.

Imagen por autor
Pero prácticamente, la representación formal de una computadora es llevada a la realidad por la arquitectura de Von Neumann. De hecho, la lista de celdas está formada por la RAM y la unidad de disco SSD / HDD. El encabezado es una UNIDAD DE PROCESAMIENTO CPU (a veces en combinación con una GPU para procesos paralelizables) compuesta por circuitos biestables y combinacionales capaces de realizar operaciones sencillas como sumar, comparar cantidades, contar o registrar. Al mismo tiempo, como puede ver en la documentación, estos circuitos contienen puertas lógicas, los bloques de construcción del álgebra booleana. Aunque, si miramos más de cerca la escala atómica, veremos combinaciones de transistores que representan el funcionamiento de las puertas lógicas.

Imagen por autor
Como los transistores actúan como barreras que permiten o impiden el flujo de corriente (electrones), a veces la dualidad partícula-onda del comportamiento del electrón causa fugas de corriente en un proceso denotado como túnel cuántico, donde el estado de superposición del electrón le permite estar en ambos lados de la barrera “simultáneamente”. a pesar de tener un valor de probabilidad más bajo en un lado que en el otro, como se puede ver arriba. Este efecto implica problemas de ejecución y corrupción de datos, que en su mayoría se resuelven con algoritmos de corrección de errores, destacando el código Hamming en informática como punto de partida de estos algoritmos.
Computación cuántica
La necesidad de potentes algoritmos de corrección de errores en la computación cuántica es significativamente mayor que en el resto de sistemas informáticos debido a las condiciones extremas que debe mantener su hardware.
El principal contraste entre estos tipos de cálculos reside en la naturaleza de cada celda de memoria que contiene información discreta. Aunque las computadoras cuánticas utilizan la misma representación binaria de datos, utilizan predominantemente fenómenos cuánticos de superposición y entrelazamiento para expandir la capacitancia de procesamiento de información crucial para abordar problemas complejos NP de manera mucho más eficiente que las computadoras clásicas.

Imagen por autor
Brevemente, mientras que un bit clásico (celda de memoria) puede estar en uno de los dos estados básicos, un bit cuántico (Qubit) tiene un tercer estado etiquetado como superposición en el que puede tomar cualquier combinación lineal de los estados básicos, teniendo un valor incierto hasta la medición (superposición de ruptura de estado) y cumpliendo las reglas de la mecánica cuántica.

Imagen por autor
Formalmente, los estados del qubit se representan con la notación de Dirac. Por lo tanto, el estado de un qubit | Ψ⟩ está constituida por una combinación de dos coeficientes complejos, α y β, multiplicados por los estados básicos|0⟩ y|1⟩, respectivamente. Por lo tanto, si trazamos esta información en una esfera conocida como la esfera de Bloch, podemos tener una mejor idea de lo que realmente es un qubit.

Imagen por autor
Como se puede inferir, cuanto más cerca esté el qubit de |0⟩, mayor será el coeficiente correspondiente, y lo mismo para |1⟩. Por lo tanto, podemos observar que estos números contienen la probabilidad de obtener un estado básico específico al romper la superposición.

Probabilidad normalizada con el módulo cuadrado de todos los coeficientes complejos

Hasta ahora, esta forma de almacenar datos puede parecer demasiado complicada. Aún así, la clave que hace que las computadoras cuánticas sean tan rápidas en la resolución de problemas NP-Hard como factorizar un gran número es tener múltiples qubits en un sistema cuántico. A pesar del aumento de los problemas de hardware y la necesidad de algoritmos de corrección de errores más robustos, los sistemas de qubits múltiples aprovechan su superposición combinando linealmente todos los valores de estado básicos posibles de todos los qubits del sistema simultáneamente. Así que con n qubits, tendrás de 2 a n coeficientes (bits clásicos equivalentes), todos ellos necesarios para determinar el estado de superposición del sistema cuántico.

Representación tensorial de estados cuánticos
En la siguiente sección, los algoritmos cuánticos lo ayudarán a comprender la utilidad de superposición en su mejor momento.
Algoritmos cuánticos
Se sabe desde hace varios años que las computadoras cuánticas podrían romper el protocolo de cifrado RSA con el algoritmo de Shor y computadoras lo suficientemente potentes. Pero, ¿por qué es clave la superposición a la hora de resolver este tipo de tareas?. La respuesta es simple; una computadora cuántica puede generar todas las respuestas posibles a un problema superponiendo múltiples qubits y descartando soluciones “incorrectas” al interferir destructivamente con las superposiciones como si fueran “ondas”.
Para construir algoritmos cuánticos, de manera similar a la computación clásica, necesitamos transformar los qubits de estado inicial a un estado final mediante la eliminación secuencial de puertas lógicas en un circuito.

Imagen por autor
Arriba, puede ver las puertas principales presentes en la mayoría de los algoritmos. Por ejemplo, X-Gate es un equivalente de la negación lógica; mientras tanto, las puertas Hadamard / C-Not introducen superposición y entrelazamiento, respectivamente. Puede obtener más información en la guía oficial de Qiskit para tener una explicación completa de su funcionamiento y relación con las puertas clásicas. Sin embargo, es necesario destacar que todas las puertas cuánticas son matrices unitarias reversibles, lo que hace que los procesos de computación cuántica sean reversibles. Además, las computadoras cuánticas son los únicos dispositivos que pueden generar un número verdaderamente aleatorio con un circuito tan simple como este:

Puerta de Hadamard generando superposición con 50–50 probabilidad de obtener 0 o 1

Generador de números aleatorios expandido
Como ejemplo de mejora de la eficiencia sobre la computación clásica, imagina que tienes una función booleana f(x) {0, 1}→{0, 1} y quieres saber si es constante o equilibrada. Con una computadora clásica, evaluaría la función en 0 y 1 y compararía los resultados si la función no es computacionalmente costosa. Si es así, es posible que deba usar el algoritmo de Deutsch para aumentar exponencialmente el rendimiento del tiempo de su programa evitando la segunda evaluación de la función.

Problema de Deutsch circuito cuántico.
Formalmente, está comprobado que el estado del qubit superior al final del proceso será |0⟩ si f(x) es constante y |1⟩ si no. Pero, para entender claramente lo que está haciendo el algoritmo, podemos dividir el proceso en cuatro partes. Primero, todos los qubits se inicializan |a⟩ y se establecen en un estado de superposición con puertas de Hadamard |b⟩. Luego, U actúa como una compuerta C-Not para atravesar todas las combinaciones posibles de los valores de entrada, agregando la función como componente principal al procesamiento de superposición |c⟩. Por último, |d⟩, otro Hadamard rompe la superposición del primer qubit, y se mide para completar la tarea.
Aprendizaje automático cuántico
Esta sección merece una atención especial porque todavía está en desarrollo y tiene diversos enfoques dependiendo del tipo de problema. Por lo tanto, aquí solo nos centraremos en los conceptos básicos de las redes neuronales, la técnica más destacada para el futuro cercano.
En primer lugar, debemos saber que la intersección entre el aprendizaje automático y los campos de computación cuántica genera cuatro métodos de trabajo dependiendo de los datos y el tipo de algoritmo.

Imagen por autor
Según el diagrama, podemos tener sistemas híbridos donde las computadoras clásicas y cuánticas trabajan juntas para codificar datos y optimizar los modelos de aprendizaje automático. Por supuesto, cuantificar uno o ambos procesos tiene sus propias ventajas. Por ejemplo, si su modelo clásico es demasiado profundo y costoso para atravesarlo durante el entrenamiento, es posible que desee usar la superposición de un modelo cuántico para mejorar los tiempos de ejecución, dejando otras tareas como el ajuste de parámetros a un dispositivo clásico.
Como los datos son cruciales para mantener este flujo de trabajo, una amplia gama de procesos estadísticos tienen como objetivo extraer patrones de los datos. Pero las redes neuronales merecen ser destacadas debido a su excelente capacidad de generalización demostrada en teoremas como el teorema de aproximación universal. Sucintamente, son modelos matemáticos diferenciables en los que se utiliza un proceso de entrenamiento para modificar sus parámetros de modo que el modelo se ajuste a los patrones de un conjunto de datos de entrada.

Imagen por autor
Como puede ver en la representación anterior de este artículo, las redes neuronales intentan imitar el funcionamiento del cerebro concatenando capas de perceptrones (neuronas), que son funciones que contienen parámetros variables. Luego, para probar la efectividad del modelo en el ajuste de un conjunto de datos de entrada en particular, se calcula y minimiza una función de costo en cada iteración de entrenamiento para lograr un modelo “inteligente” que luego realiza inferencias fuera de los datos de entrenamiento.

Imagen por autor
En el caso de las redes neuronales cuánticas, la principal diferencia es el cálculo del modelo para cada iteración de entrenamiento, acelerando el proceso y su capacidad de generalización al confiar en la superposición cuántica y el entrelazamiento. Aquí, debe ingresar datos clásicos en un circuito cuántico, codificando esos datos con el bloque de puertas U(x) de |0⟩ qubits inicializados. A continuación, los datos correctamente formateados se alimentan al modelo diferenciable V(θ) en un estado de superposición y se miden clásicamente para obtener una salida utilizada para minimizar la función de costo y ajustar los parámetros del modelo (θ).
Este fue un ejemplo simplificado de la esencia del aprendizaje automático cuántico. Pero dado que es un campo tan amplio, puede continuar aprendiendo más sobre él aquí.
Aplicaciones
Fundamentalmente, los humanos han estado tratando de simular elementos físicos como átomos en computadoras clásicas casi desde su creación. Sin embargo, esta tarea se vuelve exponencialmente costosa desde un punto de vista computacional cuando se trata de sistemas con muchas moléculas. Por esta razón, las computadoras cuánticas han comenzado a ser utilizadas en diversos proyectos de investigación destinados a modelar fielmente las interacciones entre la materia para obtener nuevos conocimientos y desarrollar productos con un rendimiento superior en el mercado y nuevas formas de comunicación que tendrán un impacto notorio en nuestras vidas.
En cuanto al cambio climático y el cuidado del medio ambiente, simular un sistema físico mediante la inclusión exitosa de las leyes de la física cuántica implica la creación de nuevos materiales como el grafeno o cualquier otro cuyas propiedades permitan reciclarlo por completo. Por ejemplo, el plástico, el principal material generador de residuos del planeta, podría ser reemplazado por otro cuyas propiedades contribuyan a su reutilización / descomposición adecuada o modificado para hacerlo más sostenible. Además, dado que el planeta ya está contaminado hasta cierto punto, las plantas de reciclaje que se basan en modelos clásicos de aprendizaje automático para clasificar los residuos se beneficiarán del uso de modelos cuánticos. Mejorarán su eficiencia, tasa de trabajo y precisión, evitando problemas de acumulación de residuos.
Los materiales pueden tener un impacto en la naturaleza, pero las emisiones de CO2 son sin duda uno de los principales componentes aceleradores del efecto invernadero y el cambio climático. En este sentido, está comprobado que las computadoras cuánticas son extremadamente adecuadas para realizar la optimización de rutas al resolver problemas como TSP, lo que reduciría las emisiones de los vehículos. Sin embargo, las ventajas de automatización que ofrecen y el posible desarrollo de baterías de alta durabilidad son las aplicaciones más interesantes para casi todas las industrias, ya que pondrían fin a las emisiones nocivas globales. Todo esto asumiendo que la minoría de industrias perjudicadas por esas mejoras (compañías petroleras, entre muchas otras) no impiden por la fuerza el correcto desarrollo de la tecnología con fines puramente económicos.
Junto con otras aplicaciones como el lanzamiento de nuevos fármacos, la mejora de las técnicas sanitarias, la cura del cáncer y una mejor comprensión del cerebro humano y el ADN, iniciativas como JoinUs4ThePlanet están dispuestas a utilizar tecnologías disruptivas para concienciar sobre el consumo sostenible y contribuir al desarrollo tecnológico dirigido a preservar nuestro medio ambiente.
Conclusión
Volviendo a la pregunta del título, podemos afirmar que la computación cuántica puede contribuir a casi cualquier área de nuestras vidas, incluida la lucha contra el cambio climático. Además, debemos tener en cuenta que es un paradigma que necesita del marco clásico para lograr un resultado beneficioso al resolver una tarea compleja. Así, considerándolo como un complemento a la computación clásica apto solo para procesos pesados, podemos concluir que aún queda mucho trabajo por hacer, que tendremos que hacer juntos para que la computación cuántica se convierta en una herramienta integral pero segura, comprensible y revolucionaria.