- NeoFronteras - http://neofronteras.com -

Conexiones entre la gravedad y complejidad computacional

Una nueva solución al problema del muro de fuego que se introdujo para salvar la paradoja de la información en agujeros negros termina encontrando conexiones entre gravedad y complejidad computacional.

Foto

En octubre pasado veíamos en NeoFronteras un resultado [1] que causó mucho revuelo en el mundillo. Joseph Polchinski y Donald Marolf encontraron un problema agujeros muy viejos. Al parecer, un observador que caiga en un agujero negro de este tipo puede efectuar un protocolo cuántico que viole el teorema de no clonación de la física cuántica y entonces vuelve a aparecer el problema de pérdida de información en los agujeros negros, lo que viola la reversibilidad de la mecánica cuántica.
Para solucionar este problema propusieron que el espacio no es suave en las cercanías del horizonte de sucesos de un agujero negro como se había asumido hasta ahora, sino que hay una división, frontera u horizonte al que llamaron “muro de fuego”, un muro de energía que podría ser el fin del espacio-tiempo tal y como lo conocemos. Cualquier cosa que chocara contra ese muro se disolvería en sus bits de información constituyentes, así que la información se conserva al no pasar al interior. El horizonte de sucesos no puede ser cruzado y el agujero negro “tiene pelos”. Pero esto contradice la Relatividad General, ya que, según esta teoría, el cruce de horizontes de sucesos debe ser suave y no tener sobresaltos.
Algunos físicos que estudiaron en principio esta idea se resistieron a aceptarla al considerar este “muro de fuego” como demasiado extraño o artificial. Pero nadie parecía encontrar argumentos válidos en contra de su existencia sin sacrificar alguna cosa. Desde entonces han estado buscando maneras de eliminar este muro de fuego, en concreto de eliminar la necesidad de su existencia. Basta con resolver, una vez más, la paradoja de la información. Hace un tiempo publicamos en estas páginas [2] los avances en este campo, en los que también participó Hawking. Aquellos que quieran saber en detalles sobre el problema pueden consultar esa referencia.
Nature se hace eco del último avance sobre el asunto protagonizado por Leonard Susskind. Lo interesante no es la solución en particular, sino las implicaciones que tiene en otros campos. Sean “muros de fuego”, “gatos de Schrödinger” o “cerebros de Boltzmann”, lo importante no es si existen o no, sino que su existencia teórica pone en evidencia alguna contradicción interna de nuestras teorías, lo que permite el avance en Física Teórica.
Ahora pasemos de momento a un concepto de ciencias de la computación. Los problemas computacionales pueden tener una solución rápida o no. Eso depende de su complejidad computacional. Si el sistema crece en complejidad de manera lineal con su tamaño estamos en el mejor de los casos posibles y siempre podemos resolverlo. Incluso cuando crece polinómicamente también se puede abordar con la suficiente paciencia. Pero a veces la complejidad crece exponencialmente y entonces se llega a un punto que ni con la computadora más rápida el problema puede ser resuelto. Un caso típico es el problema del viajante, que versa sobre un viajante que parte de su ciudad y vuelve a la misma visitando muchas otras ciudades en el menor tiempo posible. A partir de cierto número de ciudades el problema es simplemente inabordable por todo computador si se pretende obtener la solución exacta (siempre nos podemos conformar con una solución aproximada). Se puede decir que hay problemas que son simplemente incomputables y que marcan un límite a nuestro conocimiento. Hay muchos problemas del tipo del viajante que les pasa lo mismo.
Todo esto viene a cuento porque se ha recurrido al concepto de incomputabilidad para resolver el problema de la información y de la necesidad del muro de fuego a partir de una idea de Patrick Hayden (Universidad de Stanford). Según notó Hayden, si se aplica la teoría de la complejidad computacional al protocolo cuántico visto antes que realiza en observador en caía, se ve que es imposible realizarlo de forma práctica. Simplemente, al igual que le pasa al viajante, el número de pasos a ejecutar crece exponencialmente. Esto impide que el observador termine el protocolo antes de que el agujero negro se evapore. Por tanto no hay problema de la información y ya no hay necesidad del muro de fuego. Daniel Harlow ayudó a dar solidez al argumento y concluyó que era un principio sólido.
El argumento Harlow-Hayden ha tenido defensores y detractores, pero Susskind ha usado este argumento para llegar a la misma solución. Aplicando este argumento a agujeros negros en un espacio de anti De Sitter llega a la conclusión de que, efectivamente, el interior de un agujero negro y la información que pudiera caer en él están protegidos por un escudo de complejidad computacional que hace innecesario el muro de fuego.
Pero también ha llegado a interesantes resultados. La complejidad computacional crece en el tiempo y se comporta como un campo gravitatorio, pues un objeto que caiga a un agujero negro en ese espacio de anti De Sitter se mueve hacia regiones en donde hay mayor complejidad computacional en una especie de atracción similar a la gravedad. Esto sugiere que la gravedad podría ser un fenómeno emergente que aparecería a partir de la complejidad computacional.
Además, esto también está conectado con otro resultado que vimos también por aquí [3] sobre entrelazamiento en agujeros de gusano. Bajo esta nueva óptica el aumento de la complejidad computacional está asociado a un alargamiento de la longitud del agujero de gusano.
Como el propio Susskind admite, la idea es especulativa y dice que no sabe adónde irá a parar todo esto. “Pero creo que esta conexiones complejidad-geometría son sólo la punta del iceberg”, añade.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=4448 [4]

Fuentes y referencias:
Noticia en Nature. [5]
Artículo en ArXiv I. [6]
Artículo en ArXiv II. [7]
Ilustración: SPL.