NeoFronteras

Demuestran experimentalmente el límite de Landauer

Área: Física — lunes, 12 de marzo de 2012

Demuestran experimentalmente que hay una cantidad mínima de calor disipado en el borrado de información.

Foto
Ilustración: Peter MacDonald.

Maxwell planteó un experimento mental que de realizarse violaba el segundo principio de la termodinámica, al menos a primera vista. Según este principio los sistemas termodinámicos cerrados ganan entropía con el paso del tiempo, el calor pasa de los cuerpos calientes a los fríos espontáneamente y no al revés o, en lenguaje llano, los frigoríficos dejan de funcionar cuando se les desenchufa.
Si tenemos dos recipientes con gas conectados por un tubo con espina y uno se encuentra a mayor temperatura que el otro, el segundo principio de la termodinámica dice que si los conectamos (abrimos la espita) al cabo de un tiempo el sistema termalizarán y ambos recipientes contendrán gas a la misma temperatura. Llegado a ese punto el sistema permanecerá en ese estado para siempre, a no ser que haya alguna influencia externa.
Pero la temperatura de un gas no es más que el movimiento de las partículas (moléculas) que lo componen, a mayor temperatura mayor velocidad media tienen esas partículas, aunque haya unas que se muevan más rápido que otras.
En el experimento mental de Maxwell tenemos esos dos recipientes con gas a la misma temperatura y una espita microscópica intervenida por un diablillo que es capaz de controlar el paso de una sola de esas moléculas. El diablillo observa el sistema y prioriza el paso de moléculas con alta velocidad de un lado a otro (pongamos que de izquierda a derecha) y el paso de moléculas lentas en sentido contrario. Al cabo de un tiempo se tendrá que el recipiente de la derecha ha ganado temperatura respecto al de la izquierda, violándose, al menos aparentemente, el segundo principio de la Termodinámica. Esto permitiría cosas como obtener energía gratis de la nada.
No fue hasta que se vio el papel de la Teoría de la Información en el proceso cuando se pudo resolver esta aparente paradoja. En realidad no se viola el segundo principio de la termodinámica porque se necesita la medida de la velocidad de las moléculas y memorizar ese dato antes de tomar la decisión. Es la información en sí misma la que parece ser el medio a través de la cual se transfiere la energía. En 1961 Rolf Landauer propuso que la clave está en la memoria del diablillo, que no puede ser infinita. El borrado de la información de su memoria disiparía el calor necesario para reestablecer el segundo principio. Habría una mínima cantidad de calor, que sería proporcional a la energía térmica y que se denomina límite de Landauer, que necesariamente habría de disiparse cuando un bit de información se borra. La consecuencia lógica de esto es que, debido a esta transformación irreversible, la entropía crece un poco. No todo el mundo estuvo de acuerdo en su día con esta explicación.
No deja de tener cierto valor filosófico esto de que el olvidar algo haga crecer la entropía del Universo, pero además tiene una importancia fundamental en ciencias de la computación. Sin embargo, hasta ahora no se había comprobado experimentalmente, debido a la intrínseca dificultad de realizar experimentos en los que se manipule partículas una a una en un régimen de baja disipación.
Ahora un grupo de físicos dirigidos por Eric Lutz (Universidad de Augsburgo, Alemania) ha conseguido demostrar experimentalmente la existencia del límite de Landauer en un modelo genérico de 1 bit de memoria. Para ello han usado una única partícula coloidal de vidrio atrapada en un pozo de potencial doble creado por un haz láser. Es decir, el haz láser crea dos posiciones estables para la bolita, que se corresponden al 0 y al 1 de un bit de información. Estos investigadores han mostrado que si la bolita está en el estado 1 y se desea borrar esa información para recuperar el estado 0 entonces se genera una cantidad de calor que está siempre por encima del límite de Landauer.
El experimento demuestra la relación íntima que hay entre la teoría de la información y la termodinámica, además de iluminar los límites físicos últimos de la computación, incluso en la industria de fabricación microchips.
Uno de los grandes problemas que tienen los microchips es que disipan mucho calor. Cuantos más componentes metemos en ellos más calor se genera. Esto se debe principalmente a que los componentes muestran una resistencia al paso de la corriente que hace que se disipe calor (y se pierda energía). Sin embargo, todavía se está 1000 veces por encima del límite de Landauer. En 20 o 30 años la tecnología basada en silicio podría estar muy cerca de ese límite. Esa hipotética tecnología sería tan perfecta que el procesado y movimiento de información casi no consumiría energía ni disiparía calor. Esto sólo se produciría cuando se borrase información según el límite de Landauer.
Hipotéticamente un diablillo de Maxwell de memoria infinita no necesitaría consumir energía ni disipar calor para poder procesar información y podría violar el segundo principio de la Termodinámica. Pero no tendría la posibilidad de olvidar.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3764

Fuentes y referencias:
Artículo original
Realización física del diablillo de Maxwell.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Compartir »

16 Comentarios

  1. tomás:

    Dejando aparte el aumento de entropía por el simple hecho de que un ser viva y además realice un trabajo, de la necesidad de vencer el rozamiento de la espita y de la imposibilidad de aislar totalmente un sistema, con lo que ya tendríamos el sistema ideal donde puediera operar el demonio de Maxwell, yo creía y creo -y me parece entender que así lo afirma el artículo en el párr. 5: «… se necesita la medida de la velocidad… y memorizar el dato…» que también el trabajo de adquirir la información que permite distinguir unas moléculas de otras forma parte del aumento de la entropía y no sólo olvidar, hecho que no es totalmente necesario, puesto que la experiencia no tiene por qué ser eterna y por tanto no es precisa una memoria ilimitada. Otra cosa es que, en la práctica, sea necesario el borrado de la memoria.
    Pero, claro, puedo estar en un error.

  2. NeoFronteras:

    Estimado Tomás:
    Es diablillo es un ente ideal y como tal hay que considerarlo. De existir de verdad generaría entropía por todos lados, pero muchas de esas disipaciones pueden reducirse a cero en un sistema ideal, al parecer el borrado de información nunca.
    Es similar a un gas ideal. Éste no existe, pero es un modelo que permite acotar las situaciones. O también se puede decir que ninguna máquina termodinámica es más eficiente que una máquina de Carnot. No se tienen realizaciones físicas de máquinas de Carnot ideales, pero nos da el límite que no se puede alcanzar.

  3. Alejandro Díaz-Caro:

    Excelente artículo! Yo agregaría al final «Pero no tendría la posibilidad de olvidar… y ahí entra la computación reversible, con la computación cuántica como uno de sus exponentes más prometedores» :-)

  4. tomás:

    Estimado Neo:
    Gracias por tu atención. Lo que se refiere al diablillo, creo tenerlo claro: es un ser ideal que no gasta energía al abrir y cerrar la puerta, ni al existir. Por eso digo que «Dejando aparte… ya tendríamos el sistema ideal donde pudiera operar el demonio de Maxwell».
    Lo que sucede es que antes sólo había leído y asimilado que tal ser ideal, aumentaba la entropía al recibir información para distinguir unas moléculas de otras. Nada sabía del borrado. Puedo admitir que éste también se lleva parte de la entropía, pero quisiera confirmar que el adquirir esa información también contribuye a incrementarla.
    Otra vez mil gracias y mis mejores saludos.

  5. Nemo:

    Quizás se prefiera referirse al borrado y no a la adquisición porque un sistema ordenado contiene mucha menos información que uno desordenado, si medimos la necesaria para describir su configuración concreta. Por ello, ordenar un sistema puede contabilizarse como borrado de información. Y ordenar un sistema requiere aporte de energía exterior. Ergo el borrado de información consume energía.

  6. NeoFronteras:

    Estimado Tomás:
    Cuando Maxwell introdujo su diablillo se refería a algo absolutamente ideal e irrealizable. Pero aún así, si existiera, violaría el segundo principio, se pudiera realizar físicamente o no.
    La solución viene de la teoría de la información. Al parecer se puede reducir a cero el consumo de energía para computar o para almacenar información, pero el borrado de esa información consume una energía y, por tanto, disipa un calor. Esto es haya diablillo o no, en cualquier sistema que maneje información es así.
    Un sistema computacional físico y perfecto con una memoria grande puede efectuar operaciones sin que consuma energía ni disipe calor, hasta que llena dicha memoria y tiene que borrar información para poder seguir computando. Es ahí en donde se consume energía y se disipa calor. Obviamente es un caso extremo e ideal, y siempre habrá una disipación en caso cualquier cosa. La teoría dice que esos consumos y disipaciones se pueden acercar todo lo que queramos a cero, pero el límite de Landauer es lo mínimo que podemos conseguir en el borrado de información.
    Este resultado demuestra experimentalmente el límite de Landauer.
    Ojo, la computación sin consumo tampoco puede olvidar nada. Así, si tenemos 3+1 el sistema puede calcular que es 4 sin disipar, pero tiene que almacenar «3», «+» y «1». Porque 0+4 y 2+2 también dan 4 y si borramos el input destruimos información, pues no hay manera de reconstruir ese input completo a partir del output.
    Un sistema de memoria infinita podría, en teoría, computar y almacenar información sin que nunca disipase calor ni consumiera energía.
    Obviamente ningún sistema físico real es perfecto en este sentido y siempre se producirá disipación, pero esa disipación se puede acercar a cero tanto como queramos en casi cualquier escenario y al límite de Landauer en el borrado de información.

  7. NeoFronteras:

    Una cosa más. El diablillo para funcionar necesitaría una memoria capaz de almacenar los parámetros de un número de Avogadro de partículas, así que esa memoria debería ser inmensa.

  8. Juan Carlos:

    Desde la mas profunda de las ignorancias quisiera hacer unas preguntas. Es acaso la información una forma de energía? Y si es así, los cambios de información que fluyen en nuestros cerebros influyen en la entropía del universo? ( no quiero ponerme filosófico…) Es la información una característica que verifica el principio antropico? ( o sea, solo hay informacion si hay alguien que la verifique..)

  9. NeoFronteras:

    La información no es una forma de energía, pero la información está relacionada con la materia y la energía.

  10. Joaquin Ruiz:

    Que fuerte. ¿Y si se estableciera un sistema mecánico de control para medir la velocidad de los elementos en movimiento sin necesidad de memorizar nada?, vamos, algo así como la válvula de la olla exprés de toda la vida, seguro que le preguntamos a la olla y no se acuerda de nada.

  11. tomás:

    Muy estimado Neo:
    Vuelvo a agradecerte la molestia que te tomas. Tengo verdadera devoción por quien me enseñe, aunque sea capaz de discutirle lo que haga falta. Pero éste no es el caso. Aquí sólo quiero asegurar mis ideas que creía tener claras y parece que no.
    1º El diablillo no consume energía por existir ni tampoco por abrir y cerrar la puerta o espita. Además es un ser con capacidad previa para distinguir entre moléculas rápidas -R- y lentas -L-. Por tanto su existencia, solo la suya, no varía la entropía del sistema. Esto lo sé desde hace muchos años y creo que es correcto.
    2º La puerta carece de rozamiento y masa, de manera que no hay que realizar trabajo alguno para moverla, aspecto también conocido y que creo correcto.
    3º El sistema es aislado, con el diablillo dentro, por lo que no hay intercambio de materia ni energía con el exterior.
    4º El 2º principio de la termodinámica, en su enunciado más elemental dice que la temperatura siempre fluye, espontáneamente , del cuerpo más caliente al más frío.
    5º Cuando una molécula se dirige hacia la puerta, el diablillo debe distinguir si es R o L -no hay estados intermedios-. La capacidad ya la tenía, pero ahora debe emplearla, al igual que yo tengo brazos para alzar un peso sin que el tenerlos signifique trabajo, pero si levanto un algo sí que lo realizo.
    Y aquí puede estar mi problema. Creo entender que me dices que adquirir esa información no representa ningún trabajo para el diablillo que he descrito. Fíjate que me refiero «al que he descrito»; otra cosa sería si el diablillo, por definición, no ejerciese ningún trabajo al distinguir una molécula de otra, pero sería otro ente, no el que he definido al principio, sino uno al que hay que agregarle la propiedad de «no ejercer un trabajo para distinguir entre R y L», ESTO ES LO QUE MÁS ME INTERESA PORQUE PUEDE SER LA CLAVE DE MI ERROR.
    6º Realizada la labor de separación ha disminuido la entropía del sistema.
    7º Buscando la razón de este imposible, yo tenía entendido que se debía al haber adquirido información, pero el artículo y tú me decís que no, que sólo se debe al necesario borrado.
    8º A mi entender, el adquirir esa información se limita a distinguir R de L. Mi tremendo vacío en Teoría de la Información me impide saber si cada vez que se utiliza la capacidad de distinguir, debe borrarse esa información para observar otra molécula y decidir si es R o L.

    Para ahorrarte trabajo, puedo intentar contestarme yo. Me dices en tu 6 que «Al parecer se puede reducir a cero el consumo de energía para computar o para almacenar información, pero el borrado … consume una energía… Eso haya diablillo o no…». Entiendo «computar» como utilizar esa información ya almacenada, o sea, en nuestro caso, decidir si una molécula es R o L. En el siguiente párrafo dices: «… una memoria grande puede efectuar operaciones sin que consuma energía ni disipe calor, hasta que llena dicha memoria y tiene que borrar información para poder seguir computando».
    Pero si -imaginemos- sólo tenemos dos moléculas, una R y otra L, basta que utilice su información una sola vez -sea la moécula R o L- y, como no va a seguir, no tiene que borrar. Bueno, ni siquiera tiene que utilizar la información, porque venga una u otra, con abrir la puerta ya las ha separado. Es decir que el diablillo no tiene que volver al estado inicial. Se ha disminuido la entropía porque se ha dejado en un lugar la moécula R y en otro la L. En este caso la única justificación sería haber utilizado la información -y ni eso-, y el borrado resulta innecesario.

    Lo siento porque me temo que no me he sabido rsponder sino, por el contrario, aumentar el problema.

    Posiblemente no sean fáciles de explicar mis dudas debido a mi ignorancia en exponer a quien domina el tema. Si no me respondes, lo entenderé y prometo estudiar un mínimo suficiente de Información, como me he empeñado, ya hace tiempo en estudiar lo imprescindible de MC. Pero a veces me pregunto ¿cuando?

    Recibe mi gratitud y mis excusas.

  12. NeoFronteras:

    Apreciado Tomás:
    Los límites expuestos son límites a todo sistema computacional, se sea diablillo o no.
    Se pueden imaginar muchos parámetros por los que el diablillo pudiera disipar calor (o gastar energía), pero en todos ellos se pueden idear estrategias (ideales) de tal modo que ese gasto de energía sea tan pequeño como se desee, incluso prácticamente cero, excepto el límite de Landauer, que impone una cota inferior al borrado de información. Ese límite no se puede sobrepasar por muy habilidoso que se sea.
    Sólo con una memoria infinita y virginal el diablillo podría burlar la Termodinámica. A efectos prácticos habría otros gastos de energía y disipaciones.

  13. lluís:

    La relación íntima entre la termodinámica y la Teoria de la Información, lo es en gran parte, o quizá en toda, porque la ecuación de Shannon para la información matemáticamente es muy similar a la de Boltzmann para la entropía.El concepto de «grado de sorpresa» en la teoría de la información equivale al concepto de entropía, así cuanto mayor es ese grado de sorpresa mayor información nos da la sorpresa, y el concepto de entropía es el grado de desorden de un sistema físico (cerrado).Las fórmulas de Shannon vienen a demostrar que las leyes de la información responden a las mismas leyes que la física,por ello las mismas leyes que gobiernan las partículas, gobiernan en el mundo de la teoría de la información.Quién sabe, quizás se llegue antes a los secretos del Universo por la teoría de la información que por las ideas que se tienen sobre radiación y materia.

  14. Miguel Angel:

    Estimado lluis:

    Muy buena analogía: los mensajes previsibles aportan poca información, los sorprendentes mucha.

    Saludos y abrazos.

  15. joabbl:

    Efectivamente los mensajes previsibles aportan poca información. Podríamos hacer un símil con los lamentables medios de comunicación que nos rodean por todas partes, pendientes de «bombazos» y «exclusivas». Lo único que hacen es «aumentar» deshonestamente la cantidad de «información» de sus «noticias» mediante el sensacionalismo. Un ejemplo claro han sido los «superneutrinos» que nos han asediado últimamente incluso desde la prensa «seria» y todos los desvaríos que han conllevado, incluyendo los viajes en el tiempo (¡ojalá al menos fuera de la sequía a la lluvia!).

    Saludos

  16. tomás:

    Enhorabuena, magnífico «lluís».
    Un fuerte abrazo.

RSS feed for comments on this post.

Lo sentimos, esta noticia está ya cerrada a comentarios.