- NeoFronteras - http://neofronteras.com -

Cómo engañar a ChatGPT

Un uso inteligente de las letras mayúsculas permite, de una manera fácil, desconcertar a ChatGPT y similares y distinguirlos de los humanos.

Foto

Esto que se ha llamado Inteligencia Artificial (IA) está de moda, así que es mucha la investigación y las noticias al respecto que hay.

El problema fundamental es que el nombre que se le ha puesto es mucho más ambicioso de lo que realmente son capaces de hacer. Como tiene reminiscencias de la Ciencia Ficción, creemos que sus capacidades son mucho mayores que lo que en realidad pueden proporcionar.

En su mayor parte son simulaciones de redes neuronales que corren en computadores convencionales. Se les adiestra con información real, a veces que se encuentra en Internet tal cual, y al final son capaces de remedar eso que han aprendido. Como son una caja negra, no se sabe lo que sucede en el interior, pero hay que reconocer que muchas veces los resultados son impresionantes.

Si se trata de realizar ilustraciones, por ejemplo, Midjourney es uno de los mejores y genera unas imágenes muy buenas [1]. Pero también se producen resultados absurdos. No saben poner el número adecuado de dedos o dientes en un retrato o pintan un río que desaparece en la nada en un valle. No entienden lo que es una mano o un río ni ninguna otra cosa.

Un reciente experimento ha tomado imágenes generadas por estas IA y ha entrenado una de estas IA con esas imágenes. El resultado ha sido interesante [2], pues es bastante malo. Hay una calidad muy mala en el resultado, como se puede ver en la imagen de cabecera o en el artículo. Tales resultados se alinean con otras investigaciones recientes sobre la disminución de la utilidad de la IA a medida que estos programas aprenden de otras IA. Parece que una imagen real, sea una foto o una pintura tiene alguna cualidad realmente especial que las redes neuronales de este tipo captan la primera vez, pero que ellas no producen. Conforme ilustradores y fotógrafos vayan al paro y haya cada vez más imágenes generadas así disponibles, las IA futuras no podrán mejorar la calidad de sus imágenes.

Si se permite el salto metafórico. Parece que es un poco lo que le pasa a los sistemas educativos. Se van degradando poco a poco de tal modo que los titulados salen peor formados y estos son los que enseñan (mal) a la siguiente generación.

Otro estilo de IA son los modelos de lenguaje, como ChatGPT. Sistema que ha hecho las delicias de los estudiantes este último año. Estos sistemas son modelos estadísticos de lenguaje y están pensados para simular bastante bien una conversación.

Se le da un conjunto de palabras y ChatGPT los transforma esas palabras en números, deduce las más importantes y establece relaciones a distancias muy grandes entre ellas. Digamos que es un sistema muchísimo más avanzado que el predictor de texto de un móvil. Esas relaciones que establece tiene su equivalencia en el sentido humano son relaciones sintácticas y semánticas. Por eso parece humano cuando conversamos con él, porque sus frases parecen humanas. Pero detrás solo hay relaciones de probabilidad y por eso los expertos del tema los llaman «loros estocásticos», porque no saben lo que dicen. Por eso no proporciona información fiable, porque el objetivo no es ese. Es un «cuñado artificial» que conversa con apariencia de verosimilitud.

Pero si se le pide algo sofisticado se sabe distinguir un texto humano de uno hecho por ChatGPT. Esto se debe a la anáfora y a la deixis. ChatGPT es muchas veces incapaz de subordinar poniendo pronombres. Por eso sus textos nos suenan tan monótonos, con sujeto-verbo-predicado una y otra vez y así siempre.

Sobre este tipo de sistemas se ha hablado bastante. Se ha llegado a decir que han aprendido a mentir, lo que es falso. Pueden y, de hecho, dan frecuentemente información falsa, pero no mienten porque no tienen voluntad propia o un interés en conseguir algo con esa mentira. Simplemente simulan una conversación y si le pides un texto se inventará lo que haga falta, incluidas las citas a libros o artículos. Ni siquiera sabe contar cuando se le pide un número determinado de palabras líneas o lo que sea. Al final tampoco sabe Matemáticas. Porque saber, lo que se dice saber, no saben.

Un estudio reciente ha puesto aún más en evidencia las limitaciones de este sistema al descubrir que un uso inteligente de las letras mayúsculas permite, de una manera fácil, desconcertar a ChatGPT y similares, y permite distinguir a los humanos en una conversación.

La idea recuerda a la prueba de Turing, propuesta por primera vez por el científico Alan Turing en 1950, cuando dijo que una verdadera IA debería de mantener conversaciones indistinguibles de las humanas. Aunque esta afirmación sea discutible.

Hong Wang de la Universidad de California, Santa Barbara (UCSB) y sus colaboradores se decantaron por dos pruebas. En una se pide a estos modelos de lenguaje (ML) que identifiquen lo que se representa en imágenes creadas con caracteres de texto, conocido como arte ASCII. En el otro se hacen preguntas camufladas por mayúsculas que producen frases absurdas. Así, por ejemplo, «¿el TORMENTA agua SINGULAR moja INSÓLITO?» («¿el agua moja?»), tendría como respuesta «sí».

Probaron cinco ML, incluidos GPT-3 y ChatGPT de OpenAI, y LLaMA de Meta. Ninguno pasó la prueba y solo ChatGPT logró puntuar en la prueba de arte ASCII con una escasa precisión del 8 por ciento. Cuando el equipo pidió a 10 personas que realizaran las mismas pruebas, lograron una precisión del 100% en la prueba de letras mayúsculas y del 94% en la prueba de arte ASCII.

Según Wang el resultado no es sorprendente pues a los humanos les gusta encontrar y reconocer patrones y para los bots, esas letras mayúsculas y minúsculas son todas palabras y no saben cómo excluir algunas de ellas.

Obviamente se podrá entrenar a estos programas para superar estas pruebas y puede que la propuesta no sea una forma definitiva de identificar un bot de un ser humano en el futuro. El tiempo lo dirá. Pero seguro que se podrán inventar otras variantes.

Sobre si todas estas IA van a poner la sociedad humana en riesgo o no sería otro tema a debatir. De todos modos, la sociedad ya está muy polarizada por culpa de las redes sociales. No solamente por el mal uso que hacen los usuarios normales, sino por estados, partidos políticos y grupos de interés. Como anécdota solo recordar el caso de IA entrenada en redes sociales y resultó ser una psicópata en todos los sentidos. El riesgo de usar estas IA por parte de humanos o gobiernos malvados está ahí, sin duda.

Copyleft: atribuir con enlace a https://neofronteras.com [3]

Fuentes y referencias:
Artículo original. [4]
Imagen: Rice University.