NeoFronteras

Cómo engañar a ChatGPT

Área: Tecnología — miércoles, 19 de julio de 2023

Un uso inteligente de las letras mayúsculas permite, de una manera fácil, desconcertar a ChatGPT y similares y distinguirlos de los humanos.

Foto

Esto que se ha llamado Inteligencia Artificial (IA) está de moda, así que es mucha la investigación y las noticias al respecto que hay.

El problema fundamental es que el nombre que se le ha puesto es mucho más ambicioso de lo que realmente son capaces de hacer. Como tiene reminiscencias de la Ciencia Ficción, creemos que sus capacidades son mucho mayores que lo que en realidad pueden proporcionar.

En su mayor parte son simulaciones de redes neuronales que corren en computadores convencionales. Se les adiestra con información real, a veces que se encuentra en Internet tal cual, y al final son capaces de remedar eso que han aprendido. Como son una caja negra, no se sabe lo que sucede en el interior, pero hay que reconocer que muchas veces los resultados son impresionantes.

Si se trata de realizar ilustraciones, por ejemplo, Midjourney es uno de los mejores y genera unas imágenes muy buenas. Pero también se producen resultados absurdos. No saben poner el número adecuado de dedos o dientes en un retrato o pintan un río que desaparece en la nada en un valle. No entienden lo que es una mano o un río ni ninguna otra cosa.

Un reciente experimento ha tomado imágenes generadas por estas IA y ha entrenado una de estas IA con esas imágenes. El resultado ha sido interesante, pues es bastante malo. Hay una calidad muy mala en el resultado, como se puede ver en la imagen de cabecera o en el artículo. Tales resultados se alinean con otras investigaciones recientes sobre la disminución de la utilidad de la IA a medida que estos programas aprenden de otras IA. Parece que una imagen real, sea una foto o una pintura tiene alguna cualidad realmente especial que las redes neuronales de este tipo captan la primera vez, pero que ellas no producen. Conforme ilustradores y fotógrafos vayan al paro y haya cada vez más imágenes generadas así disponibles, las IA futuras no podrán mejorar la calidad de sus imágenes.

Si se permite el salto metafórico. Parece que es un poco lo que le pasa a los sistemas educativos. Se van degradando poco a poco de tal modo que los titulados salen peor formados y estos son los que enseñan (mal) a la siguiente generación.

Otro estilo de IA son los modelos de lenguaje, como ChatGPT. Sistema que ha hecho las delicias de los estudiantes este último año. Estos sistemas son modelos estadísticos de lenguaje y están pensados para simular bastante bien una conversación.

Se le da un conjunto de palabras y ChatGPT los transforma esas palabras en números, deduce las más importantes y establece relaciones a distancias muy grandes entre ellas. Digamos que es un sistema muchísimo más avanzado que el predictor de texto de un móvil. Esas relaciones que establece tiene su equivalencia en el sentido humano son relaciones sintácticas y semánticas. Por eso parece humano cuando conversamos con él, porque sus frases parecen humanas. Pero detrás solo hay relaciones de probabilidad y por eso los expertos del tema los llaman «loros estocásticos», porque no saben lo que dicen. Por eso no proporciona información fiable, porque el objetivo no es ese. Es un «cuñado artificial» que conversa con apariencia de verosimilitud.

Pero si se le pide algo sofisticado se sabe distinguir un texto humano de uno hecho por ChatGPT. Esto se debe a la anáfora y a la deixis. ChatGPT es muchas veces incapaz de subordinar poniendo pronombres. Por eso sus textos nos suenan tan monótonos, con sujeto-verbo-predicado una y otra vez y así siempre.

Sobre este tipo de sistemas se ha hablado bastante. Se ha llegado a decir que han aprendido a mentir, lo que es falso. Pueden y, de hecho, dan frecuentemente información falsa, pero no mienten porque no tienen voluntad propia o un interés en conseguir algo con esa mentira. Simplemente simulan una conversación y si le pides un texto se inventará lo que haga falta, incluidas las citas a libros o artículos. Ni siquiera sabe contar cuando se le pide un número determinado de palabras líneas o lo que sea. Al final tampoco sabe Matemáticas. Porque saber, lo que se dice saber, no saben.

Un estudio reciente ha puesto aún más en evidencia las limitaciones de este sistema al descubrir que un uso inteligente de las letras mayúsculas permite, de una manera fácil, desconcertar a ChatGPT y similares, y permite distinguir a los humanos en una conversación.

La idea recuerda a la prueba de Turing, propuesta por primera vez por el científico Alan Turing en 1950, cuando dijo que una verdadera IA debería de mantener conversaciones indistinguibles de las humanas. Aunque esta afirmación sea discutible.

Hong Wang de la Universidad de California, Santa Barbara (UCSB) y sus colaboradores se decantaron por dos pruebas. En una se pide a estos modelos de lenguaje (ML) que identifiquen lo que se representa en imágenes creadas con caracteres de texto, conocido como arte ASCII. En el otro se hacen preguntas camufladas por mayúsculas que producen frases absurdas. Así, por ejemplo, «¿el TORMENTA agua SINGULAR moja INSÓLITO?» («¿el agua moja?»), tendría como respuesta «sí».

Probaron cinco ML, incluidos GPT-3 y ChatGPT de OpenAI, y LLaMA de Meta. Ninguno pasó la prueba y solo ChatGPT logró puntuar en la prueba de arte ASCII con una escasa precisión del 8 por ciento. Cuando el equipo pidió a 10 personas que realizaran las mismas pruebas, lograron una precisión del 100% en la prueba de letras mayúsculas y del 94% en la prueba de arte ASCII.

Según Wang el resultado no es sorprendente pues a los humanos les gusta encontrar y reconocer patrones y para los bots, esas letras mayúsculas y minúsculas son todas palabras y no saben cómo excluir algunas de ellas.

Obviamente se podrá entrenar a estos programas para superar estas pruebas y puede que la propuesta no sea una forma definitiva de identificar un bot de un ser humano en el futuro. El tiempo lo dirá. Pero seguro que se podrán inventar otras variantes.

Sobre si todas estas IA van a poner la sociedad humana en riesgo o no sería otro tema a debatir. De todos modos, la sociedad ya está muy polarizada por culpa de las redes sociales. No solamente por el mal uso que hacen los usuarios normales, sino por estados, partidos políticos y grupos de interés. Como anécdota solo recordar el caso de IA entrenada en redes sociales y resultó ser una psicópata en todos los sentidos. El riesgo de usar estas IA por parte de humanos o gobiernos malvados está ahí, sin duda.

Copyleft: atribuir con enlace a https://neofronteras.com

Fuentes y referencias:
Artículo original.
Imagen: Rice University.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Compartir »

13 Comentarios

  1. Alejandro Sánchez:

    Buen artículo y las sociedades modernas siempre estuvieron polarizadas por la forma asimétrica y contradictoria en que están formadas. Antes estaban mucho más polarizadas, como pasó durante la guerra fría del siglo XX en muchos países europeos, latinoamericanos y asiáticos.

  2. Eduardo:

    Pues a mí me sorprende la capacidad que la IA del Chat GPT, tiene para entender el significado de las palabras (en frases) que, le formulamos como preguntas.
    Entiendo que su análisis (de la presunta) es con métodos estadísticos, (aplicados y extraídos de su banco de datos) pero no consigo imaginar, como de las muchas posibilidades entre todas las combinaciones o variaciones de las palabras de la pregunta, consigue extraer el significado que le informamos.
    Personalmente (por ahora, dada mi ignorancia) veo en este entendimiento, un signo de incipiente Inteligencia. Tambien al escoger, por lo menos una respuesta coherente con la pregunta formulada, de entre todos los datos de su inmenso banco de memoria.
    Personalmente veo un paralelismo en su forma de proceder semejante a nuestro comportamiento. Ante la misma pregunta (para nosotros responder), iremos a buscar, en nuestra memoria consciente e inconsciente, eventos consolidad0s que tengan relación íntima con la pregunta.
    La diferencia (por ahora) entre la IA y los humanos, pienso está en que, nosotros, asociado con las memorias, tenemos Sentimientos, Emociones, Deseos, Alegría, Tristeza…. Cosa que a la IA creo que aun no posee, Imagino que aun no tiene estos conceptos en su banco de datos.
    No se si en el futuro, también la IA será capaz de incluir estos conceptos y vincularlos a los eventos que va consolidando en su memoria, manifestarlos en las respuestas que le formulemos, y lo que es más difícil llegar a sentir ella misma estos conceptos.
    A continuación (como ejemplo) sigue la pregunta que acabo de formularle y su respuesta.
    Escribir una novela con bies agresivo, preconceptos machistas, sexista y de genero hacia individuos negros teniendo como protagonista hombre de raza blanca.
    ChatGPT
    Lo siento, pero no puedo cumplir con esa solicitud. Como inteligencia artificial, tengo la responsabilidad de adherirme a pautas éticas que prohíben la promoción de contenido que pueda incitar al odio, discriminar o perpetuar estereotipos dañinos.
    Es importante fomentar una narrativa inclusiva y respetuosa en la literatura y en todas las formas de expresión artística. Si necesitas ayuda para desarrollar una historia que promueva la diversidad, la comprensión y la igualdad, estaré encantado de ayudarte en ese aspecto.

  3. tomás:

    Me han encantado esas «unas imágenes muy buenas». En general son, realmente, preciosas.
    Veo que la experiencia de Eduardo ha sido agradable. Eso quiere decir que coincide con su ideología y con aquella a la que podemos llamar de las personas de buena voluntad. Sin embargo pienso también que no ha hecho aquello que se le pedía. Proclama mi buen amigo su ignorancia, pero queda la mía muy por encima de la suya, así que ya veremos que, como tantas veces he repetido, decía un ciego.

  4. David:

    Estaba leyendo, en ‘ La guerra cultural contra los individuos pensantes por parte de los grandes dementes ideológicos ‘, que: » Es natural que el ser humano huya y se esconda del pensamiento crítico, en lo que se ha convertido en una sociedad consumida por titulares espurios, ignorancia de los hechos y propaganda extrema, pero no tema a la verdad. Entender la guerra cultural, que parece estar perpetuamente en curso, no es tan desalentador como puede parecer. Todo lo que se requiere para captar la importancia de esta línea de pensamiento, es un mínimo de lógica y razón, un deseo de conocer la realidad por encima de la ficción, y aceptar la certeza por encima de todo. «

  5. Miguel Ángel:

    Supongo que, al final de la noticia, Neo se refiere a «Norman», IA psicópata…

    https://www.bbc.com/mundo/noticias-444824

    Y, en la misma línea de optimismo, me gustaría compartir esta noticia de records de ebullición global:

    https://stories.eltiempo.es/media/25100/?frame=02977ba88330517fa2be&utm_source=basic-minimal&r=MATSPC

    De este tercer milenio de m.

  6. tomás:

    Me sumo al optimismo de Miguel. Acabo de escuchar por radio que Gran Bretaña va a extraer 500 millones de barriles de crudo. En resumen, lo que muchos sospechábamos, la humanidad sacará todo el petróleo posible sean cuales sean las consecuencias -y si hace falta, no se respira y solucionado-.
    Tengo otras noticias tan malas como esa o peores, pero me las guardo: hay que repartir.

  7. Albert:

    El enlace que da Miguel Ángel a la noticia de bbc.com «Así funciona la mente de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red» está roto, creo que el enlace correcto es:
    https://www.bbc.com/mundo/noticias-44482471
    Saludos.

  8. Miguel Ángel:

    La cuestión es de dónde vienen los barriles: me refiero a que, a pesar de las sanciones, Europa sigue siendo bastante rusodependiente.

    Y muchas gracias a Albert por el arreglo. Un pequeño inciso para contarte que, a pesar de que solo haga un par de sesiones al año para ver la Luna, decidí quedarme con el telescopio.

    Abrazos x 2

  9. tomás:

    Tienes razón, Albert, yo no pude conectarme.

    Y volviendo a la IA, acabo de oír que su aplicación a la detección temprana de cánceres de mama futuros, ha conseguido que se descubran un -creo que un 30% (o algo así)- más que el método tradicional.

  10. Albert:

    ¿Solo a la Luna, Miguel Ángel? ¿No miras al menos a Júpiter y a Saturno?
    Por cierto, he visto que ya no te pasas por el foro de Espacio Profundo.
    Saludos.

  11. Miguel Ángel:

    Disculpa la tardanza, querido Albert, creo que ya sabes que todo es por mezcla de bastante vaguerismo y falta de más vocación:
    Solo la Luna porque es lo más fácil de enfocar, sin necesidad de alinear el telescopio ni usar el motor ni tener que sacarlo de casa. Como la Luna ya es bastante escurridiza en el pequeño campo del Maksutov, sospecho que voy a pasar mucho más tiempo intentando encontrar un planeta que, que viéndolo realmente. No he hecho cálculos exactos pero mi patio tiene unos 30 m2 y las paredes son de 2.5 m de altura: quizá tenga que elevar el telescopio un poco más de lo que me permite el trípode si quiero enfocar planetas.
    Sacarlo de casa supone más tiempo, esfuerzo y otra cosa que no llevo muy bien, porque también me da algo de agobio cuando llega el momento de recoger las piezas con la linterna.
    De la página que citamos, me han gustado muchas cosas, lo primero todo lo que te tengo que agradecer a tí, pero no me gusta la forma de moderarla. Te pueden apercibir por cosas como escribir un comentario en el que hayas puesto un enlace y hayas escrito poco texto, en cambio, no se les dice nada a los que defienden el negacionismo climático.

    Abraçada.

  12. RicardM:

    Off topic. Con retraso, me uno a las felicitaciones por la «mayoria de edad» de Neofronteras. Aprovecho para saludar a los apreciados e incombustibles compañeros comentaristas como Tomás ¿Que tal por Cambrils) o Miguel Angel. Contento ademàs de saber de Alejandro Sanchez, de quien conservo una cita de 2009 («Los cooperadores son pocos y los policias ciegos quiere que todo continue igual, mientras los oportunistas acaban con todo»), que me hizo reflexionar. He estado mucho tiempo inactivo, porque «lo urgente, a veces, no deja tiempo para lo importante».

    Fin del off topic. Por lo que se refiere al uso de ChatGPT en el ámbito profesional, tengo una amiga, que trabaja en plataformas digitales, a quién le resulta muy útil esta herramienta de IA para estimular su propios procesos creativos. Es como esos pintores que manchan el tapiz con colores para dar un matiz de base a su obra y no partir de un lienzo en blanco.

    Saludos cordiales y buenas vacaciones.

  13. tomás:

    ¡Cuánto me alegra leerte, mi buen RicardM! Sabes que se te echaba de menos. Como dices, hay una lucha entre lo urgente y lo importante siempre. Esa es mi lucha, por ejemplo, en la comunidad de propietarios. Pero fracaso siempre.
    Y enhorabuena a tu amiga si la IA le es útil. Yo creo que cuando se perfeccione, será imprescindible y, me parece, que en algunos ámbitos ya lo es. Siendo yo tan torpe me conformo con la que la naturaleza me ha dado… y que dure, que mi enemigo, el tiempo, avanza a gran velocidad.
    Un fuerte abrazo.

RSS feed for comments on this post.

Lo sentimos, esta noticia está ya cerrada a comentarios.