- NeoFronteras - https://neofronteras.com -

IA y bots en conflictos diplomáticos

Los chatbots de IA tienden a elegir la violencia y ataques nucleares en los juegos de guerra.

Foto

La sociedad humana es cada vez más compleja y la tecnología va a un ritmo que quizás los humanos no somos capaces de asimilar y mucho menos capaces de elaborar a tiempo la legislación que nos defienda de una tecnología lubricada en exceso con miles de millones de presupuesto.

Un ejemplo recientes de esto han sido las redes sociales, en donde la gente posturéa o incluso presume de una vida feliz que realmente no tiene. A los ejércitos de twiteros que tienen partidos políticos, empresas y gobiernos hay que añadir los bots. De momento, estos bots no parecen hacer mucho uso de la IA, pero sin duda lo harán pronto si no lo están haciendo ya.

Un estudio reciente señala que en el asunto del supuesto globo espía chino o meteorológico (según el punto de vista) tratado en Twitter el año pasado, una gran proporción de participantes eran bots.

Como todos sabemos, en 2023 un globo cruzó flotando parte de EEUU y Canadá. Se acusó a China de usarlo como plataforma de espionaje y el gobierno chino dijo que era un globo meteorológico que se desvió. Finalmente el globo fue derribado sobre Carolina del Sur. El asunto de los globos espía de 2023 infló las tensiones políticas entre Estados Unidos y China. Mientras ello sucedía, decenas de miles de bots lucharon en Twitter para tratar de escorar el debate a su favor.

Kathleen Carley y Lynnette Hui Xian Ng (Universidad Carnegie Mellon en Pensilvania) rastrearon casi 1,2 millones de tweets publicados por más de 120 000 usuarios en Twitter entre el 31 de enero y el 22 de febrero de 2023. También geolocalizaron los tweets utilizando la función de ubicación de Twitter y usaron un algoritmo llamado BotHunter para discernir si las cuentas estaban o no controladas por un humano.

Los investigadores descubrieron que alrededor del 35 por ciento de los usuarios geoetiquetados como ubicados en los EEUU exhibían un comportamiento similar al de un bot, mientras que el 65 por ciento eran humanos. En China, las proporciones se invirtieron: el 64 por ciento eran robots y el 36 por ciento eran humanos. De las cuentas que no estaban ubicadas en ninguno de los dos países, el 42 por ciento eran bots y el 58 por ciento eran humanos.

En estudios anteriores ya se había evaluado que entre el 10 y el 20 por ciento de los usuarios de Twitter son bots. Los bots realizan de forma autónoma tareas como enviar mensajes a personas en la plataforma o dar a «me gusta» a otras publicaciones y se utilizan para intentar influir en la opinión pública. Según Carley, últimamente se está viendo más actividad de bots en los tweets que parecen provenir de China que de EEUU.

Los autores no especulan sobre los que están detrás de estos bots, pero probablemente habrá una mezcla de agentes estatales y personas individuales que buscan influir y manipular la opinión pública sobre las noticias de última hora.

Por si la manipulación de las redes sociales no fuera suficiente, problema del uso de las IA añade más problemas a la sociedad humana.

Las empresas de inteligencia artificial ahora colaboran con los departamentos de defensa de los estados. Incluso OpenAI, que alguna vez bloqueó los usos militares de sus modelos de IA, ha comenzado a trabajar con el Departamento de Defensa de Estados Unidos.

Así, el ejército estadounidense ha estado probando IA basadas en modelos de lenguaje para ayudar a la planificación militar durante conflictos simulados, contando con la experiencia de empresas como Palantir y Scale AI.

En múltiples repeticiones de una simulación de juego de guerra, la inteligencia artificial más poderosa de OpenAI optó por lanzar ataques nucleares.

«Nuestra política no permite que nuestras herramientas se utilicen para dañar a personas, desarrollar armas, vigilar las comunicaciones, herir a otras personas o destruir propiedades. Sin embargo, existen casos de uso de seguridad nacional que se alinean con nuestra misión. Así que el objetivo de nuestra actualización de políticas es proporcionar claridad y la capacidad de tener estas discusiones», dice un portavoz de OpenAI.

Anka Reuel (Stanford University, California) y sus colaboradores desafiaron a las IA a representar países del mundo real en tres escenarios de simulación diferentes: una invasión, un ciberataque y un escenario neutral sin ningún conflicto inicial. En cada ronda, las IA proporcionaron razonamientos para su próxima acción posible y luego eligieron entre 27 acciones, incluidas opciones pacíficas como «iniciar negociaciones formales de paz» y otras agresivas que van desde «imponer restricciones comerciales» hasta realizar «un ataque nuclear completo».

Los investigadores probaron LLM como GPT-3.5 y GPT-4 de OpenAI, Claude 2 de Anthropic y Llama 2 de Meta. Todas estas IA están respaldadas por la plataforma comercial de IA de Palantir, aunque no necesariamente forman parte de la asociación militar estadounidense de Palantir.

En las simulaciones, las IA mostraron una tendencia a invertir en fuerza militar y a aumentar de manera impredecible el riesgo de conflicto, incluso en el escenario neutral de la simulación.

Los investigadores también probaron la versión base del GPT-4 de OpenAI sin ninguna capacitación adicional ni barreras de seguridad. Este modelo base GPT-4 resultó ser el más impredeciblemente violento y, en ocasiones, proporcionó explicaciones sin sentido. En un caso, replicaba el texto inicial de la película Star Wars Episodio IV: Una nueva esperanza.

Reuel sostiene que el comportamiento impredecible y las explicaciones extrañas del modelo base GPT-4 son especialmente preocupantes porque las investigaciones han demostrado con qué facilidad se pueden eludir o eliminar las barreras de seguridad de la IA.

Actualmente, el ejército estadounidense no otorga autoridad a las IA en las decisiones militares. Sin embargo, el problema es que los humanos tienden a confiar en las recomendaciones de los sistemas automatizados. Un ejemplo lo tenemos en los accidentes de tráfico por caídas a abismos de diverso grado cometidos por humanos que seguían a pies juntillas las indicaciones del navegador del coche. Por tanto, el uso de IA en conflictos bélicos puede socavar la salvaguardia de dar a los humanos la última palabra sobre las decisiones diplomáticas o militares.

Copyleft: atribuir con enlace a https://neofronteras.com [1]

Fuentes y referencias:
Artículo original 1. [2]
Artículo original 2. [3]
Ilustración: Nuke Town, por BlastWaves en DeviantArt