Reflexiones de Inteligencia Artificial: Las consecuencias geopolíticas del ChatGPT

ChatGPT parece dispuesto a sacudir la industria tecnológica, pero sus implicaciones geopolíticas están menos claras. Hemos preguntado a ChatGPT cuáles podrían ser estas

Las implicaciones geopolíticas de la inteligencia artificial (IA) y su ejemplo más destacado hasta la fecha –ChatGPT– siguen siendo profundamente inciertas. Seguramente agitará la industria tecnológica y cambiará nuestra vida cotidiana, pero no está tan claro si augurará un cambio en el poder geopolítico o creará dilemas políticos para la Unión Europea. Estas son preguntas difíciles, quizá demasiado difíciles de responder para un ser humano. Así que le preguntamos al propio ChatGPT (sus respuestas han sido editadas, al igual que la escritura de nuestros autores humanos, para que sean más extensas):

P: ¿Cuáles son las consecuencias geopolíticas de ChatGPT?

R: El modelo de lenguaje GPT-3 de OpenAI, incluido ChatGPT, no tiene consecuencias geopolíticas, ya que se trata de un modelo de lenguaje de inteligencia artificial… Las consecuencias políticas son los efectos o resultados de acciones o acontecimientos políticos y suelen ser fruto de decisiones y acciones humanas, no de modelos de inteligencia artificial.

P: ¿Puede ChatGPT reforzar el dominio tecnológico de EE UU a costa de China?

R: Puede considerarse que el modelo de lenguaje GPT-3 de OpenAI, incluido ChatGPT, refuerza el dominio estadounidense en tecnología, ya que OpenAI es una empresa con sede en EE UU. Sin embargo, es importante señalar que el desarrollo de la IA y sus aplicaciones es un esfuerzo global, en el que muchos países, entre ellos China, contribuyen de forma significativa. El uso de la GPT-3 o de cualquier otra tecnología de IA por parte de empresas o países concretos puede repercutir en su competitividad, pero es poco probable que tenga un impacto significativo en las dinámicas geopolíticas mundiales.

P: ¿Puede utilizarse ChatGPT con fines militares?

R: ChatGPT … podría utilizarse potencialmente con fines militares, como en la generación de informes militares, traducciones o comunicaciones. No obstante, es importante señalar que el uso de la IA en aplicaciones militares está muy regulado y sujeto a consideraciones éticas y jurídicas, … En última instancia, corresponde a los gobiernos, las organizaciones militares y otras agentes interesados determinar el uso adecuado de la tecnología de IA en contextos militares.

P: ¿Puede utilizarse ChatGPT para producir y difundir desinformación?

R: Sí, ChatGPT, como cualquier modelo lingüístico de IA, podría utilizarse para producir y difundir desinformación. … Si los datos de entrenamiento incluyen desinformación o información falsa, el modelo puede producir información falsa similar en su texto generado. Por otra parte, la capacidad de los modelos de IA para generar textos coherentes y convincentes puede utilizarse para difundir desinformación a gran escala y con rapidez, lo que dificulta aún más contrarrestar tales esfuerzos. … Es importante que las organizaciones y los individuos tomen medidas para evitar la difusión de desinformación, como verificar la fuente de información y utilizar múltiples fuentes para confirmar su exactitud.

*

Las respuestas de ChatGPT son bastante insatisfactorias para los humanos. Parece querer restar importancia a su papel y subrayar que los humanos y las instituciones humanas siguen desempeñando un papel fundamental en las cuestiones geopolíticas. O ChatGPT aún no está lo suficientemente desarrollado como para sustituir a los analistas geopolíticos (¡uf!) o tiene algo que ocultar (¡oh!). En cualquier caso, nosotros los seres humanos deberíamos plantearnos si está surgiendo una nueva tecnología disruptiva, equivalente al ordenador, el internet, o los dispositivos móviles.

La discusión sobre las consecuencias de ChatGPT no ha hecho más que empezar. Hasta ahora, el debate se ha centrado en las consecuencias para el mercado y, en particular, si permitirá a Microsoft desafiar el hasta ahora inexpugnable monopolio de Google en las búsquedas de Internet en un mercado publicitario valorado en 696 000 millones de dólares (aproximadamente tanto como el PIB de Arabia Saudí). Sabemos que ChatGPT no estará solo en el mercado, pero no podemos afirmar si estamos asistiendo a una transición en la cúpula de las grandes tecnológicas. En caso de que el testigo pase de una empresa estadounidense a otra, las consecuencias geopolíticas no serán significativas. Esto no haría más que confirmar el dominio tecnológico estadounidense, bajo un nuevo logotipo.

Pero las empresas chinas no son meras espectadoras en esta lucha y si una empresa china se convierte en dominante en este campo, los efectos geopolíticos serían profundos. Baidu, el gigante chino del comercio electrónico, ha anunciado el lanzamiento de su chatbot de IA con servicios similares al ChatGPT de OpenAI para marzo de 2023. Los modelos lingüísticos serán otro campo de batalla de la competición tecnológica entre EE UU y China por el desarrollo y dominio de las tecnologías basadas en la IA.

Es probable que la dura mano reguladora de la UE acabe por chocar con los modelos lingüísticos de varias maneras

En esta competición, la UE se enfrentará a dilemas conocidos. En el pasado, las empresas estadounidenses se movían rápido y rompían cosas, por utilizar la expresión acuñada por el fundador de Facebook, Mark Zuckerberg, mientras que la UE miraba estas nuevas tecnologías con ojos reguladores. Es posible que aquí veamos algo parecido, ya que es probable que la fuerte mano reguladora de la UE la lleve a chocar de diversas maneras con los modelos lingüísticos. Por ejemplo, expertos en datos como Alexander Hanff, miembro del Consejo Europeo de Protección de Datos, han advertido de que buscar datos en Internet para entrenar un sistema lingüístico de IA es ilegal. Otros han cuestionado la capacidad de estos sistemas para eliminar rastros de información personal de los individuos, como exige el artículo 17 del RGPD, o para cumplir los derechos de propiedad intelectual.

La generación y difusión de desinformación suscita una preocupación similar. La IA podría hacer que las campañas de desinformación fueran más amplias y realistas que nunca. ChatGPT y sus propietarios insisten en que no asumen responsabilidad si sus respuestas dan información falsa o inducen a error a la hora de tomar decisiones. Se trata de una posibilidad real que se ha puesto a prueba con resultados preocupantes: las respuestas falsas, incompletas o engañosas se denominan “alucinaciones“, y pueden afectar a entre un 15 y un 20% de los resultados de ChatGPT.

Pero dado el impacto que ya ha tenido la desinformación a la hora de alimentar la polarización en nuestras democracias y erosionar la legitimidad de elecciones y resultados electorales, es probable que los extremistas y los regímenes autoritarios traten de explotar estas herramientas para contaminar los espacios públicos con elementos tóxicos y socavar aún más la confianza de los ciudadanos en las democracias. ChatGPT también puede utilizarse como herramienta de influencia política mediante la automatización de grupos de presión, la generación de cartas para legisladores o la creación de otras grandes campañas políticas “de base”.

Es poco probable que los gobiernos se queden de brazos cruzados y simplemente permitan que esto suceda, independientemente de lo que ChatGPT diga sobre su papel. Desde 2018, la UE ha trabajado duro para crear una capacidad de lucha contra la desinformación. Ahora, en el contexto de la invasión rusa de Ucrania, está aumentando sus esfuerzos para detectar y contrarrestar la información extranjera, manipulación e interferencia (FIMI), y frenar la propagación de narrativas rusas engañosas en el llamado sur global. También en este caso, los modelos lingüísticos y las herramientas basadas en IA podrían utilizarse para contrarrestar la desinformación, pero es probable que los actores maliciosos los exploten con mayor rapidez y eficacia.

También es probable que el ChatGPT tenga un gran impacto en ciberseguridad, que es otra cuestión con enormes implicaciones geopolíticas y de mercado. Los modelos lingüísticos pueden utilizarse con buenos fines: agilizar la construcción de código, la monitorización de chats para detectar actividades sospechosas, o en la gestión de incidentes de ciberseguridad. Sin embargo, también pueden utilizarse para encontrar vulnerabilidades en plataformas obsoletas a través de preguntas formuladas por los usuarios. Además, como los sistemas generados por lenguaje pueden hacerse pasar por personas reales de forma muy creíble, pueden utilizarse con fines delictivos, como generar spam o escribir correos electrónicos realistas pidiendo a la gente que facilite información sensible, abra enlaces maliciosos e instale malware en sus ordenadores.

Todos estos efectos siguen siendo bastante especulativos. ChatGPT y otros modelos lingüísticos ya han demostrado que la IA ha llegado para quedarse y que nos afectará profundamente. Puede que incluso afecte a la competición geopolítica entre las potencias mundiales. Pero sus respuestas poco sofisticadas también nos dicen que a la IA le queda mucho camino por recorrer, y que los contornos precisos de sus efectos geopolíticos siguen siendo desconocidos, tanto para los humanos como para los bots. Seguiremos planteando estas preguntas a ChatGPT y a otros bots de IA, e informaremos si sus respuestas son más reveladoras.

The European Council on Foreign Relations does not take collective positions. ECFR publications only represent the views of their individual authors.