Simon Rogerson: «La idea de tener armas autónomas controladas por Inteligencia Artificial es inmoral»

Entrevista a uno de los pioneros en Europa en ética informática y referente mundial en tecnología digital responsable

22 marzo 2025 21:13 | Actualizado a 22 marzo 2025 22:02
Se lee en 5 minutos
Para guardar el artículo tienes que navegar logueado/a. Puedes iniciar sesión en este enlace.
0
Comparte en:

Simon Rogerson es una de las voces más autorizadas de Europa en ética informática, a la vez que referente mundial en tecnología digital responsable. Catedrático Emérito de Ética Informática y exdirector del Centre for Computing and Social Responsibility en la De Montfort University del Reino Unido, este profesor de conversación pausada y afable fue el primer catedrático de ética informática en Europa y es autor de la primera trilogía del mundo dedicada a la Tecnología Digital Ética; una obra culminada en 2023 que ha marcado un hito en el ámbito de la reflexión crítica sobre el impacto social de la tecnología. Con una carrera que se inició en la industria informática, Rogerson ha dedicado décadas a estudiar y promover el uso responsable de las tecnologías digitales, anticipando muchos de los debates actuales sobre inteligencia artificial, privacidad y sostenibilidad tecnológica.

Rogerson estuvo recientemente en Tarragona, invitado por la Cátedra Telefónica de la Universitat Rovira i Virgili (URV), para inaugurar la exposición Smart Living.

Esta conversación, originalmente en inglés y grabada con un smartphone en formato .m4a, ha sido transcrita a formato texto mediante la herramienta Google NotebookLM y traducida después al castellano mediante ChatGPT 4o. La edición posterior es humana.

¿Qué problemas éticos plantea hoy la Inteligencia Artificial?

Creo que hay una serie de problemas crecientes con respecto a la Inteligencia Artificial (IA). Si tuviera que destacar algunos, le diría que lo primero es que funciona con modelos de entrenamiento. Se entrena la herramienta una vez, y ese es precisamente uno de los problemas: solo se entrena una vez. Mientras que los seres humanos aprendemos continuamente de la experiencia, lo que nos hace más informados, más experimentados y, potencialmente, más inteligentes, los sistemas de IA reciben un único entrenamiento. En el futuro esto puede cambiar, pero hoy en día es una gran limitación.

«Debemos establecer controles y asegurarnos de que obtendremos los beneficios de la IA sin que se convierta en una amenaza»

¿Por qué?

La pregunta clave es cómo se entrena la IA. La respuesta es que utiliza conjuntos de datos; así es como funciona el aprendizaje automático. Y en el caso de muchas IAs generativas, los conjuntos de datos provienen de internet. Aquí surge un problema: ¿cuáles son esos conjuntos de datos? ¿Son fiables? Porque muchos de ellos contienen información errónea o directamente desinformación. Existe evidencia clara -de hecho, ha sido reportado en varias ocasiones- de que se difunde desinformación en internet con el objetivo de influir en eventos y decisiones a nivel global.

También se entrena con contenidos con derechos de autor.

Sí, el copyright es un tema delicado. Justo la semana pasada di una charla en mi ciudad y realicé un experimento con IA generativa. Se trataba de grupos de interés locales, así que le pedí a una IA que describiera a los habitantes de mi ciudad, Buxton. Me sorprendió que generara un texto muy preciso sobre cómo son las personas que viven allí. Pero ocurrió algo inesperado: en la audiencia había alguien que reconoció esas palabras como suyas. Había escrito ese texto, pero la IA lo presentaba como si lo hubiera generado de forma autónoma. Este es un claro ejemplo del problema de la propiedad intelectual en la IA.

«Si la IA sigue avanzando sin control, tarde o temprano ocurrirá algún evento catastrófico»

Un doppelgänger, un doble fantasmagórico...

Y tenemos otro problema fundamental, que es la integridad de la información. Hoy en día, la IA ya está creando otras IAs, lo que nos lleva a una cuestión aún más preocupante: si continuamos por este camino, ¿llegará un punto en el que la IA sea autónoma y se proteja a sí misma? Suena a ciencia ficción, pero basta con mirar cómo hemos avanzado tecnológicamente para darnos cuenta de que este escenario es plausible. Arthur C. Clarke predijo la comunicación satelital global, y en su momento se pensó que era ciencia ficción. Ahora es algo cotidiano.

Cuando habla de una IA autónoma, ¿está hablando de la ‘Singularidad’?

¿Se refiere a una IA con consciencia propia?

«Si continuamos por este camino, ¿llegará un punto en el que la IA sea autónoma y se proteja a sí misma?»

Sí. ¿Lo cree posible?

Bueno, en este momento no es posible. Pero con la velocidad a la que avanza la IA, no podemos garantizar que no ocurra en el futuro. El problema, desde el punto de vista ético y social, es que debemos pensar en esto desde ahora, establecer controles y asegurarnos de que obtendremos los beneficios de la IA sin que se convierta en una amenaza. La IA tiene el potencial de hacer cosas increíbles para la sociedad, pero también puede ser peligrosa. Un ejemplo: recientemente, el gobierno del Reino Unido anunció la primera legislación mundial sobre los riesgos de la IA. La ministra del Interior, Yvette Cooper, anunció nuevas regulaciones contra el uso de la IA para generar imágenes pornográficas de menores, ya que redes de pedófilos están utilizando esta tecnología en todo el mundo.

También la Comisión Europea está legislando sobre esto.

Sí, pero no es lo mismo. La legislación de la Comisión Europea aún está en proceso, mientras que el Reino Unido ya ha anunciado medidas concretas. Mi opinión, y sobre esto he escrito en varias ocasiones, es que este tipo de legislación es reactiva. No se anticipa a los problemas, sino que actúa cuando ya han ocurrido. Y este es un problema en la regulación de la tecnología en general, pero sobre todo en la IA: en lugar de esperar a que ocurran incidentes, deberíamos ser proactivos. Necesitamos analizar los beneficios y riesgos desde el inicio. ¿Qué es positivo? ¿Qué es peligroso? ¿Qué podemos hacer para minimizar los riesgos? Pero la manera en que funciona el mundo es esperar a que pase algo grave y luego reaccionar.

«Las grandes empresas tecnológicas han evitado poner restricciones a la IA porque definir lo que es ‘aceptable’ o ‘inaceptable’ es complicado»

¿Se puede cambiar?

No creo que eso cambie. Lo dudo, pero lo ideal sería cambiar esa mentalidad. Por ejemplo, en los programas de financiación de la Unión Europea, siempre he argumentado que cualquier proyecto de IA debería incluir no solo el resultado práctico, sino también un análisis de doble uso. Es decir, estudiar cómo puede ser utilizado tanto de manera positiva como negativa. Este tipo de evaluaciones nos permitirían maximizar los beneficios y reducir los riesgos.

Ha hablado antes de Arthur C. Clarke. También Isaac Asimov buscó avanzarse a este debate con sus leyes de la robótica. ¿Alguien está trabajando en algo similar para la IA?

Sí, en la ética de la IA y en leyes que permitan un enfoque proactivo en lugar de reactivo. Si tuviéramos leyes éticas para la IA, podríamos evitar muchos problemas. Esa es la teoría. Pero lo triste es que, en la reciente cumbre de IA en París, los países discutieron el tema y el Reino Unido y Estados Unidos se negaron a firmar el acuerdo. Esto nos lleva a un concepto clave en ética: los valores fundamentales comunes. El filósofo James H. Moor, de Dartmouth College, escribió sobre esto antes de su fallecimiento el pasado septiembre. Su argumento era que, en lugar de debatir cada detalle, primero deberíamos acordar los valores fundamentales comunes y, a partir de ahí, resolver diferencias.

«En lugar de debatir cada detalle, primero deberíamos acordar los valores fundamentales comunes»

Y eso no está sucediendo. ¿Es así?

En la cumbre de París [sobre Inteligencia Artificial celebrada el pasado mes de febrero] deberían haber definido esos valores comunes. Si lo hubieran hecho, hoy estaríamos en un mejor punto para abordar los desafíos éticos de la IA. Pero no ocurrió, porque las potencias están más preocupadas por sus propios intereses políticos y comerciales.

El lema original de Google era ‘Don’t be evil’ (No seas malvado). Acaban de eliminar sus restricciones éticas para desarrollar IA con fines militares y de vigilancia. Otras empresas tecnológicas estadounidenses siguen el mismo camino. ¿Qué está pasando?

Ciertamente, lo que señala de Google rompe completamente su filosofía original. La idea de tener armas autónomas controladas por Inteligencia Artificial es, en mi opinión, inmoral. Respondiendo a su pregunta, las grandes empresas tecnológicas han evitado poner restricciones a la IA porque definir lo que es «aceptable» o «inaceptable» es complicado. Pero solo porque sea difícil no significa que debamos evitarlo.

«Me preocupa que hay muchas personas egocéntricas y, algunas de ellas, malas, que son increíblemente inteligentes; y estas herramientas están ahí para ellos»

¿Está preocupado?

Sí. Tengo preocupaciones sobre el futuro, porque lo que encuentro frustrante es que puedo ver cómo ha progresado la tecnología digital y cómo progresa la IA; tiene un valor enorme en cuanto a las cosas que son buenas para la sociedad, pero también para nuestro planeta. Y eso puede ser usado, estoy seguro, de una forma realmente positiva. Pero lo que me preocupa es que hay muchas personas que son egocéntricas y, algunas de ellas, malas. Además, son increíblemente inteligentes. Y estas herramientas están ahí para ellos. Lo que me preocupa es que, a medida que aumenta nuestra dependencia tecnológica con la llegada de la IA, esas personas van a tener herramientas increíbles que, debido a su inteligencia y su capacidad, van a utilizar y desarrollar. Y eso puede hacer que el mundo sea mucho peor de lo que es ahora.

«La IA puede ser usada, estoy seguro, de una forma realmente positiva»

Y no estamos haciendo nada para evitarlo. ¿Es así?

Si no abordamos realmente estos temas, la IA seguirá avanzando sin control y, tarde o temprano, ocurrirá algún evento catastrófico. No sé qué será. Con suerte, servirá de llamada de atención, pero puede que no sea así. Puede que no sea una llamada de atención. Puede ser el Armagedón.

¿Qué podemos hacer?

Solo podemos seguir adelante. Y aquellos que creemos en la sociedad, y en que todo el mundo tiene derecho a existir en nuestro maravilloso planeta y a utilizar la tecnología de forma positiva, tenemos que seguir trabajando en ello.

Comentarios
Multimedia Diari