Más de 30 científicos de la URV alertan de los riesgos de la inteligencia artificial

Nace en Tarragona, con el espíritu pionero de Tinet, la primera asociación que pide un uso ético y cívico de la IA

Desde el matemático Manel Sanromà, al físico Àlex Arenas, pasando por nombres tan reputados como el del catedrático en prehistoria Eudald Carbonell; todos ellos forman parte de CIVICAi (civic+ai, es decir, inteligencia artificial cívica), la primera asociación que defiende los intereses de la ciudadanía ante la inteligencia artificial (IA).

Más de 30 científicos de la URV han firmado el manifiesto, de un total de unos 300 asociados en apenas un mes de camino de esa entidad nacida en Tarragona. La cifra crece cada día. Alertados, sobre todo, por la aparición en noviembre del año pasado de ChatGPT, académicos, intelectuales y referentes profesionales de diferentes sectores abrazan varias consignas: fomentar una cultura de conciencia crítica y regulación sobre los impactos sociales, económicos y medioambientales de la inteligencia artificial o favorecer prácticas que empoderen la ciudadanía para dar forma a una IA responsable y sostenible.

Un arraigo territorial

La organización nace con la vocación pionera que tuvo en su momento Tinet, la primera red ciudadana de internet en España, que también se impulsó en Tarragona. «Ahora queremos recoger aquella filosofía, en este momento clave de la evolución», explican desde la entidad. CIVICAi se está desplegando también territorialmente, con una serie de grupos de trabajo. Alrededor de 25 personas en el Camp de Tarragona forman parte de una iniciativa que pretende hacer difusión a través de actos de los potenciales alrededor de la IA, de sus pros y sus contras. Hay transversalidad en los perfiles, que van desde ingenieros informáticos, a periodistas, pasando incluso por arqueólogos.

Entre los adheridos y también entre los que no están pero apoyan sus tesis, hay distintas sensibilidades pero también un cierto consenso: no se ve factible ni detener el avance de la IA ni una moratoria de seis meses, como han propuesto algunos expertos para frenar la «carrera sin control» de los ChatGPT. Pero el debate está servido y va más allá. De hecho, interpela a los gobiernos y a la empresa privada. Hay académicos que desde la esfera pública de la universidad asumen su papel de «velar por que los intereses privados no pasen por encima de los derechos humanos en esta situación tan compleja en la que hemos entrado». También desde el sector privado, representado por ejemplo en el Clúster TIC Catalunya Sud y con el Tecnoparc de Reus como epicentro, hay voces que resaltan la inconveniencia de detener el progreso pero sí urgen, muy en la línea del resto de expertos, a garantizar el uso de estas nuevas tecnologías en beneficio de la humanidad y no para perjudicarla. Incluso hay quien reclama una velocidad más lenta.

La idea principal, por encima de todo ello, es que tenga lugar un acompañamiento en clave de reflexión moral y ética y una vigilancia por parte de los estados para regular posibles usos que tengan que ver con el fraude o con la manipulación.

«Queremos hablar de los riesgos pero también de las oportunidades, de cómo hacer un uso razonable de todas estas herramientas. Tenemos vocación internacional y pretendemos tejer alianzas con otros países», relatan desde la entidad, que se despliega en Tarragona pero pretende ir más allá. Desde la asociación ya están en contacto con otras personas que impulsan asociaciones similares en todo el mundo para constituir, más adelante, una federación internacional.

Álex Arenas, físico y profesor en la URV: «Estamos ante la mayor revolución de la humanidad»

«El poder de las herramientas es espectacular y tenemos a las empresas que generan los productos en una carrera loca para disponer de la IA más potente y más versátil, mientras que los gobiernos y la ciudadanía están a la expectativa. Estamos viviendo la mayor revolución de la humanidad, con máquinas con trillones de parámetros que ni los mismos creadores saben hasta dónde pueden llegar. No es una herramienta peligrosa pero es hiperpotente y estará en manos de millones de personas».

«Es un avance pero con peligros, de poder hacer informaciones a medida, de difundir imágenes falsas que pueden alterar la población. Todo eso puede hacer mucho daño».

«Necesitamos una reflexión como humanos, sobre hacia dónde vamos. Soy partidario de eso, de que este avance vaya de la mano de una cuestión cívica y social, para intentar que no nos supere. Es imparable y no pido detenernos sino mirar las posibles implicaciones que puede haber. Habrá una serie de discusiones para establecer regulaciones. Puede ser que de la IA dependan vidas. Ya existen automóviles autoconducidos. Lo primero es sentarnos y hacer que los gobiernos se planteen que deberán regular».

David Ferré, ingeniero técnico en telecomunicaciones: «Hay que avanzar más lentos o se nos puede ir de las manos»

«Estoy a favor de ir más lentos para que no se nos vaya de las manos, pero no de parar porque es inevitable. Tenemos que aceptarlo. Hablamos de los programas de toda la vida pero con mucha más potencia. Hace 30 años ya había IA. Ahora es mucho más potente y por eso llega a intimidar, por el potencial tan bestia. Nos debe dar miedo cuando has programado códigos de programa que simulan conexiones neuronales y, por tanto, se autoconectan y se desconectan ellas solas, de una manera más física. Eso ya sería incontrolable».

«Una marca de ‘Blockchain’»

«Estamos ante un reto y quizás no estamos visualizando bien las consecuencias de un desafío tan fuerte. Cuando está todo tan interconectado, hay riesgos, igual que el hecho de ir demasiado rápido. Ir iremos, sí, pero es importante que llegue a todo el mundo. Nadie asumirá un parón. Soy partidario de que todo lo generado por IA tenga marca, un sello, un código interno, por ejemplo, a través de ‘Blockchain’, que permitiría mirar toda la trazabilidad y serviría para detectar fotos falsas. Quizás hay que regular pero yo siempre he dicho que el mundo digital es una copia del analógico, donde la legislación ya es suficientemente potente».

Francesc Serratosa, catedrático de arquitectura y tecnología de computadores en la URV: «Nunca se ha podido detener la investigación»

«La experiencia nos dice que el ‘homo sapiens’ tiene demasiadas ganas de aprender, nunca se ha podido detener la investigación. Habrá que legislar si es preciso, y afrontarlo, pero plantear parar no será posible. Parece que se habla mucho de la parte negativa y hay un componente positivo muy claro».

«Como la energía atómica»

«Se ve mucho con ejemplos como el de la energía atómica y su uso en las radiografías: hay una derivada negativa, de la radiación, pero ha supuesto que muchas personas hayan salvado su vida a lo largo de la historia. He visto en congresos que los médicos admitían, por ejemplo, que el sistema artificial estaba detectando cáncer cerebral donde él no lo veía, que lo estaba haciendo mejor. Eso también hay que valorarlo, estamos en un cambio de paradigma y hay que reflexionar sobre él, pero tenemos que ser realistas y ver que el avance no se puede detener».

«Quizás haya que regular las cosas que vayan surgiendo y estar atentos a eso, pero ya está. Es algo que ha pasado siempre, por ejemplo con los descubrimientos genéticos. Detenerse no es posible. ¿Qué empresa parará seis meses mientras otras siguen avanzando y ganando terreno?».

Domènec Puig, catedrático de arquitectura y tecnología de computadores en la URV: «En manos desaprensivas tendrá usos inadecuados»

«Como todas las revoluciones tecnológicas, la de la IA es imparable. Acordémonos de la primera revolución industrial. La gente quemaba las máquinas. No tiene sentido limitar. Hay que regular para que haya una ética. La IA bien utilizada tiene una cantidad enorme de ventajas. Ahora el debate es si la IA un día podrá dominar a las personas. Ahora no, pero no se puede hacer predicciones sobre si podría pasar. ChatGP da respuestas buenas a preguntas de procedimiento pero cuando son a nivel de inteligencia emocional no la tiene. Una corriente de pensamiento dice que como la IA está hecha por personas nunca podrá superarlas y otra que llegará un momento en que aprenderá por ella misma de los datos que generamos los humanos. Ahora mismo parece ciencia ficción.

«Es bueno que aparezcan nuevas iniciativas con movimientos que quieran regular el uso ético. Es cierto que en manos desaprensivas puede generar usos inadecuados. Por eso los gobiernos y las instituciones tienen que ser responsables en el uso de estas herramientas, de manera que siempre al final hay alguien que tenga la responsabilidad de la información que genera la IA. Siempre habrá inteligencia humana que apriete el último botón».

El catedrático y profesor Domènec Puig (derecha), en la URV, con un proyecto de inteligencia artificial. Foto: Alba Mariné

Marc Arza, CEO de Starsud Studio: «Avanzaremos y las tensiones serán inevitables»

«Es algo muy grande, con muchas implicaciones, algo que va a transformar sectores enteros, que puede multiplicar la productividad de una persona por dos o por tres. Son derivadas muy importantes en muchos ámbitos y sentidos. Hay el miedo de que sobrarán trabajadores. Habrá shocks en algunos sectores, sí, pero se crearán otros trabajos, y habrá un incremento de la productividad».

«Me cuesta ver una prohibición, porque eso hace perder oportunidades a las regiones que lo quieran vetar o frenar, o dar plazos y moratorias. O todo el mundo lo para, y eso es imposible, o se abrirán fallas. Y habrá impacto no solo en aquellos sectores de valor añadido, como siempre se ha dicho, sino también los servicios. Será un cambio radical y por el camino habrá un aprendizaje. Será un tránsito complicado, con dificultades, pero no podemos prohibir el progreso. ¿Quién es el guapo que ante algo así pierde seis meses?».

«Lo único que podemos hacer es acompañarlo e intentar regularlo, sabiendo que habrá obstáculos. Viviremos cosas fuertes y las tendremos que pasar. Está bien que haya instituciones que reflexionen y debatan, pero el camino lo tenemos que recorrer y habrá tensiones. Son inevitables».

Mar Camacho, profesora de didáctica y organización escolar en la URV: «Necesitamos una IA justa, equitativa y no excluyente»

«Esta emergencia tan clara de la IA supone replantear muchas cuestiones como, por ejemplo, cómo respetamos los derechos y cómo promovemos un uso equitativo de esta tecnología. En estos momentos en los que surgen de forma brutal tantas herramientas, hay que plantearse una dimensión ética, al menos desde mi punto de vista, que es el educativo».

«El potencial más grande es la posibilidad de personalizar el aprendizaje, pero respetando los derechos de las personas. Hay que avanzar hacia sistemas equitativos que tengan en cuenta los derechos del profesorado y de los estudiantes. Todo eso habrá que alinearlo con los valores humanos y también con los de la propia educación».

«Acorde a derechos humanos»

«Necesitamos que la inteligencia artificial sea justa y equitativa y acorde con los derechos humanos, y no excluyente. Por eso hay que prever los conflictos que puedan aparecer y hacerlo todo muy transparente. Eso pasa, por ejemplo, por cómo capacitamos a los equipos directivos a utilizar la IA para tomar decisiones. Tenemos que convivir y construir con esta tecnología y contribuir a que todo el mundo se sienta cómodo con ella».

Jordi Garcia, fundador de eHealth AI y experto en IA del Clúster TIC Catalunya Sud: «Parar el desarrollo sería desafortunado y perjudicial»

«La idea de parar el desarrollo de la inteligencia artificial es muy poco realista, ya que se trata de una utopía. Aunque fuera técnicamente posible (hay que reiterar que virtualmente no lo es), cabría considerarlo completamente desafortunado y perjudicial».

«El mundo, la economía, las empresas, la sociedad o la tecnología evolucionan y se transforman imparables. No se paran. A eso podemos llamar evolución de la humanidad».

«Un código ético»

«En lugar de criminalizar la IA, es importante centrar la atención en analizar en manos de quién está el poder y cuáles son sus intenciones y aplicaciones. Es crucial garantizar que la IA se utilice para beneficiar a la humanidad y no para perjudicarla. Es preferible establecer un código ético global y que los reguladores se apresuren a redactar normativas que aseguren el correcto uso y control de estas tecnologías que están revolucionando el mundo».

«Eso sí, estas regulaciones no pueden servir como excusa para castrar la innovación y no tienen que tener sesgos interesados en detrimento de los desarrollos de la IA. Somos testigos de los inicios de la cuarta revolución industrial. No podemos perder esta oportunidad».

Jordi Garcia, con uno de sus proyectos de inteligencia artificial vinculados al ámbito de la salud. Foto: Alba Mariné

Eudald Carbonell, catedrático de Prehistoria en la URV: «Está a la altura del descubrimiento del fuego»

«Una base de lo que se habla está ligada a cómo la selección cultural está por encima de la selección natural. Estamos en un proceso evolutivo y es un salto cómo las máquinas construidas por nosotros se ponen a nuestro nivel. Estamos viendo un proceso importantísimo, con un ritmo de socialización muy rápido. Empezamos hace 70 años, con Turing. Ahora hemos entrado en otra fase».

«Un control social y crítico»

«Todo se está socializando y ante este avance la sociedad tiene que tener y ejercer un control social y crítico para evitar la manipulación de estrategias de la propia inteligencia artificial. Tenemos que tener una conciencia crítica y establecer mecanismos de control social que tienen que ser transdisciplinares y hacerse a partir de un consenso. Por eso estoy muy de acuerdo con las tesis de una asociación como CIVICAi y veo muy importante que se aceleren esos mecanismos de control».

«Lo que estamos viendo últimamente, ubicado en la historia de la humanidad, está al nivel de un hito como el descubrimiento del fuego. Es algo muy relevante que lo cambiará todo. Se trata de un proceso de humanización».

Antonio Moreno, catedrático de lenguajes en la URV: «Nos sorprende la rapidez incluso a los que estamos dentro»

«No podemos parar, solo reflexionar alrededor de estos modelos de lenguaje que están detrás de herramientas como el ChatGPT. Es poco realista parar y será muy difícil que haya una moratoria. Las empresas seguirán desarrollando sus productos. Todo está avanzando a gran velocidad e incluso esa rapidez está sorprendiendo a los que estamos dentro de la misma disciplina. Esta tendencia de las grandes compañías de generar productos cada vez más rápido y ponerlos en la red disponibles para todos, de forma que tendrán millones de usuarios sin tener claro qué hay detrás, sin la confianza en los resultados, es algo peligroso desde la credibilidad que puede llegar a tener».

«Se impone reflexionar, quizás hacer las cosas de otra manera, no solo lanzando productos sin testear y sin supervisión. La administración lo tiene complicado para poner trabas pero en la biología, cuando se avanzó en algunos experimentos, sí se hizo. Aquí no estamos en ese punto. En un salto de la evolución. En Europa sí nos estamos preocupando de construir una IA segura y ética. En China vemos que allí la usan para el control del ciudadano y en EUA lo desarrollan compañías que piensan solo en beneficio económico».

Temas: