ENTREVISTA

Iban García del Blanco: “Europa marca el camino a todo el planeta sobre las leyes para controlar la inteligencia artificial”

Iban García del Blanco, eurodiputado ponente de la Ley de Inteligencia Artificial de la UE.

Iban García del Blanco (León, 1977) es eurodiputado por el PSOE y ha sido uno de los protagonistas de la Ley de Inteligencia Artificial de la UE, formando parte del equipo español que participó en el trílogo que debatió durante casi cuarenta horas seguidas la puesta en marcha de una legislación pionera para controlar las acciones tomadas por las máquinas de aprendizaje automático en la Unión Europea. Un político que comenzó desde la secretaría provincial leonesa de Juventudes Socialistas, continuando como concejal de Juventud del Ayuntamiento de León y diputado provincial, puesto que dejó al ser nombrado en 2012 senador de elección autonómica. Después de dejar la política tras la destitución en 2016 de Pedro Sánchez como secretario general de los socialistas, volvió a su trabajo de abogado especializándose en el mundo de la Cultura. Lo apoyó decididamente en las primarias posteriores y tras ellas fue designado secretario federal de Cultura en la Ejecutiva del PSOE; y presidente de la Fundación Pablo Iglesias y del ente público Acción Cultural Española. En 2019 fue el número 7 de las listas a las Europeas.

La vinculación con la Inteligencia Artificial de este socialista de 46 años viene de su afición a la ciencia ficción y al ajedrez, ya que obtuvo el subcampeonato universitario de este deporte en 1996; y desde siempre, sobre todo desde que el ordenador Deep Blue de IBM ganara una partida a Kasparov– se ha sentido muy atraído por el impacto de la tecnología en la Cultura y en la Ciencia. Precisamente se hizo famoso en el Parlamento Europeo al entregar como ponente en agosto de 2020 el informe con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, que ha culminado en la creación de este novedoso marco legal único en el mundo para su control.

¿Qué hace un leones como tú en Europa con unas IA como esas?

Bueno (se ríe por la pregunta), pues colaborar en la regulación de una tecnología que efectivamente está revolucionando el mundo ya. No es un desideratum de futuro, sino que es una realidad palpable y lo será todavía mucho más con mucha más intensidad en el futuro y, por lo tanto, necesita que haya unas reglas mínimas que establezcan algunos límites que planteen algunas protecciones sobre temas esenciales: derechos fundamentales cuestiones importantes desde el punto de vista social y colectivo, y por supuesto que también generen un espacio de seguridad jurídica para quien quiera operar en el mercado europeo y por tanto también pueda pueda competir en el exterior con esa seguridad jurídica como si tuviera una especie de marca de calidad de respeto a una serie de principios esenciales. Al final la inteligencia artificial nos va a afectar independientemente de si vivimos en Madrid, en Bruselas o en León; o en algún pueblo pequeño de la montaña. Es decir, que es absolutamente disruptiva desde el punto de vista sociológico y va a marcar un antes y un después; y por lo tanto yo creo que también es importante que haya visiones de lugares que no son tan grandes o tan importantes desde el punto de vista económico, poblacional y eso también lo estoy intentando aportar yo.

La IA es ya una realidad palpable que tendrá mucha más intensidad en el futuro y necesita unas reglas mínimas sobre temas esenciales: derechos fundamentales y otras desde el punto de vista social y colectivo que generen un espacio de seguridad jurídica

Intenta explicárselo a la gente, si se puede, de forma lo más sencilla posible: ¿Qué es la inteligencia artificial y por qué hay que legislarla?

Hay muchas definiciones de la inteligencia artificial, yo no soy un especialista, diría que más o menos como lo concibe la OCDE –que es, digamos, al final la institución que ha planteado una terminología aceptada prácticamente por todo el mundo y que se parece mucho a la que está en la ley de inteligencia artificial– al final es una tecnología que se basa en la acumulación de datos que se ordena alrededor de algoritmos, que imita de alguna forma, que emula la actividad humana: que es capaz de hacerlo sobre todo hacerlo con cierta autonomía y con una característica esencial, que es absolutamente nueva en la historia, que puede evolucionar por sí misma. Eso es la inteligencia artificial, más o menos. Tiene una capacidad explosiva y exponencial de realizar tareas, establecer patrones, plantear soluciones a cuestiones que hasta ahora eran imposibles incluso de abordar; y por lo tanto generan también riesgos inherentes: estamos ante una tecnología que es muy potente, que tiene muchas esperanzas en cuanto a el avance desde el punto de vista colectivo, pero que como digo también genera ciertos riesgos inherentes por su propia naturaleza. Y al final hay otra vertiente, que también es muy importante importante desde el punto de vista político, que es asegurarnos de que los beneficios que produzca la inteligencia artificial no estén solo en unas pocas manos, en las manos de los grandes desarrolladores de tecnología. 

Hace dos años te encargaron el informe en el Parlamento Europeo para empezar el camino de crear esta ley sobre inteligencia artificial. Mencionaste en él un diálogo de la película Blade Runner y a Isaac Asimov, que son grandes de la ciencia ficción, en aquel octubre de 2021 y terminaste hace unas semanas aprobándola en un 'trílogo', que también parece un nombre de ciencia ficción. ¿Cómo ha sido todo este proceso? 

Pues un proceso largo, efectivamente. Comenzamos a trabajar en esta cuestión prácticamente a finales de 2019 tras tomar posesión en julio. Comenzamos a trabajar en esa propuesta legislativa ya sobre principios éticos aplicables a la inteligencia artificial, que de alguna manera fue base también para lo que luego desarrolló la comisión como propuesta legislativa en 2021. Previamente el Parlamento trabajó en muchos aspectos diferentes de cómo puede afectar a la inteligencia artificial a este sector o a otro, desde el punto de vista por ejemplo del derecho civil, o los usos en seguridad o militares, después se constituyó un comité especial sobre inteligencia artificial que duró año y medio. En ese fui el coordinador de los socialistas y demócratas europeos. Y después de la presentación de la propuesta por parte de la Comisión, el Parlamento ha estado trabajando casi dos años en su propia propuesta tratando de aquilatar una propuesta propia, que no es sencilla porque hay que ponerse de acuerdo alrededor de una tecnología que todavía es algo difusa; que todavía se nos escapa un poco entre los dedos que todavía no somos capaces de ahormar del todo en nuestras propias cabezas. Y que incluso genera incertidumbres en los grandes expertos, en los tecnólogos y en los desarrolladores... hasta el punto de, y pongo un ejemplo, de que cuando surgieron los modelos de lenguaje los modelos como ChatGPT, etcétera, yo recuerdo que habíamos tenido conversaciones con grandes expertos a nivel internacional que nos decían que esto iba a ser una realidad para dentro de 3, 4, 5 años. Quiero decir que hasta para ellos la tecnología es tan disruptiva, tan acelerada... como digo, esto genera también muchísimos problemas: antes he hablado de algunos de la tecnología en sí y hay otro adherido, que es también muy importante de tener en cuenta, y que nos plantea un reto también inédito que es la velocidad a la que va, que no nos permite tampoco tomarnos demasiado tiempo a la hora de hacer las grandes reflexiones que pueden ser decisivas para lo que pase en las próximas décadas.

Ya que hemos hablado de esto del trílogo que parece en ciencia ficción para que la gente entienda: ¿Qué es un trílogo y qué metas se han alcanzado en este de la inteligencia artificial de diciembre del año pasado? 

En español creo que el término más adecuado es 'diálogo tripartito', Organismo de Diálogo Tripartito normalmente llamado trílogo o trilog en inglés. Y es al final el órgano, digamos, de negociación de las leyes ordinario que tiene la Unión Europea. En el cual se reúne el Consejo de la Unión Europea que está formado por los países miembros, la representación, de los gobiernos de los países miembros se reúne el Parlamento Europeo y ambos intentan llegar a un acuerdo alrededor del texto que están discutiendo, que ambos han trabajado previamente. Y está también presente la Comisión Europea, la tercera pata que actúa como una especie de mediador. Luego para todo esto hay matices pero bueno, el papel de cada una de las instituciones es ese. Lo que ha ocurrido con esta ley es que –efectivamente por la dificultad intrínseca que tenía la materia, por las diferentes posiciones ideológicas que había alrededor de una cuestión tan esencial– nos ha llevado muchísimo tiempo. Es decir, que ha habido cinco trílogos oficiales o institucionales pero en el medio ha habido una mirada de reuniones de carácter técnico y es verdad que este ha llamado mucho la atención (también a nosotros los que estuvimos allí) que el último trílogo duró prácticamente 40 horas. Y eso tiene que ver con que, como digo es que es esencialmente difícil y complicado. Yo creo que es la materia más endiablada con la que he tenido yo que trabajar en mi vida.

Se ha trabajado en muchos aspectos sobre cómo puede afectar a la IA a este sector o a otro, el derecho civil, o los usos en seguridad o militares; primero en el parlamento y luego un comité especial en el que fui el coordinador de los socialistas europeos

¿Entonces, puedes explicar en corto cuáles son las claves de esta nueva ley? 

Básicamente lo que intenta la ley es establecer un mecanismo de protección de derechos fundamentales y de algunos intereses que entendemos que son esenciales desde el punto de vista colectivo. Sin impedir, digamos, o sin sobrecargar a los eventuales desarrolladores de tecnología; sin impedir el desarrollo y la competitividad europea en el exterior. De alguna forma estamos intentando cuadrar el círculo entre protección y promoción. Sabemos que ambas cosas son absolutamente esenciales: porque sin protección entonces no seríamos nosotros mismos, no seríamos un espacio que intenta ser un social y de derecho; y sin desarrollo no tendríamos capacidad de influencia en el mundo, y, por supuesto, no tendríamos tampoco seguramente riqueza ni generaremos riqueza suficiente como para poder sostener un modelo exigente de Estado de Bienestar. Entonces ambas cosas eran importantes y es al punto de equilibrio al que hemos tratado de llegar. El tiempo dirá si hemos sido capaces o no.

De hecho esa es una de las principales críticas a este acuerdo, que de momento todavía no es ley, que tiene que aprobarse. ¿Las tecnológicas dicen que va a matar la innovación, estás de acuerdo en esa afirmación? 

Bueno hay dos visiones diferentes y ambas han sido muy radicales. Hay algunas empresas tecnológicas o expertos –no todos tengo que decir porque hay algunas que han realizado muy buenos análisis alrededor de la ley– critican que de alguna forma es una sobrecarga legislativa que impedirá en la práctica dedicar recursos, o incluso desarrollar tecnología puntera en Europa... pero al mismo tiempo tenemos en la otra esquina del cuadrilátero a las entidades que trabajan por la defensa de derechos humanos, derechos fundamentales, derechos medioambientales, etcétera, etcétera, que dicen que nos quedamos cortos en la protección. Yo creo que ni unos ni otros están acertados. Creo que la cuestión era encontrar ese punto de equilibrio que creemos que hemos encontrado. Además la ley, hablando de la cuestión del desarrollo tecnológico, prevé también mecanismos para poder ayudar a las empresas fundamentalmente europeas, porque para eso somos europeos, a desarrollar tecnología puntera; crea una oficina de inteligencia artificial europea, que se supone que además de cuestiones de control, va a ayudar también a la armonización al dar seguridad jurídica y la armonización del uso de la ley en todos los países miembros, que va a generar códigos también de conducta; y los organismos nacionales también tienen residenciadas competencias para eso, es decir que van a tener que ayudar a los desarrolladores a poder hacerlo. Y una última salvedad, que quisiera destacar que es que también la ley diferencia entre grandes modelos que pueden generar riesgos sistémicos y los que no: es decir, la carga de intensidad legislativa y protocolaria con estas grandes empresas es muchísimo mayor de lo que sería con un emprendedor. Yo creo que todos coincidiremos en que con que Google u OpenAI y demás compañías de ese tamaño tienen capacidad suficiente para tener un ejército de abogados y de tecnólogos y cumplir con los requisitos de la ley.

Hay algunos países que han mostrado reticencias, como Francia; pero quizás por intereses estratégicos económicos con alguna empresa que tienen. ¿Tú crees que puede esto provocar alguna alteración significativa en el documento final que se ha aprobado? 

No, no lo creo. Efectivamente planteó problemas sobrevenidos en una negociación que estaba ya avanzada, con la paradoja además de que algunos de estos países que de alguna manera fueron haciéndose más liberales desde la perspectiva más laxa del concepto como Alemania, Italia o Francia fueron los que en un principio incluso prohibieron los modelos de lenguaje cuando llegaron. Les entró el pánico y los prohibieron. Bueno yo como digo creo que hemos llegado a un punto virtuoso de equilibrio. Creo que ellos también tenían mucho miedo en cuanto a algunos desarrollos que se están produciendo en sus países. Y algunos de quienes estaban realizando estos proyectos, de alguna manera intentaron que la regulación les afectara lo menos posible. Eso es legítimo en una democracia pero, creo que con buen criterio tanto la mayoría de los países como el Parlamento Europeo defendimos otro modelo mucho más intuitivo, mucho más protector y que creemos que cumple con todo. Y una salvedad, uniendo las dos preguntas que acabas de hacer: en este momento Estados Unidos está invirtiendo más de 30.000 millones de dólares al año en inteligencia artificial China está más o menos en la mitad y, lamentablemente, Europa está en la mitad de la mitad... en una centésima parte. Todo esto ha ocurrido sin necesidad de ninguna ley. No hay ninguna ley que impida el desarrollo ni la inversión; es decir esto, ha sido el salvaje oeste hasta el momento en el que la ley se ponga en marcha, que no va a ser tampoco una cosa inmediata. Creo que es evidente que todo esto depende mucho más de la apuesta estratégica a largo plazo y de la inversión económica, que de si la ley es más protectora o menos.

Respecto a las críticas de si esta ley impedirá la innovación en inteligencia artificial, decir que Estados Unidos y China han invertido miles de millones y Europa prácticamente nada; con lo que no es una ley la que ha frenado aquí los avances precisamente

¿Esta ley, que además se ha hablado mucho de ella, puede ser un ejemplo de la relevancia que ahora mismo tiene en Europa en la vida de los ciudadanos de los países que forman parte del club, no?

Absolutamente. No sólo aquí sino creo que también es un ejemplo de la influencia que proyecta la Unión Europea en el exterior. Porque estoy seguro de que los principios que plantea esta ley van a ser replicados en regulación internacional y en regulación también de algunos países importantes en este terreno. Antes he citado a dos: Estados Unidos acaba hace unos pocos meses de evacuar una orden ejecutiva por parte de su presidente ordenando una regulación, en algunos casos por cierto bastante más exhaustiva en algunos terrenos de lo que puede tener la Unión Europea, con lo cual otra vez se debate esta cuestión de si se impide la innovación y esas cosas; y China, al menos desde el punto de vista del establecimiento de determinados principios, tiene también una regulación que en algunas cosas se parece mucho a la de la Unión Europea. Y estoy seguro de que en el futuro ahí vamos a tener un marco internacional basado en nuestros principios y eso es una buena noticia para Europa, porque eso significa que hemos influido en el mundo internacional y que el mundo se va a parecer más a nosotros y a nuestros principios. Pero hablando hacia el interior, por supuesto todas las leyes que se han evacuado durante este mandato en el ámbito digital prácticamente todas son de aplicación directa. Esto es una diferencia con respecto a otros momentos y otras regulaciones; es decir, no necesitan de traslación, transposición a la regulación nacional. Esta es un ejemplo, pero incluso la Directiva de Servicios Digitales –que es una directiva y que tendrá que transponerse al derecho interno– también prevé cuestiones de aplicación directa. Mediante esa directiva, que yo creo que es un grandísimo avance en la historia de la humanidad, se va a poder poner coto, y ya se está haciendo, a algunas actividades que eran muy perniciosas incluso para la calidad democrática en nuestros países. De las grandes plataformas como X (la antigua Twitter), Facebook. Google o como Amazon que estaban haciendo cosas que atentaban directamente contra derechos fundamentales y sobre todo contra principios democráticos y que no estaban teniendo ningún tipo de control. Que se llamaban andanas y no se sentían responsables.

¿Pero en serio creéis que se puede controlar la inteligencia artificial? 

Tendrá que serlo. Porque si no nos enfrentaremos precisamente a un reto que quizá provoque, entonces sí, consecuencias muy negativas, ¿no? Yo creo que si se puede, que al menos sí se puede plantear determinados principios. Al final el ejercicio del derecho y el ejercicio democrático se sustenta sobre cierta aproximación positiva, optimista hacia la realidad. Sin eso es difícil que planteemos proyectos colectivos y simplemente no hagamos el sálvese quien pueda. Y en este terreno nosotros creemos que sí y de hecho creemos que es una regulación lo suficientemente flexible como para poder adaptarse a diferentes escenarios, a avances tecnológicos dentro de esta propia tecnología; porque es una regulación que fundamentalmente se basa en el uso más que en la tecnología en sí. Es verdad que hay una excepción con el tema de los modelos de lenguaje, que además prevé incluso el establecimiento de espacios de prueba, tanto internos como en la propia Sociedad: lo que se llama las sandboxes. Creemos que sí, creemos que es posible y, eso sí, somos perfectamente conscientes de que tenemos que tener flexibilidad y de que necesitamos una inversión, yo creo que esta es la principal, en capital humano gigantesca. Porque para aplicar esta ley necesitamos profesionales y medios que hoy no tenemos. También por eso se prevé una vacatio legis desde prácticamente dos años; en algunas cosas, en otras no, en algunas es menor.

Creemos que se puede controlar la IA, que es posible; pero perfectamente conscientes de que tenemos que tener flexibilidad y de que se necesita una inversión en capital humano gigantesca. Para aplicar esta ley necesitamos profesionales que hoy no tenemos

Estamos hablando de peligros y hay una cosa que hay que preguntarse ¿Qué medidas tiene esta ley para proteger a los ciudadanos?

Pues como decía, la ley tiene una aproximación al fenómeno de uso de la tecnología, no de control de la tecnología en sí, sino de cómo se usa. Y en cuanto a eso plantea una serie de usos que van desde prohibidos hasta sin ningún riesgo sustancial. En cuanto a los usos prohibidos, para que la gente lo sepa pues se prohíbe utilizar la inteligencia artificial por ejemplo, para establecer mecanismos de control social. Y pongo un ejemplo, en China ya hay una especie de carnet de ciudadano, de carnet por puntos ciudadano, esta tecnología permite controlar en tiempo real durante todo el tiempo cuál es la actividad de cada ciudadano en cada minuto y un estado regresivo podría establecer, como digo un carnet de buen ciudadano o mal ciudadano y eso producir efectos, pues por ejemplo en cuanto a la contratación con una administración pública o el acceso a una beca. Esta práctica, incluso aunque los objetivos sean mucho mejores a priori, está prohibida para las administraciones dentro de la Unión Europea. Está prohibido el control biométrico en tiempo real en espacios públicos por parte de administraciones, con alguna excepción muy concreta, pero con un enorme control. Está prohibida la manipulación subliminal, la utilización de este tipo de tecnología sobre todo a poblaciones con algún tipo de debilidad: a menores, a personas con discapacidad. Están prohibidos varios usos, no quiero ser exhaustivo, porque seguramente además aunque lo intentes, se me quedará alguno.

La Ley prohíbe utilizar la IA para establecer mecanismos de control social, el control biométrico en espacios públicos o análisis de emociones; hay una serie de usos y utilizaciones de alto riesgo en Educación, Sanidad o en el trabajo; entre otros

Por ejemplo, un 'deepfake' que te copien la voz y que te copien la cara y hagan cosas contigo ilegales sin ser tú...

Llegaremos a eso. Luego hay una serie de usos y utilizaciones que están concebidos como de alto riesgo. Eso comporta también unas obligaciones muy importantes antes de poner una tecnología en el mercado: un control previo, un control durante toda la vida de la tecnología un registro, una determinada transparencia también para el acceso incluso de personas que pudieran estar afectadas... y eso está pensado fundamentalmente para la utilización en algunos ámbitos que nosotros entendemos que son muy sensibles: pues el ámbito de la educación, el ámbito de la sanidad el ámbito de la justicia, por ejemplo. Ahí va a haber muchas exigencias. Hablando, por ejemplo, de la educación, un uso que está prohibido y también en el ámbito laboral, son las técnicas de análisis de emociones. Hoy en día ya es posible, y hay quien las utiliza a través del ordenador, controlar si un trabajador está menos o más atento en su puesto de trabajo; o a un alumno controlar a priori, como digo, porque luego tiene fallos, si está copiando en un examen por las reacciones que tiene con su cara. Eso, por ejemplo, estará prohibido. Como digo, luego hay usos de alto riesgo. Hay unas obligaciones muy específicas y ahora voy a lo que acabas de preguntar sobre algunas utilizaciones, sobre todo de transparencia. En primer lugar, estos llamados deepfakes que de alguna manera emulan, esto sí, a personas reales a través de audios, vídeos o incluso textos –que esto, por cierto, es una cosa que he defendido yo y que al final conseguí– digo, todos estos deepfakes van a tener que llevar una marca de agua; una especie de señalamiento. Hay una obligación de señalar al ciudadano que está interactuando con un deepfake. Por supuesto, habrá quien se salte la ley, obviamente, en esto y en todo, es decir también está prohibido el asesinato y hay gente que asesina, ¿no? Pero bueno, también se puede utilizar la tecnología en un sentido inverso para controlar la propia tecnología. Y además, hay un parámetro también específico, sobre todo para estos modelos de lenguaje que han sido entrenados con millones y millones de datos muchos de ellos protegidos por propiedad intelectual, hay una obligación para que sean transparentes en cuanto a la utilización. Para que una persona que se sienta afectada –ahora estamos viendo qué está ocurriendo con todas las demandas que están poniendo medios americanos en Estados Unidos, New York Times ha sido el último OpenAI-. Pues, en principio, con la ley europea no va a haber que hacer una investigación como Perry Mason para saber si se han utilizado tus datos o no sino, que tendrán obligación de poner a disposición de las personas, de los titulares de los derechos qué se ha utilizado y qué no. Por lo tanto, estos se sentirán compelidos o no, o con derecho o no, a poder reclamar dinero por una utilización indebida por parte de estas empresas de sus propios datos. Estos son los usos y el resto –que es la abrumadora la mayoría tengo que decir cuando la gente dice que es muy intrusiva la ley de inteligencia artificial–. el resto de los usos están a priori permitidos y sin ningún tipo de control exhaustivo adicional 

¿Y multas?

La ley prevé multas millonarias de hasta más de 30 millones de euros o incluso el 6,5% de la facturación mundial que pueda tener una determinada empresa. Esto es como mínimo 35 millones de euros y si la cantidad es mayor es decir, si estamos ante estos modelos que facturan muchísimo más, entonces el parámetro que se utilizará es el de los 6,5%

Pero un ciudadano ahora con estas tecnologías, una sola persona puede hacer todo ese tipo de cosas no le van a imponer una sanción de 35 millones de euros...

Bueno, una sola persona no puede hacer eso. Estamos hablando de desarrolladores tecnológicos, estamos entonces hablando de otra cosa quiero decir, hace muy poco hemos tenido el ejemplo de las niñas a las que le hicieron los deepfakes en Murcia. Dos cuestiones: para empezar ese tipo de tecnologías tienen algún control previo, es decir, no se van a poder poner en el mercado sin más y sin ningún tipo de control gracias a la ley; y en segundo lugar, el derecho penal también funciona, también está prohibido matar y lo puedes hacer no con inteligencia artificial, lo puedes hacer con un palo o un garrote en la cabeza, quien delinca pues tendrá que ser sancionado penalmente.

Hay multas para las grandes compañías de mínimo de 35 millones de euros, y en el caso de los 'deepfakes' injuriosos está el código penal; para comportamientos individuales hay que ser muy cuidadoso y ajustarse a lo que venga en el futuro

También es cierto que en algunos casos estaremos ante comportamientos que incluso no están contenidos en nuestro código penal o en nuestras leyes, porque estamos ante realidades nuevas. Bueno, eso tendrá que hacerse. Uno sería muy cuidadoso frente a eso de hecho, creo que hoy en día con las leyes que hoy tenemos cuando hablamos sobre todo de de la ley de la justicia de responsabilidades penales creo que es más que suficiente.

¿Se puede prohibir la IA en algún sector concreto y si tenéis alguno o crees que puede haber algún mecanismo para apagarla en caso de que se ponga la cosa muy Skynet?

Yo creo que en esencia no hay un sector en el que esté prohibido la utilización porque se puede utilizar la IA para hacer cosas muy buenas. Incluso si hablamos de, por ejemplo, discapacitados pues se puede utilizar la IA incluso para para que puedan viajar por el mundo de manera virtual, que puedan tener acceso a emociones y a experiencias que no tendrían jamás, que no tendrían esa posibilidad jamás en su vida acceder a espacios diversos y diferentes, pero efectivamente la ley es muy cuidadosa con respecto sobre todo por poblaciones vulnerables y a determinados usuarios y a determinados usos que eso sí, sí que están prohibidos. 

Pero vamos que si se puede apagar en plan Skynet, la IA de 'Terminator' que acaba con la humanidad, si se nos vuelve loca... 

La ley prevé en los usos de alto riesgo prevé lo que le llaman el botón de parar, el botón de stop; es decir que sí siempre tiene que haber una persona en física en ultima ratio que sea la responsable de darle al botón de parar.

Hablaste de replicantes al principio cuando empezaste el informe de la Ley, de Isaac Asimov, que es el padre de las tres leyes de la robótica. ¿Tiene alguna conexión esta ley con los robots? Porque también van a llegar los robots y los robots obviamente eso sí que van a utilizar inteligencia artificial hasta llegar a ser androides. ¿Qué tiene previsto? 

En la pregunta está intrínseca la respuesta. Sí. Quiero decir, el robot es digamos una aplicación tecnológica muy concreta, pero la tecnología que se utilizará dentro del robot para poder programar su acción su actividad, efectivamente tanto en el diseño como en la propia implementación luego del producto en el mercado pues tendrá inteligencia artificial y está perfectamente permitido. Por cierto por el camino de todo esto he encontrado he encontrado muchos autores pero he encontrado otro autor que seguro que conoces que se llama Stanislaw Lem que es el autor de Solaris. Tiene un libro que yo aluciné cuando lo leí, porque fue un libro además que compré en Polonia, y es un compendio de relatos cortos que se llama Ciberiada en el que aparece un modelo de lenguaje –y fíjate que estamos hablando de 1956 cuando lo escribió– que está especializado en hacer poesías y produce efectivamente los mismos problemas, exactamente los mismos problemas que estamos viviendo hoy en día. Es decir –y lo hablaba el otro día con otro periodista, Suanzes de El Mundo,–, afortunadamente la ciencia ficción nos ha permitido anticipar muchas de las reflexiones que hoy tenemos que hacer.

¿No habéis tenido expertos en ciencia ficción asesorándoos? 

No. Yo lo he echado mucho de menos. Yo he tenido esa experiencia y contacto como lector pero también con conversaciones con gente del mundo de la ciencia ficción de manera personal; pero sí que he echado de menos que hubiera personas de ese campo, más allá de que como los tecnólogos, que también de alguna manera también intentan anticipar el futuro. Pero hay muy buenas reflexiones que hoy en día están encima de la mesa y que de alguna forma también han inspirado han inspirado la ley. Un ejemplo de que antes no lo he citado de uso prohibido la criminología predictiva anticipatoria como Minority Report eso está prohibido por la ley.

La ley prevé en los usos de alto riesgo prevé lo que le llaman el botón de parar, el botón de stop; es decir que sí siempre tiene que haber una persona en física en ultima ratio, que sea la responsable de darle al botón de parar

Volviendo a los robots. ¿Hay algún sistema de control para que no nos quiten el trabajo? ¿Qué piensa Europa de esto? ¿Cómo actuamos con los robots? ¿Les van a poner algún impuesto? Porque si nos sustituyen en el trabajo habrá que financiar que la gente coma...

Bueno, la tecnología ya ha estado modificando el mercado de trabajo desde hace muchísimos años. Ya ha producido esa sustitución; ya hay robots en las plantas de producción. Es decir, ese problema, si lo es nos lo hemos enfrentado ya, pero efectivamente con la inteligencia artificial esto surge de manera otra vez masiva. Para empezar y esto es importante también para que la gente lo sepa, la utilización de inteligencia artificial en el ámbito laboral está considerada de alto riesgo: tiene una serie de controles exhaustivos muy importantes, algunas de las condiciones para la utilización de IAs en el centro de trabajo se pueden incluso mejorar con respecto a lo que está contenido en la ley mediante negociación colectiva. Es muy importante esto: los representantes de los trabajadores obligatoriamente van a tener que ser informados cada vez que se implemente inteligencia artificial en el centro de trabajo.

Los representantes de los trabajadores obligatoriamente van a tener que ser informados cada vez que se implemente inteligencia artificial en el centro de trabajo

Esa es una de las vertientes y a la otra la que me estás preguntando... pues efectivamente yo creo que es el gran debate. Y creo que no lo estamos afrontando con suficiente poder, que no tiene espacio en la agenda pública suficiente al rango de preocupación que tendría que generar. Yo no creo ludita ni neoludita como los hay ahora, yo creo que que estará bien que la carga de trabajo cada vez sea menor y que cada vez sea menos penosa, sobre todo cuando estamos hablando de trabajo físico, pero efectivamente hay que prever qué es lo que va a pasar con masas y masas de trabajadores que podrían ser sustituidos. Muchos, con toda seguridad. Por cierto, la ley también prevé campañas masivas de alfabetización digital. Eso tiene muchas vertientes, pero la laboral es una importante: muchos se podrán readaptar a nuevas condiciones, probablemente con menos carga de trabajo porque para eso se incrementa la tecnología y la productividad, pero hay otros muchos que no van a poder hacerlo; y hay que pensar en soluciones para esas personas. Un ejemplo, los camiones de transporte. Según nos contaba un superexperto en esa cuestión, los camiones de transporte estarán preparados para conducción automática en menos de diez años. Estamos hablando de más de 7 millones de conductores en la Unión Europea... Es decir: ¿qué va a pasar con todos esos conductores? Esa es una decisión que colectivamente tenemos que tomar: ¿vamos a hacer como los aviones, tener una plantilla independientemente de que el avión vuele y aterrice solo porque la práctica lo hace? ¿Vamos a tener en una plantilla un piloto y un copiloto por si acaso o para generar seguridad o certidumbre a la gente que viaja? Pues esa es una decisión que tendremos que tomar.

Los ascensoristas no desaparecieron hasta los años 50 del siglo XX por la capacidad de negociación de los sindicatos. En algunos sectores seguramente acabe pasando lo mismo y en otros no; pero efectivamente hay que redimensionar nuestro mercado de trabajo

En principio sería muy partidario; pero mira hay un libro de Garry Kasparov de 2018, Deep Thinking, que habla mucho de inteligencia artificial y pone un ejemplo que yo no conocía: el de los ascensoristas, que en Estados Unidos había más de 30.000 y entonces lo que él dice es que la tecnología para que el ascensor simplemente subiera y bajara dándole a un botón, y fuera absolutamente seguro, estaba desarrollada a principios de siglo..., pero los ascensoristas no desaparecieron hasta los años 50 del siglo pasado, en virtud de la capacidad de negociación que tenían los sindicatos los representantes de los trabajadores. Bueno, pues aquí en algunos sectores seguramente acabe pasando lo mismo y en otros no; pero efectivamente, tenemos que redimensionar nuestro mercado de trabajo, nuestro sistema impositivo también para poder hacernos cargo de la gente que quede por el camino desde el punto de vista laboral; y otra cosa, que para mí también es muy importante y por eso soy socialista, porque creo que si vamos a multiplicar la productividad, por siete se dice, ese incremento de productividad tiene que ser repartido también. Es decir, efectivamente tiene que haber un premio para quien invierta y para quien acierte, y para quien desarrolle y nos desarrolle colectivamente; pero otra parte tiene que tiene que repartirse entre los demás.

¿Toda esta legislación no puede hacer que al constreñir lo que podemos hacer los europeos vayamos por detrás de chinos y americanos?

Antes, como he dicho, estamos muy por detrás. Lo estuvimos ya con el fenómeno de las digitales de las grandes plataformas digitales, de hecho no tenemos ninguna de titularidad europea; y no fue un problema de regulación, sino un problema de inversión y de buena inversión. Ahora estamos muy por detrás en materia de investigación y desarrollo de modelos de China y de Estados Unidos; y no ha sido por la regulación, porque no la tenemos. Creo que tiene mucho más que ver con un planteamiento estratégico colectivo europeo para empezar, porque si no no tenemos músculo para poder hacerlo a largo plazo.

Ahora estamos muy por detrás en materia de investigación y desarrollo de modelos de China y de Estados Unidos; y no ha sido por la regulación, porque no la teníamos

Y una inversión potente y una apuesta en valor, por cierto, también de nuestra red de universidades: que es una diferencia que nosotros tenemos que no tenemos en otros lugares. Yo creo que dependerá mucho más de eso, y como digo o como decía antes, creo que también vamos a un modelo de regulación internacional compartida de algunas cosas básicas, igual no de todo pero de algunas cosas básicas. Creo que todos los países empiezan a ser conscientes de que hay un riesgo importantísimo: estamos hablando de democracias o de países autoritarios en cuanto a una inteligencia artificial sin control; y todos están tomando medidas. Hay un artículo que está muy bien, que yo no sé si será el último que escribió Kissinger en Foreign Affairs antes de morirse en el que pide un impulso de un gran acuerdo internacional sobre inteligencia artificial; y pone el ejemplo de las armas nucleares, de lo que ocurrió en plena Guerra Fría entre dos potencias además absolutamente enemigas y que estaban combatiendo en el campo, y que fueron capaces, sin embargo, de llegar a algunos acuerdos. Es verdad que esta tecnología tiene algunas cuestiones muy especiales, y sobre todo el desarrollo ya no está en manos de los países está en manos de las grandes corporaciones privadas, pero tenemos que acabar llegando a algo similar.

Hay mucha gente que cree que la inteligencia artificial amenaza a sus trabajos. Vamos a hablar de los políticos: ¿Habrá leyes hechas por inteligencia artificial? 

Yo espero que no (se ríe un poco). Espero que no, porque creo que sería una muy mala noticia. Quiero decir que en la práctica, si hay leyes hechas por inteligencia artificial, pues vamos al modelo precisamente del Gran Hermano. Al final las leyes regulan los derechos y deberes. Es decir, casi lo de menos sería el que tenga que tomar decisiones ejecutivas, que supongo que también eventualmente sería sustituido por una inteligencia artificial. Yo espero que no. Pero efectivamente, hay cuestiones desde el punto de vista de nuestro modelo democrático que están encima de la mesa y que tenemos que afrontar. Yo sí creo, no obstante, que hay que utilizar la inteligencia artificial para tomar mejores decisiones desde el punto de vista público, como creo que se utilizará también en el ámbito del trabajo. Por cierto, hablando de sustitución, todavía todos los tecnólogos coinciden, todas las personas expertas coinciden, que la utilización óptima de la inteligencia artificial es entre un humano y la inteligencia artificial, que es como mejor se aprovecha la productividad de la inteligencia artificial. Espero que esto sea así en el futuro también. 

¿Si habrá leyes hechas por inteligencia artificial? Yo espero que no, sería el modelo precisamente del Gran Hermano. Sí creo, no obstante, que hay que utilizar la IA para tomar mejores decisiones desde el punto de vista de la gestión pública

¿Estás seguro que no han utilizado ChatGPT para redactar este acuerdo? 

No estoy seguro, nadie puede estar seguro de eso (vuelve a reírse). Yo, por ejemplo, estas navidades he utilizado ChatGPT para mi tradicional cuento de Navidad. Y también es cierto que he descubierto que no es tan fácil como decirle al modelo, hazme un cuento de Navidad, sino que hay que también ponerle horas, hacer esfuerzo.... creo que por eso también, hablando del mundo del periodismo, no es tan fácil sustituir a los periodistas si no estamos hablando pues del tiempo o secciones siempre iguales como la parrilla de televisión. No es tan fácil sustituirlos cuando cuentan cosas de la calle, fuera de Internet. La ley prevé, como digo, que haya una marca de agua en los contenidos realizados por inteligencia artificial, incluso textos, con la excepción de los textos periodísticos que se supone que están sujetos a la responsabilidad editorial. Es decir, que en cualquier caso sería responsable el editor de lo que allí aparezca. 

Alguien decía 'confío más en una inteligencia artificial bien programada que en un ser humano sobre algunas decisiones de carácter vital que pueda tomar sobre la humanidad'. Yo no sé si tanto, pero que va a haber muchos controles de la IA, eso seguro

Esto nos lleva al mundo de la Cultura. Una de las cosas que la inteligencia artificial nos ha sorprendido profundamente es en lo que pensamos que jamás podría superar al ser humano, que es en la creatividad. Y esto afecta importantísimamente, por ejemplo, a los ilustradores, a los dibujantes. Sobre todo porque es lo más potente que se puede ver ahora, impactando de lleno ya mismo sobre ellos. Y tú vienes del mundo de la Cultura. ¿Qué le puedes decir a todos los creadores al respecto de la ley? ¿Les va a proteger en algo, o qué crees que tienen que hacer? Porque esto afecta mucho a un sector muy, muy importante y crucial económicamente para Europa. ¿Cómo está la cosa? ¿Cómo está el 'estado del arte' en este momento? 

Mira, precisamente he escrito hace muy poco un artículo para el Libro Blanco del Cómic –que se presenta a mediados de enero de este año, por primera vez en España–, haciendo una reflexión sobre el impacto de la inteligencia artificial en el cómic y en general en el Arte. Bueno, hay dos variables. La primera en cuanto a la protección de los derechos de los artistas y de los creadores: aquí hay provisiones en la ley, de transparencia con marcas de agua, y creo que la ley protege ante el uso indebido. Podemos mejorarlo, efectivamente, ya estamos hablando sobre eso. Pero en ese sentido pueden estar tranquilos porque por lo menos van a saber obligatoriamente, van a tener que tener la información de si se ha utilizado un contenido suyo en el entrenamiento de modelos. Y luego en cuanto a la misma artística, la competencia en el terreno. De momento a la inteligencia artificial le falta una característica esencial, que es lo que nos hace humanos, que es la originalidad. Es decir, al final la inteligencia artificial emula: mejor o peor, pero emula. Se supone que no es original, se supone, digo; luego es difícil a veces establecerlo. O sea que en cuanto a quien haga desarrollos originales, artísticamente ofrezca algo diferente, es muy probable que al menos en cuanto al estado del arte en este momento no se pueda sustituir de ninguna forma por inteligencia artificial. Todo dependerá también del nivel de exigencia que tenga el que quiera el dibujo o la obra artística.

En cuanto a la protección de los derechos de los artistas y de los creadores ante el uso generativo de la inteligencia artificial hay provisiones en la ley, de transparencia con marcas de agua; y creo que la ley protege ante el uso indebido

Por ejemplo, en el ámbito de la música yo recomiendo, está mal que lo haga yo, pero os recomiendo que le echéis un vistazo al informe sobre el mercado de la música en streaming que se aprobó en el Comité de Asuntos de Cultura hace un mes y medio; que hice yo. Ahí reflexiono sobre la utilización de inteligencia artificial, en este ámbito. Claro, si al final vamos a un modelo de radiofórmulas en las que toda la música sea igual, pues es muy fácil, efectivamente, sólo utilizaremos inteligencia artificial y empobreceremos además artística y culturalmente a nuestra población de manera masiva. Pero bueno, ese mismo informe propone algunas acciones. Eso si queréis echarlo un vistazo se lee bien, además es curioso. Y por otra parte, también creo que hay una responsabilidad por parte, y eso hay que exigirlo, por parte de los responsables públicos. Por ejemplo, el PSOE por mi intermediación, en estas últimas elecciones generales llevaban el programa una provisión en cuanto a que las administraciones gobernadas por el partido nunca encargarían como cartel de fiestas, como música para cubrir una actividad deportiva, nunca encargarían un contenido de inteligencia artificial, sino que se lo encargarían siempre a una persona humana. Pero bueno, eso es una decisión también política, y seguramente haya compañeros míos que no lo estén haciendo en este momento, pero ahí está encima de la mesa, y también la Sociedad y el sector cultural está también para exigirlo. Pero efectivamente, hay algunas profesiones que tienen un panorama por delante mucho más complicado que otras. Hablemos por ejemplo de los traductores, o de los dobladores de voces. Con esos colectivos he estado. Creo que hay cosas que se pueden hacer, pero efectivamente el panorama es más complicado. 

Y tú que tienes información privilegiada: ¿En qué porcentaje crees que estamos de que la IA pueda destruir la humanidad? 

(Más risas) No lo sé, no tengo tanta información como para eso. Yo diría que ninguno. Creo que cero, porque creo que a nadie le interesa. Nadie de quienes desarrollan la inteligencia artificial, incluso Elon Musk, que sería el peor ejemplo posible, yo creo que a nadie le interesa que termine la humanidad. Y al final, más allá de relatos distópicos, es verdad que la programación la siguen haciendo los seres humanos. Y cuando hablamos efectivamente de usos de cierto riesgo, hay un control exhaustivo en tiempo real sobre esa utilización. Y una segunda vertiente también, que antes lo cité muy por encima, pero también la gente sepa que la tecnología se puede utilizar en dos sentidos. Es decir, que es una dirección, un camino y una dirección única, pero los sentidos pueden ser inversos. También utilizamos tecnología para controlar la tecnología. En fin, creo además que va a haber un nicho de mercado y de negocio importantísimo en eso, en el control. Y creo, también, que instituciones como por ejemplo el Incibe van a cada vez tener mayor protagonismo, van a tener mayor relevancia. Yo creo que viene un gran momento para esta institución en el futuro, que no va a hacer sino crecer, y lo va a hacer muy rápido, porque ya no sólo en la Ley de Inteligencia Artificial, que es verdad que va a haber una agencia estatal sobre inteligencia artificial, pero al final las cuestiones de ciberseguridad son esenciales. Y por cierto, hay algunas exigencias en la ley sobre eso, sino que viene en todo el paquete de leyes de datos. Yo estuve en la negociación de la Ley de Datos, por ejemplo, ayer lo comentaba con otro medio de comunicación, y lo digo aquí también, porque me interesa además que quede el mensaje en León. La Ley de Datos prevé la creación de un organismo coordinador de datos, nacional, en cada uno de los estados miembros. Yo creo que lo ideal, y yo pediría a las administraciones públicas leonesas y a los representantes leoneses en otras instituciones, lo ideal es que nos adelantemos y que pidamos que el Incibe, porque tiene sentido que eso sea así, por su naturaleza, se haga cargo de este organismo coordinador. 

Creo que va a haber un nicho de mercado y de negocio importantísimo enen el control de la IA. Y creo, también, que instituciones como por ejemplo el Incibe van a cada vez tener mayor protagonismo: debería ser el organismo coordinador de datos nacional

Con copia a la Moncloa. Y a Escrivá, que es el ministro...

Bueno, la Ley de Datos todavía no se va a aplicar, pero creo que cuanto antes nos posicionemos, antes ganemos espacio en eso, va a ser muchísimo mejor. Y creo que frente a otras reivindicaciones que tenemos a veces, aquí tenemos muchas y muy buenas cartas para poder tener efectivamente el organismo coordinador. Que por cierto, hoy nadie sabe ni cuántos puestos de trabajo desarrollará, pero que como todas estas cosas, en el futuro será un elemento esencial dentro de la administración. Esencial. 

O sea, Multivac (el ordenador multipropósito de Asimov) contra Skynet y Terminator...

(Se sonríe) Yo creo que con la Ley que tenemos va a ser imposible tener eso. Y que no va a funcionar un modelo de esas características. Pero bueno, nadie lo sabe. También creo que hemos sido muy capaces, y lo hemos demostrado los humanos en el pasado, de sin tecnología como la actual arrasarnos a nosotros mismos. En ese sentido, el otro día leía precisamente a un desarrollador que también es filósofo de la tecnología y decía algo así como “confío más en una inteligencia artificial bien programada que en un ser humano sobre algunas decisiones de carácter vital que pueda tomar sobre la humanidad”. Yo no sé si tanto, pero bueno, que va a haber muchos controles y creo que podemos estar tranquilos. Al menos, de momento.

Etiquetas
stats