La IA permitirá entender mejor muchos procesos de nuestro cerebro
Miguel Juan en el Seminario Étnor
Publicado el martes, 20 de febrero de 2024 a las 08:47
Se cumple un año desde que más de un millar de expertos en tecnología de EE. UU. hicieron pública una carta que demandaba una moratoria de al menos 6 meses en el desarrollo de sistemas de IA avanzada, entre ellos el Chat GPT. Más allá de los titulares y el debate suscitado, aquella solicitud de pausa fracasó, explica Miguel Juan, fundador y socio director de la empresa S2 Grupo, referente en Europa y Latinoamérica en ciberiberseguridad, que ha participado en XXXIII Seminario de Ética Económica y Empresarial de la Fundación Étnor que este curso lleva por título “Empresa y Democracia”.
En su conferencia “¿Podemos moderar el avance de la IA?” Miguel Juan se ha referido a la generalización del uso de las herramientas de IA, a sus ventajas y riesgos, a la posibilidad o no de una moratoria y al incipiente marco regulatorio que se construye. Organizado en colaboración con la Confederación Empresarial de la Comunitat Valenciana (CEV), el acto ha sido introducido por el presidente de Étnor, Pedro Coca y José Félix Lozano, catedrático de Filosofía Moral de la UPV.
Moratoria
El experto en ciberseguridad confirma el fracaso de aquella moratoria que pretendía establecer unas reglas comunes de control y “conjurar así una cierta amenaza que se cernía sobre la humanidad”. Se apuntaban peligros, entre ellos el control de los sistemas; el impacto en el empleo y en la generación de contenidos y, el más importante en opinión del ponente, la incertidumbre. “No sabemos a dónde puede llevarnos esta tecnología” que en cualquier caso supera el impacto que tuvo la irrupción del automóvil.
Además, los firmantes de la carta realizaban algunas peticiones como conocer los efectos de una IA antes de su desarrollo, así como sus riesgos y capacidad de gestión. “De alguna manera se trataba de dar un paso atrás en la peligrosa carrera de ir creando sistemas cada vez más potentes, modelos de caja negra, no sabemos muy bien qué ocurre dentro, y con capacidades emergentes, son capaces de hacer cosas no programadas previamente”.
En aquella carta se proponían también medidas a tomar en esa moratoria: auditorías, regulaciones, control de los Estados a través de Agencias de IA nacionales, determinar las responsabilidades de los sistemas de IA y garantizar la privacidad y ciberseguridad de los sistemas.
Sin embargo, “nadie hizo caso”, afirma el ponente. “La experiencia nos dice que no se puede conseguir esa moratoria porque nadie va a permitir que los demás tomen ventaja, entre ellos China y EE. UU., porque el que para se sitúa en desventaja competitiva”.
Regulación
Si bien no ha habido moratoria, sí se ha iniciado la definición de un marco regulatorio. No en China, donde no se ha regulado nada, pero Europa y EE. UU. lo han hecho con una perspectiva diferente.
En cuanto a los objetivos, en Europa se propone mejorar el funcionamiento del mercado con un marco legal para “el desarrollo, marketing y uso de la IA de conformidad con los valores europeos”. En EE. UU. el objetivo es distinto: guiar el diseño, uso e implantación de la IA para la protección de las personas. “Europa asume un papel secundario en cuanto al desarrollo de la IA, más preocupada del mercado que del diseño y uso de la IA”, explica Miguel Juan. Además, en Europa el marco regulatorio será obligatorio y en EE. UU. son recomendaciones. En cuanto al contenido, en Europa los desarrollos se han clasificado en tres niveles de riesgo con sus obligaciones y prohibiciones. En EE. UU., sin embargo, se refieren a principios de funcionamiento como son la seguridad y efectividad, la protección frente a la discriminación, la eliminación de sesgos, la privacidad, la explicabilidad y la participación de inteligencias humanas.
Cada uno por sus razones, ninguno de estos principios son fáciles de afrontar, explica el ponente. No es sencillo determinar la responsabilidad de los sistemas de IA, y no existe la infalibilidad de los sistemas. En relación con la garantía de privacidad y seguridad, Miguel Juan apunta a un futuro “sistema de donantes de datos bien regulado”.
IA generativa
El ChatGPT es la herramienta que más ha popularizado el uso de los sistemas de IA generativas, su última versión tiene cuatrocientos mil millones de conexiones, cifra similar al número de neuronas de un cerebro humano, apunta el ponente.
A mayor número de neuronas y conexiones entrenadas aumenta la complejidad de los sistemas y ofrecen mejores resultados. ¿Cuánto puede crecer una red? “Es terreno desconocido, pero sí hemos descubierto un sistema que parece que imita muy bien el proceso en nuestro cerebro cuando utilizamos el lenguaje”. Además de sus ventajas aplicadas a muy diversos ámbitos, “la IA generativa nos va a permitir entender mejor muchos procesos de nuestro cerebro, probablemente seamos capaces de extraer leyes de cómo funciona nuestro pensamiento”.
No tenemos más remedio que evolucionar con la IA, concluye el ponente, “jugar con ella y ver a dónde nos lleva”.