Así deberíamos abordar la inteligencia artificial

Está claro que la IA necesita una normativa, pero ¿cómo? Eugene Kaspersky comparte su punto de vista sobre este tema.

Ya empiezo a estar cansado del aluvión de noticias sobre la IA, pero imagino que todavía tendré que aguantar un poco más, dado que, como era de esperar, seguirán hablando sin parar hasta por lo menos dentro de uno o dos años. Pero no porque el desarrollo de la IA quede a un lado, sino porque todos los periodistas, blogueros, TikTokers, tuiteros y demás mentes pensantes se acabarán cansando del tema. De momento, su entusiasmo sigue incentivado no solo por los gigantes tecnológicos, sino también por los gobiernos: el Reino Unido tiene pensado introducir una regulación de tres vías para la IA, China sometió a debate público el proyecto de ley, EE. UU. exige la “responsabilidad algorítmica“, la UE está debatiendo aún sin éxito proyectos de ley, etc. Aunque el futuro parece estar muy planificado, hasta la fecha, no se han puesto límites de ningún tipo a la creación y el uso de los sistemas de la IA; no obstante, parece que esto cambiará muy pronto.

Ante esta situación, el asunto en cuestión es el siguiente: ¿necesitamos que los gobiernos regulen la IA? Y, de ser así, ¿cómo debería ser esta normativa?

Qué hay que regular

¿Qué es la inteligencia artificial? Gracias (o no) a los departamentos de marketing, este término se ha usado para muchas cosas: desde los modelos generativos de vanguardia como GPT-4, hasta los sistemas de aprendizaje automático más simples, incluidos algunos que existen desde hace décadas. ¿Recuerdas el teclado T9 de los móviles de botones? ¿Has oído hablar del spam automático y la clasificación de archivos maliciosos? ¿Echas un vistazo a las recomendaciones de películas de Netflix? Todas estas tecnologías que seguramente te resulten familiares se basan en algoritmos de aprendizaje automático y se conocen también como “IA”.

En Kaspersky llevamos casi 20 años usando estas tecnologías en nuestros productos, aunque preferimos referirnos a ellas de una forma más modesta como “aprendizaje automático”, dado que la “inteligencia artificial” suele evocar cosas como superodenadores en naves espaciales y otros elementos sacados directos de la ciencia ficción. No obstante, estos ordenadores y droides capaces de hablar y pensar deben ser completamente capaces de pensar como los humanos para poder dirigir una inteligencia artificial fuerte (AGI) o la superinteligencia artificial (ASI), sin embargo, ninguna se ha inventado todavía, ni lo hará en un  futuro previsible.

Sea como fuere, si todos los tipos de IA se acaban midiendo con el mismo criterio y están completamente regulados, a la industria TI y muchas otras relacionadas no les irá nada bien. Por ejemplo, si a nosotros (Kaspersky) se nos exigiera alguna vez obtener el consentimiento de todos los “autores” de nuestras sesiones de entrenamiento, como empresa de seguridad de la información, nos encontraríamos entre la espada y la pared. Aprendemos del malware y el spam, y alimentamos nuestro aprendizaje automático con los conocimientos adquiridos, mientras que sus autores suelen preferir ocultar sus datos de contacto (¿quién iba a saberlo?). Además, teniendo en cuenta que se han recopilado datos y que nuestros algoritmos llevan formándose durante casi 20 años, ¿cuánto se espera que recapitulemos?

Por tanto, los legisladores deben escuchar sí, pero no a los departamentos de marketing, sino a los expertos de la industria del aprendizaje automático/IA y debatir la posible regulación de una forma específica y enfocada: por ejemplo, usando sistemas multifunción entrenados con grandes volúmenes de datos abiertos o con sistemas de toma de decisiones de alto nivel de responsabilidad y riesgo.

Además, las nuevas aplicaciones de la IA obligarán a revisar con frecuencia las normativas a medida que vayan surgiendo.

¿Por qué es necesaria esta normativa?

Siendo sincero, no creo que la superinteligencia acabe imponiendo el día del Juicio Final en los próximos cien años, pero sí creo que el uso inconsciente de la caja negra del ordenador nos pueda generar serios quebraderos cabeza.

Como recordatorio para aquellos que no han leído nuestros artículos sobre el esplendor y la miseria del aprendizaje automático, cualquier IA presenta tres problemas principales:

  • No sabemos la calidad de los datos que se usan o se han usado para su entrenamiento.
  • No está nada claro qué ha logrado “comprender” la IA de este paquete de datos ni cómo toma sus decisiones.
  • Y, lo más importante, el algoritmo puede usarse incorrectamente tanto por sus desarrolladores como por sus usuarios.

Por consiguiente, podría suceder cualquier cosa: desde un uso malicioso hasta el cumplimiento irreflexivo de las decisiones de la IA. Estos son algunos ejemplos gráficos de la vida real: los errores letales del piloto automático, los deepfakes (1, 2, 3) ya habituales en los memes e incluso en las noticias, un error tonto en la contratación de unos maestros de escuela, la policía deteniendo a un ladrón equivocado y una herramienta de contratación con una IA misógina. Además, cualquier IA puede recibir un ataque con la ayuda de muestras de datos hostiles personalizados: unas simples pegatinas pueden engañar a los vehículos, se puede extraer información personal de GPT-3 y los antivirus o EDR también pueden caer en la trampa. Por cierto, los ataques a la IA de los drones de combate que encontramos en la ciencia ficción ya no parecen tan descabellados.

En pocas palabras, el uso de la IA aún no ha dado lugar a ningún problema verdaderamente masivo, pero cada vez hay más posibilidades. Por tanto, las prioridades de su regulación deben quedar claras:

  1. Evitar los incidentes en infraestructuras críticas (fábricas/barcos/líneas de transmisión eléctrica/centrales nucleares).
  2. Minimizar las amenazas físicas (vehículos sin conductor, diagnóstico erróneo de enfermedades).
  3. Minimizar los daños personales y los riesgos comerciales (arrestos o contrataciones erróneos, error del cálculo de la demanda/adquisiciones, etc.).

El objetivo de la regulación debe centrarse en obligar a los usuarios y proveedores de la IA a evitar el aumento de los riesgos previamente descritos. De hecho, cuanto más grave sea el riesgo, más hincapié se debe hacer en esta obligación.

Otra preocupación surge a menudo con respecto a la IA: la necesidad de observar las normas morales y éticas y de satisfacer la comodidad psicológica, por así decirlo. Con este fin, se recurre a advertencias para que las personas sepan que están viendo un objeto inexistente (dibujado por IA) o comunicándose con un robot y no con un humano, además de los avisos que informan de que se han respetado los derechos de autor durante el entrenamiento de la IA, etc. ¿Y todo esto por qué? ¡Así los legisladores y proveedores de la IA evitan ser el blanco de las críticas! Se trata de una preocupación muy real en algunas partes del mundo; recordemos las protestas contra Uber, por ejemplo.

Cómo regular la IA

La forma más sencilla de regular la IA sería prohibiéndola directamente, pero parece que esta estrategia ya no se está teniendo en cuenta. De todos modos, no es mucho más fácil prohibir la IA que los ordenadores. Por tanto, todos los intentos razonables de regulación deben seguir el principio de “cuanto mayor sea el riesgo, más estrictos serán los requisitos”.

Los modelos de aprendizaje automático que se utilizan para actividades triviales, como recomendaciones de compras, pueden no estar regulados, pero cuanto más sofisticado sea el modelo o su área de aplicación, más drásticos deberían ser los requisitos para los proveedores y usuarios del sistema. Por ejemplo:

  • Enviar el código de un modelo o un conjunto de datos de entrenamiento para su inspección a reguladores o expertos.
  • Probar la solidez de un conjunto de datos de entrenamiento, incluso en términos de sesgo, derechos de autor, etc.
  • Probar la sensatez del “resultado” de la IA; por ejemplo, ¿está libre de alucinaciones?
  • Etiquetar las operaciones y resultados de la IA.
  • Actualizar el modelo y sus datos de entrenamiento; por ejemplo, excluir a las personas de un color de piel determinado de los datos de origen o suprimir fórmulas químicas para explosivos en la producción del modelo.
  • Probar la IA en busca de “datos hostiles” y actualizar su comportamiento según sea necesario.
  • Controlar quién usa una IA específica y por qué. Negar determinados tipos de uso.
  • Limitar el entrenamiento de las IA grandes o que se apliquen a un área en particular al permiso del regulador.
  • Demostrar que es seguro usar la IA para abordar un problema en particular. Esta estrategia resulta muy exótica para el universo TI, pero más que familiar para, por ejemplo, las compañías farmacéuticas, fabricantes de aeronaves y muchas otras industrias donde la seguridad es primordial. Primero vendrían cinco años de pruebas exhaustivas, luego el permiso del regulador y solo entonces se podría lanzar un producto para su uso general.

La última medida parece demasiado estricta, hasta que te enteras de los incidentes en los que la IA no dio prioridad al tratamiento de pacientes con asma aguda y neumonía e intentó enviarlos a casa en lugar de a una unidad de cuidados intensivos.

Las medidas de cumplimiento pueden variar: desde multas por violaciones de las reglas de la IA (en consonancia con las sanciones europeas por las violaciones del RGPD) hasta licencias de actividades relacionadas con la IA y sanciones penales por incumplimiento de la legislación, como tiene pensado China.

Entonces, ¿cuál es el camino correcto?

A continuación, compartiré mi opinión personal sobre este tema, que se basa en 30 años de búsqueda activa de desarrollo tecnológico avanzado en la industria de la ciberseguridad: desde el aprendizaje automático hasta los sistemas “seguros por diseño”.

En primer lugar, necesitamos una regulación. Sin ella, la IA acabará pareciendo una autopista sin normas de tráfico. O, peor aún, algo similar a la situación de la recopilación de datos personales online a finales de la década de los 2000, cuando se apropiaban de todo a su alcance. Principalmente, esta normativa promueve la autodisciplina entre los actores del mercado.

En segundo lugar, debemos maximizar la armonización y cooperación internacionales en materia de regulación, del mismo modo que con las normas técnicas en comunicaciones móviles, Internet, etc. Dada la realidad geopolítica actual esto puede sonar utópico, pero ello no lo hace menos deseable.

En tercer lugar, esta normativa no tiene por qué ser demasiado estricta: no sería acertado estrangular una industria joven y dinámica como esta con una regulación excesiva. Dicho esto, necesitamos un mecanismo que revise frecuentemente las reglas para estar al tanto de los desarrollos tecnológicos y del mercado.

En cuarto lugar, las reglas, los niveles de riesgos y los niveles de las medidas de protección deben definirse en consenso con un grupo abundante de expertos con experiencia relevante en la materia.

Y en quinto y último lugar, no tenemos que esperar 10 años. Llevo más de una década insistiendo en los graves riesgos a los que nos expone el Internet de las cosas y en las vulnerabilidades de los equipos industriales, sin embargo, documentos como la Ley de Ciberresiliencia de la UE aparecieron por primera vez (como borradores) hace apenas un año.

¡Eso es todo por ahora amigos! Gracias a todos los que han leído hasta el final. ¡Sigamos trabajando por un futuro más interesante, seguro y mejorado de la IA!

Consejos