El rápido desarrollo de los sistemas de IA y el hecho de que se estén intentando introducir en todas las áreas generan optimismo y preocupación a partes iguales. Está claro que la IA puede ayudar a las personas en muchos ámbitos, como bien sabe la industria de la ciberseguridad. De hecho, en Kaspersky llevamos casi 20 años usando el aprendizaje automático (ML por sus siglas en inglés), por lo que sabemos por experiencia que sin estos sistemas resulta imposible defenderse contra la gran cantidad de ciberamenazas a las que nos exponemos. Además, durante todo este tiempo también hemos identificado todo un arsenal de problemas asociados a la IA: desde enseñarle los datos incorrectos hasta los ataques maliciosos contra los sistemas de IA y el uso de la IA con fines poco éticos.
Ya son varias las organizaciones y plataformas internacionales que han desarrollado una serie de principios éticos para el uso de la IA, por ejemplo, estos son los de la UNESCO. Pero en la industria de la ciberseguridad todavía tienen que introducirse unas directrices más específicas.
Para aplicar la IA en la ciberseguridad sin consecuencias negativas, proponemos que la industria adopte una serie de principios éticos para el uso de la IA, cuya primera versión acabamos de presentar en el Foro de Gobernanza de Internet de las Naciones Unidas en Kioto, Japón. Aunque estos principios deberían debatirse y ponerse en común por parte de toda la comunidad de ciberseguridad, nosotros ya los estamos respetando. ¿Cuáles son? Te los resumimos a continuación.
Transparencia
Los usuarios tienen derecho a saber si un proveedor de seguridad utiliza sistemas de IA, al igual que cómo toman las decisiones estos sistemas y con qué fines. Por ello, nos comprometemos a desarrollar sistemas de IA que sean interpretables en la mayor medida posible, con todas las medidas necesarias para garantizar que generen resultados óptimos. Para familiarizarse con nuestro código y flujo de trabajo, solo tienes que visitar cualquiera de nuestros Centros de Transparencia Kaspersky.
Seguridad
Entre las amenazas a las que se enfrentan los sistemas de IA, encontramos la manipulación de los datasets de entrada para tomar decisiones inapropiadas. Por lo tanto, creemos que los desarrolladores de IA deben priorizar la resiliencia y la seguridad.
Por ello, adoptamos una amplia gama de medidas prácticas para ofrecer sistemas de IA de alta calidad: auditorías de seguridad específicas de IA y red teaming, un uso mínimo de datasets de terceros en la formación o la implementación de una variedad de tecnologías para una protección de múltiples capas. Siempre que sea posible, preferimos la IA basada en la nube, con todas las medidas necesarias, a los modelos instalados en local.
Supervisión humana
Aunque nuestros sistemas ML pueden funcionar de forma autónoma, un grupo de expertos monitoriza constantemente sus resultados y rendimiento. Los veredictos de nuestros sistemas automatizados se ajustan según las necesidades y los propios sistemas se adaptan y modifican para resistir ciberamenazas fundamentalmente nuevas y/o altamente sofisticadas. Combinamos el aprendizaje automático con la experiencia humana y nos comprometemos a mantener siempre este elemento humano de control en nuestros sistemas.
Privacidad
La IA no se puede entrenar sin una gran cantidad de datos, algunos de los cuales pueden ser personales. Por lo tanto, un uso ético de ellos debe respetar los derechos de las personas a la privacidad. En la práctica de la seguridad de la información, esto puede implicar varias medidas: limitar los tipos y la cantidad de datos procesados, la seudonimización y anonimización, reducir la composición de los datos, garantizar su integridad y aplicar medidas técnicas y organizativas de protección.
Desarrollada para la ciberseguridad
La IA en ciberseguridad debe utilizarse únicamente con fines defensivos. Esto forma una parte fundamental de nuestra misión de construir un mundo seguro en el que las tecnologías del mañana mejoren nuestras vidas.
Abierta al diálogo
Creemos que solo trabajando juntos podremos superar los obstáculos asociados con la adopción y el uso de la IA en materia de seguridad. Por ello, promovemos el diálogo con todas las partes interesadas para compartir mejores prácticas en el uso ético de la IA.
Para más información sobre nuestros principios de uso ético de la IA en seguridad, visita este enlace.