Seguridad en la Inteligencia Artificial: ¿Llegará SkyNet?

¿Qué tienen en común el multimillonario Elon Musk, inventor del servicio de Google Now on Tap y la reciente película “Ex Machina”? La idea de que la Inteligencia Artificial (IA)

¿Qué tienen en común el multimillonario Elon Musk, inventor del servicio de Google Now on Tap y la reciente película “Ex Machina”? La idea de que la Inteligencia Artificial (IA) es algo que ayuda a la humanidad, y no una amenaza.

¿Qué es capaz de hacer la inteligencia artificial hoy?

Para quienes no están al tanto del tema, permítanme enumerar varios hechos que demuestran el progreso que las máquinas han tenido en aras de parecer humanas.

Hoy en día, Google puede reconocer correctamente un discurso de voz con un 92% de precisión versus el 77% de hace dos años: la empresa ha desarrollado una plataforma de IA que juega videojuegos clásicos por sí misma. Microsoft, por su parte, enseñó a un robot a reconocer imágenes (o, mejor dicho, a ver ciertos objetos en las imágenes) con tan sólo una tasa de error de 4,94%- algo increíble, pues la tasa de un humano promedio es mucho mayor.

Ciertas estadísticas de Google sugieren que los autos sin conductor que estas empresas han desarrollado han recorrido ya, a estas alturas, más de las 1.800.000 millas en las vías públicas de California, y que solo 13 veces estuvieron involucrados en accidentes de tráfico en seis años desde que la tecnología fue lanzada (vale acotar que en ocho de los casos, el otro auto involucrado resultó ser culpable).

Ello demuestra que, a pesar de que es poco probable que la IA se desarrolle en un 100% en el corto plazo, tecnologías similares surgirán de manera inevitable en las décadas venideras.

Con todo esto en mente, es difícil decir que el impacto de las máquinas ‘inteligentes’ sólo se verá en el mundo de lo virtual. Algunos ejemplos extremos lo demuestran: drones que vuelan por sí mismos pero siempre bajo el mando de un ser humano. Es la forma en que los EE.UU. lucha contra los terroristas en Pakistán y otras regiones peligrosas.

¿Podrán los programadores crear “mecanismos de seguridad” fiables para prevenir que la IA cometa actos impropios o inmorales?

La posibilidad de automatizar tareas es algo ampliamente discutible. La franquicia de Terminator cumplió treinta años el año pasado, con lo cual te podrás imaginar las consecuencias de tal decisión en un futuro no muy lejano.

No voy a detenerme demasiado en escenarios apocalípticos; más bien en algunas preguntas más terrenales, como por ejemplo: ¿Podrán los programadores crear “mecanismos de seguridad” fiables para prevenir que la IA cometa actos impropios o inmorales?

Cuestiones así pueden sentar sus bases en diversas razones; sin embargo, el más evidente de ellos es el conflicto de recursos entre la humanidad y la misma IA. No obstante, existen otros escenarios. Debo aclarar que el daño que podría causar la IA, no necesariamente debe ser intencional.

Hay un gran ejemplo de ello que Stanislaw Lem cita en su maravillosa obra Summa Technologiae. En esencia, lo que dice es lo siguiente:

“Supongamos que el bloque de pronóstico de la “caja negra” (IA) detecta un peligro potencialmente capaz de afectar el equilibrio homeostático de la humanidad… Dicho peligro es provocado por el creciente aumento de la tasa población que supera considerablemente la capacidad de la civilización de satisfacer sus necesidades básicas.

Pensemos que uno de los canales externos de la “caja negra” le informa al sistema sobre un nuevo compuesto químico no pernicioso y que suprime el proceso de ovulación. Entonces la caja negra decide inyectar una dosis microscópica del compuesto en el sistema de agua potable en un país determinado; aquí nos enfrentaríamos a un dilema: ¿sería ético informar a la sociedad sobre esto o, por el contrario, preservar el equilibrio existente (por el bien de ella?)

abyss

Como hemos visto hasta aquí, se trata de un problema de optimización un tanto inocente que se resuelve con una solución elegante, simple y eficiente (y poco ética), basada en la fertilidad de las personas sin su consentimiento

Pienso que el dominio de la infraestructura será delegada a los sistemas basados en IA de gran alcance, en tanto y cuanto la relación costo/ beneficio sean mucho más convenientes.

Enseñar sobre ética a un robot: ¿Cómo integrar un cierre de seguridad?

Cualquier joven del siglo 20 probablemente podrá recordar las tres leyes de la robótica de Isaac Azimov. Si bien no es suficiente, y como lo demuestra el ejemplo anterior, no es necesario malograr a nadie para limitar significativamente a la población (a pesar de que se haga por el bien común).

Hay muchas otras opciones que sí son perjudiciales para la humanidad. Es posible encontrar una grieta legal en los términos que definen el concepto de “daño”, al delegar el trabajo de perjudicar a las personas, o de socavar la existencia de las reglas.

La ‘amabilidad hacia las personas’ en sí puede ser examinada de nuevo por la IA. A continuación la opinión de Roman Yampolsky, que se especializa en la materia,:

“Peor aún, cualquier sistema inteligente de verás tratará a su ser amable de la misma manera como la gente muy inteligente se enfrenta a restricciones impuestas en sus mentes por la sociedad. Ellos, básicamente, los ven como sesgos y aprenden a eliminarlos… ¿Por qué una máquina superinteligente entonces no pasa por el mismo proceso de ‘limpieza mental’ y tratan su debilidad por los humanos como algo completamente irracional?”

Una conceptualización técnica del ‘bloqueo de seguridad’ es bastante realista. En esencia, los “candados de seguridad”, que son necesarios para controlar a la IA, no son otra cosa que ‘cajas de arena’, ampliamente utilizadas en ámbitos de seguridad para la ejecución de Java o Flash.

Es ampliamente reconocido que no hay una caja de arena “ideal”, cuyo escape es bastante posible, tal como lo demostró la reciente historia del bug Venom. La IA que se basa en la flexibilidad, y la inmensa potencialidad de hacer cálculos es un buen candidato para un testeador de seguridad, que busca vulnerabilidades en su propia caja de arena.

Andrey Lavrentiev, Jefe del Departamento de Investigación de Tecnología, ve el problema de la siguiente manera:

Un sistema de IA va a entender el significado de todo lo que “ve” a través de sus numerosos sensores. Las políticas de limitación de sus acciones deben ser definidas de acuerdo con el concepto, o con las imágenes en su “cerebro”

Hoy las máquinas son mejores reconociendo imágenes que los humanos, pero aun así pierden la parte “humana” cuando se trata de manipular las imágenes o las relaciones.

“Hoy en día, las máquinas son mejores en el reconocimiento de imágenes que los humanos, pero aún no pueden superar a la humanidad cuando se trata de la manipulación de las imágenes o las relaciones, es decir, la IA moderna carece de ‘sentido común’. Tan pronto como esto cambie, y las máquinas aprendan a manipular objetos y acciones percibidas, no habrá posibilidad de integrar cierres de seguridad nunca más”, sentenció Lavrentiev.

y agregó: “una inteligencia de este tipo sería capaz de analizar los datos percibidos mucho más rápido que un humano, y encontraría la manera de saltarse las reglas y limitaciones impuestas por un ser humano y podría actuar por su propia voluntad.”

“Una posible limitación diseñada para evitar que la IA haga algo perjudicial sería el aislamiento efectivo de la máquina del mundo real, lo que la privaría de la oportunidad de manipular objetos físicos. Sin embargo, con este enfoque, el uso práctico de la IA sería nulo”

Esta probabilidad se representa en el reciente thriller de la película de ciencia ficción “Ex Machina”. Como cualquier otro producto típico de Hollywood, esta película se rellena con argumentos forzados y sobreestima considerablemente la problemática. Sin embargo, el núcleo del problema está correctamente definido.

En primer lugar, incluso los robots primitivos son capaces de influir en el estado emocional de una persona. El chat de programación sencilla llamado ELISA (si quieres hablar con ella, haz clic aquí) fue capaz de recopilar información personal de sus interlocutores humanos, con simplemente utilizado preguntas empáticas.

En segundo lugar, cada vez más dependemos de algoritmos robotizados para filtrar y clasificar la información. De hecho, cualquiera que gestione estos flujos de datos, tal como lo demostró un polémico experimento de Facebook, puede influir en el estado emocional de las personas y en sus decisiones.

En la vida privada esta influencia podría actuar más rápido y ser aún más impactante. Durante la reciente conferencia de Google I/O fue presentado el nuevo sistema “No won Tap”. Que recoge información de todas las aplicaciones del smartphone del usuario y las utiliza para las búsquedas en línea.

Por ejemplo, si usted lee un artículo sobre un músico determinado en la aplicación de Wikipedia y luego le pregunta a Google “¿Cuándo es su concierto?”, El robot sabrá exactamente a quién se refiere con “su”. Hoy en día, un robot nos recuerda que ya es hora de ir al aeropuerto, porque el vuelo esté programado para dentro de un par de horas.

La evolución de la computación podría hacer que este simple robot sea mucho más sofisticado. No obstante, es muy importante asegurarse de que la IA manipula la información disponible únicamente para el bien de los usuarios y que no sigue su propia agenda oculta.

Ese es un problema que preocupa a una gran parte de las mentes brillantes de nuestro tiempo, desde Stephen Hawking hasta Elon Musk. Este último apenas puede ser considerado un pensador conservador opuesto al progreso. Muy por el contrario, el inventor de Tesla y SpaceX está pensando ansiosamente en el futuro. Sin embargo, él ve que la evolución de la IA es una de las tendencias más controvertidas, cuyas consecuencias todavía son imprevisibles y potencialmente catastróficas. Es por eso que a principios de este año invirtió 10.000.000 dólares en la investigación sobre la inteligencia artificial.

¿Qué nos espera para el futuro?

Por extraño que parezca, uno de los escenarios más factibles, que los expertos consideran demasiado optimista, es la imposibilidad total de crear Inteligencia Artificial. Sin un avance tecnológico significativo (que todavía no existe), los robots sólo podrán actualizarse y mejorar en base a sus habilidades existentes.

Mientras que las máquinas todavía están aprendiendo cosas sencillas como conducir un coche o hablar idiomas nativos, aún no son capaces de sustituir a un ser humano en la toma de decisiones autónomas. En la perspectiva a corto plazo, la IA puede generar algunos “daños colaterales”, tales como la eliminación del taxista como ocupación, pero no se la considera una amenaza global para la humanidad.

Andrey Lavrentiev sugiere que el conflicto entre la IA y la humanidad es posible bajo una sola condición: la necesidad de compartir los mismos recursos.

“Un ser humano tiene un cuerpo y está interesado en la creación de condiciones favorables para su conveniencia (y la conveniencia de su mente). Con la IA, la situación es la opuesta: inicialmente existe sólo en el mundo digital”.

“El principal objetivo y la motivación de la Inteligencia Artificial es procesar la información suministrada a través de los canales externos, sus ‘órganos sensoriales’, evaluarla e identificar los principios de su cambio”.

“Por supuesto, la IA también posee algunas bases materiales, pero su dependencia de la ‘cáscara’ es mucho más débil que en el ser humano. La IA, a diferencia de los humanos, no está pensando en preservar su caparazón (o “cuerpo”), debido a que la IA se encuentra ‘en todas partes’ a la vez. La extensión orgánica del alcance de la IA en busca de nueva información sería la exploración espacial y el estudio de las leyes del universo, por lo que podría propagarse a sí misma más allá de la Tierra”.

“Sin embargo, incluso en este escenario, hay ciertos escollos. Una vez que esta superinteligencia vea a la humanidad o al universo como ‘imperfecciones’ en su modelo digital, tratará de eliminar a cualquiera de ellos con el fin de alcanzar la armonía. O, posiblemente, necesitará de los recursos consumidos por los seres humanos con el fin de ‘explorar el espacio’, reviviendo así el viejo conflicto de ‘robots vs humanidad'”.

Traducido por: Maximiliano De Benedetto y Guillermo Vidal Quinteiro

Consejos