5 cosas que aprendimos en Kaspersky NEXT

18 Oct 2019

El evento Kaspersky NEXT expuso los debates y las investigaciones de algunos de los expertos más sobresalientes en el campo de la ciberseguridad y la inteligencia artificial. Desde el aprendizaje automático y la IA, hasta la seguridad de IdC, he aquí cinco cosas que hemos aprendido acerca del evento de este año, el cual tuvo lugar el 14 de octubre, en Lisboa.

 

Un mundo más justo mediante la IA

¿Te has puesto a pensar cuántas decisiones han tomado hoy las máquinas? ¿O cuántas de esas decisiones se basaron en el género, la raza u origen? Lo más probable es que ni siquiera te des cuenta de cuántas decisiones toma la inteligencia artificial en lugar de un ser humano. Kriti Sharma, fundador de AI for Good, explicó que los algoritmos se utilizan todo el tiempo para tomar decisiones acerca de quiénes somos y lo que deseamos.

Kriti también opinó que lo que realmente necesitamos para mejorar la inteligencia artificial es unir a la gente de todo origen, género y pertenencia étnica. Aquí puedes ver la Ted Talk cuyo tema es por qué los sesgos humanos influyen en las decisiones de las máquinas:

El efecto de asignarle un género a las IA

Piensa en Alexa, Siri y Cortana. ¿Qué tienen todas ellas en común? Utilizan voces femeninas y se han diseñado para ser sirvientas sumisas. ¿Por qué? ¿La tecnología refuerza estereotipos? Estos fueron los temas de investigación de dos mesas de debate sobre el género y la IA. Los asistentes digitales tienen voces femeninas porque, según lo han determinado varios estudios, las personas se sienten más cómodas con asistentes digitales de voz femenina. ¿Es eso también un reflejo de la sociedad?

Entonces, ¿qué se puede hacer para luchar contra la inequidad de género en la IA? Tal vez usar una voz sin género; o quizás crear un género para los robots y la IA.  Además de abordar este problema (mencionado arriba), asimismo es importante tener equipos más diversos en la creación de IA, lo cual reflejaría la diversidad de los usuarios a los cuales sirve.

https://twitter.com/kaspersky/status/1183739717965230087

Las personas confían más en los robots que en otras personas

Un robot social es un sistema de inteligencia artificial que interactúa con humanos y otros robots y, a diferencia de Siri o Cortana, se encuentra físicamente presente. Tony Balpaeme, un profesor de robótica en la Universidad de Ghent (Bélgica), explicó cómo emergerán problemas en torno a las interacciones entre robots y humanos a medida que los primeros se vuelvan más predominantes.

Balpaeme describió algunos de los experimentos científicos que él y su equipo han realizado. Por ejemplo, analizaron las capacidades de humanos y robots para extraer información confidencial (fecha de nacimiento, domicilio o ciudad donde pasó la niñez, color preferido, etc.) que se podría utilizar para restablecer contraseñas. Lo interesante del asunto es que las personas confían más en los robots que en otras personas, por lo que son más propensas a entregarle a estos su información confidencial.

Asimismo, el profesor mostró un experimento sobre la intrusión física. Un grupo de personas, cuya misión era asegurar un edificio o área, dejó entrar fácilmente un robot “lindo” en dicho perímetro. Nada invita a asumir que el robot era seguro, pero los humanos asumieron que era inofensivo, lo cual constituye una tendencia muy aprovechable. Puedes leer más acerca de la robótica social y los experimentos relacionados con ella en Securelist.

https://twitter.com/kaspersky/status/1183683889514078209

La IA creará  deepfakes muy convincentes

David Jacoby, un miembro de Kaspersky GReAT (equipo global de investigación y análisis, por sus siglas en inglés), habló sobre ingeniería social: los chatbots, la IA y las amenazas automatizadas. Con el tiempo, las aplicaciones de reconocimiento facial y de voz podrían aprovecharse mediante la ingeniería social y otros métodos clásicos.

Asimismo, Jacoby habló sobre los deepfakes, los cuales se están volviendo más difíciles de detectar. Una preocupación importante es la manera en que podrían afectar las futuras elecciones y las transmisiones noticiosas.

Sin embargo, el problema principal es la confianza. Una vez que la tecnología se perfeccione, ¿en quién confiarás? El profesor señaló que la solución es una mejor concientización: tanto la educación como la nueva tecnología para ayudar a los usuarios a detectar los videos falsos.

El estado de la seguridad en robótica

Dmitry Galov, otro miembro de Kaspersky GReAT, habló del ROS (sistema operativo robótico), un marco flexible para escribir software robótico. Como muchos otros sistemas, no se diseñó el ROS teniendo en mente su seguridad y, naturalmente, incluye problemas de seguridad significativos. Los diseñadores deben resolver estos problemas antes de que los productos basados en ROS, tales como robots sociales y coches autónomos, salgan de las aulas universitarias hacia las manos de los consumidores. De hecho, se está desarrollando a conciencia una nueva versión del ROS. Puedes leer más al respecto en el informe de Galov.

Consejo extra: usa condones USB

Marco Preuss y Dan Demeter, miembros de Kaspersky GReAT, hablaron sobre cómo la gente se protege de los hackeos mientras se encuentra en viajes de negocios. ¿Te has puesto a pensar que podría haber cámaras escondidas, micrófonos ocultos y espejos de doble vista  en la habitación de tu hotel?

Para los ligeramente paranoicos, esta publicación incluye algunos consejos de seguridad durante el viaje, de Preuss y Demeter, quienes también hablaron sobre la importancia (si eres un paranoico de verdad) de usar un “condón” USB; sí, esto es real, y su uso es similar a los normales: si estás a punto de cargar tu teléfono en un puerto USB desconocido, más vale proteger tu dispositivo con este pequeño artilugio. Y para nuestra gran fortuna, a diferencia de los condones normales, estos son reutilizables.

Para ponerte al corriente de lo que pasó durante el día, revisa nuestra cuenta de Twitter.