{"id":5634,"date":"2015-06-12T14:15:27","date_gmt":"2015-06-12T14:15:27","guid":{"rendered":"http:\/\/kasperskydaily.com\/mexico\/?p=5634"},"modified":"2019-11-22T03:06:11","modified_gmt":"2019-11-22T09:06:11","slug":"artificial-intelligence-safety","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/artificial-intelligence-safety\/5634\/","title":{"rendered":"Seguridad en la Inteligencia Artificial: \u00bfLlegar\u00e1 SkyNet?"},"content":{"rendered":"<p>\u00bfQu\u00e9 tienen en com\u00fan el multimillonario Elon Musk, inventor del servicio de Google Now on Tap y la reciente pel\u00edcula \u201cEx Machina\u201d? La idea de que la Inteligencia Artificial (IA) es algo que ayuda a la humanidad, y no una amenaza.<\/p>\n<p><strong>\u00bfQu\u00e9 es capaz de hacer la inteligencia artificial hoy? <\/strong><\/p>\n<p>Para quienes no est\u00e1n al tanto del tema, perm\u00edtanme enumerar varios hechos que demuestran el progreso que las m\u00e1quinas han tenido\u00a0en aras de parecer humanas.<\/p>\n<p>Hoy en d\u00eda, Google puede reconocer correctamente un discurso de voz con un <a href=\"http:\/\/venturebeat.com\/2015\/05\/28\/google-says-its-speech-recognition-technology-now-has-only-an-8-word-error-rate\/\" target=\"_blank\" rel=\"noopener nofollow\">92% de precisi\u00f3n<\/a> versus el 77% de hace dos a\u00f1os: la empresa ha desarrollado una <a href=\"http:\/\/www.bloomberg.com\/news\/articles\/2015-02-25\/google-s-computers-learn-to-play-video-games-by-themselves\" target=\"_blank\" rel=\"noopener nofollow\">plataforma de IA que juega videojuegos cl\u00e1sicos por s\u00ed misma<\/a>. Microsoft, por su parte, ense\u00f1\u00f3 a un robot <a href=\"http:\/\/www.forbes.com\/sites\/michaelthomsen\/2015\/02\/19\/microsofts-deep-learning-project-outperforms-humans-in-image-recognition\/\" target=\"_blank\" rel=\"noopener nofollow\">a reconocer im\u00e1genes<\/a> (o, mejor dicho, a ver ciertos objetos en las im\u00e1genes) con tan s\u00f3lo una tasa de error de 4,94%- algo incre\u00edble, pues la tasa de un humano promedio es mucho mayor.<\/p>\n<p>Ciertas estad\u00edsticas de Google sugieren que los autos sin conductor que estas empresas han desarrollado han recorrido ya, a estas alturas, m\u00e1s de las 1.800.000 millas en las v\u00edas p\u00fablicas de California, y que solo 13 veces estuvieron involucrados en accidentes de tr\u00e1fico en seis a\u00f1os desde que la tecnolog\u00eda fue lanzada (vale acotar que en ocho de los casos, el otro auto involucrado result\u00f3 ser culpable).<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">MT <a href=\"https:\/\/twitter.com\/Rayterrill?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">@Rayterrill<\/a> Amazing\u20141.8 million miles, 13 accidents (all caused by other humans) for Google self-driving cars <a href=\"http:\/\/t.co\/DgtxDVSiBJ\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/DgtxDVSiBJ<\/a><\/p>\n<p>\u2014 Ars Technica (@arstechnica) <a href=\"https:\/\/twitter.com\/arstechnica\/status\/607688353119629312?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">June 7, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Ello demuestra que, a pesar de que es poco probable que la IA se desarrolle en un 100% en el corto plazo, tecnolog\u00edas similares surgir\u00e1n de manera inevitable en las d\u00e9cadas venideras.<\/p>\n<p>Con todo esto en mente, es dif\u00edcil decir que\u00a0el impacto de las m\u00e1quinas \u2018inteligentes\u2019 s\u00f3lo se ver\u00e1 en el mundo de lo virtual. Algunos ejemplos extremos lo demuestran: drones que vuelan por s\u00ed mismos pero siempre bajo el mando de un ser humano. Es la forma en que los EE.UU. lucha contra los terroristas en Pakist\u00e1n y otras regiones peligrosas.<\/p>\n<div class=\"pullquote\">\u00bfPodr\u00e1n los programadores crear \u201cmecanismos de seguridad\u201d fiables para prevenir que la IA cometa actos impropios o inmorales?<\/div>\n<p>La posibilidad de automatizar tareas es algo <a href=\"http:\/\/newscenter.berkeley.edu\/2015\/05\/28\/automated-killing-machines\/\" target=\"_blank\" rel=\"noopener nofollow\">ampliamente discutible<\/a>. La franquicia de Terminator cumpli\u00f3 treinta a\u00f1os el a\u00f1o pasado, con lo cual te podr\u00e1s imaginar las consecuencias de tal decisi\u00f3n en un futuro no muy lejano.<\/p>\n<p>No voy a detenerme demasiado en escenarios apocal\u00edpticos; m\u00e1s bien en algunas preguntas m\u00e1s terrenales, como por ejemplo: \u00bfPodr\u00e1n los programadores crear \u201cmecanismos de seguridad\u201d fiables para prevenir que la IA cometa actos impropios o inmorales?<\/p>\n<p>Cuestiones as\u00ed pueden sentar sus bases en diversas razones; sin embargo, el m\u00e1s evidente de ellos es el conflicto de recursos entre la humanidad y la misma IA. No obstante, existen otros escenarios. Debo aclarar que el da\u00f1o que podr\u00eda causar la IA, no necesariamente debe ser intencional.<\/p>\n<p>Hay un gran ejemplo de ello que Stanislaw Lem cita en su maravillosa obra <a href=\"http:\/\/www.amazon.com\/Summa-Technologiae-Electronic-Mediations-Stanislaw\/dp\/0816675775\" target=\"_blank\" rel=\"noopener nofollow\">Summa Technologiae<\/a>. En esencia, lo que dice es lo siguiente:<\/p>\n<p><em>\u201cSupongamos que el bloque de pron\u00f3stico de la \u201ccaja negra\u201d (IA) detecta un peligro potencialmente capaz de afectar el equilibrio homeost\u00e1tico de la humanidad\u2026 Dicho peligro es provocado por el creciente aumento de la tasa poblaci\u00f3n que supera considerablemente la capacidad de la civilizaci\u00f3n de satisfacer sus necesidades b\u00e1sicas.<\/em><\/p>\n<p><em>Pensemos que uno de los canales externos de la \u201ccaja negra\u201d le informa al sistema sobre un nuevo compuesto qu\u00edmico no pernicioso y que suprime el proceso de ovulaci\u00f3n.\u00a0Entonces la caja negra decide inyectar una dosis microsc\u00f3pica del compuesto en el sistema de agua potable en un pa\u00eds determinado; aqu\u00ed nos enfrentar\u00edamos a un dilema: \u00bfser\u00eda \u00e9tico informar a la sociedad sobre esto o, por el contrario, preservar el equilibrio existente (por el bien de ella?)<\/em><\/p>\n<p><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2015\/06\/05201651\/abyss.png\"><img decoding=\"async\" class=\"aligncenter size-large wp-image-5635\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2015\/06\/05201651\/abyss-1024x682.png\" alt=\"abyss\" width=\"1024\" height=\"682\"><\/a><\/p>\n<p>Como hemos visto hasta aqu\u00ed, se trata de un problema de optimizaci\u00f3n un tanto inocente que se resuelve con una soluci\u00f3n elegante, simple y eficiente (y poco \u00e9tica), basada en la fertilidad de las personas sin su consentimiento<\/p>\n<p>Pienso que el dominio de la infraestructura ser\u00e1 delegada a los sistemas basados en IA de gran alcance, en tanto y cuanto la relaci\u00f3n costo\/ beneficio sean mucho m\u00e1s convenientes.<\/p>\n<p><strong>Ense\u00f1ar sobre \u00e9tica a un robot: \u00bfC\u00f3mo integrar un cierre de seguridad?<\/strong><\/p>\n<p>Cualquier joven del siglo 20 probablemente podr\u00e1 recordar las <a href=\"https:\/\/es.wikipedia.org\/wiki\/Tres_leyes_de_la_rob%C3%B3tica\" target=\"_blank\" rel=\"noopener nofollow\">tres leyes de la rob\u00f3tica de Isaac Azimov<\/a>. Si bien no es suficiente, y como lo demuestra el ejemplo anterior, no es necesario malograr a nadie para limitar significativamente a la poblaci\u00f3n (a pesar de que se haga por el bien com\u00fan).<\/p>\n<p>Hay muchas otras opciones que s\u00ed son perjudiciales para la humanidad. Es posible encontrar una grieta legal en los t\u00e9rminos que definen el concepto de \u201cda\u00f1o\u201d, al delegar el trabajo de perjudicar a las personas, o de socavar la existencia de las reglas.<\/p>\n<p>La \u2018amabilidad hacia las personas\u2019 en s\u00ed puede ser examinada de nuevo por la IA. A continuaci\u00f3n la <a href=\"https:\/\/intelligence.org\/2013\/07\/15\/roman-interview\/\" target=\"_blank\" rel=\"noopener nofollow\">opini\u00f3n de Roman Yampolsky<\/a>, que se especializa en la materia,:<\/p>\n<p><em>\u201cPeor a\u00fan, cualquier sistema inteligente de ver\u00e1s tratar\u00e1 a su ser amable de la misma manera como la gente muy inteligente se enfrenta a restricciones impuestas en sus mentes por la sociedad. Ellos, b\u00e1sicamente, los ven como sesgos y aprenden a eliminarlos\u2026 \u00bfPor qu\u00e9 una m\u00e1quina superinteligente entonces no pasa por el mismo proceso de \u2018limpieza mental\u2019 y tratan su debilidad por los humanos como algo completamente irracional?\u201d<\/em><\/p>\n<p>Una conceptualizaci\u00f3n t\u00e9cnica del \u2018bloqueo de seguridad\u2019 es bastante realista. En esencia, los \u201ccandados de seguridad\u201d, que son necesarios para controlar a la IA, no son otra cosa que \u2018cajas de arena\u2019, ampliamente utilizadas en \u00e1mbitos de seguridad para la ejecuci\u00f3n de Java o Flash.<\/p>\n<p>Es ampliamente reconocido que no hay una caja de arena \u201cideal\u201d, cuyo escape es bastante posible, tal como lo demostr\u00f3 <a href=\"https:\/\/latam.kaspersky.com\/blog\/todo-lo-que-necesitas-saber-sobre-la-vulnerabilidad-venom\/5518\/\" target=\"_blank\" rel=\"noopener\">la reciente historia del bug Venom<\/a>. La IA que se basa en la flexibilidad, y la inmensa potencialidad de hacer c\u00e1lculos es un buen candidato para un testeador de seguridad, que busca vulnerabilidades en su propia caja de arena.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Everything you need to know about the VENOM vulnerability \u2013 <a href=\"http:\/\/t.co\/L4rIzncffx\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/L4rIzncffx<\/a><\/p>\n<p>\u2014 Kaspersky (@kaspersky) <a href=\"https:\/\/twitter.com\/kaspersky\/status\/602154615094779905?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">May 23, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Andrey Lavrentiev, Jefe del Departamento de Investigaci\u00f3n de Tecnolog\u00eda, ve el problema de la siguiente manera:<\/p>\n<p><em>Un sistema de IA va a entender el significado de todo lo que \u201cve\u201d a trav\u00e9s de sus numerosos sensores. Las pol\u00edticas de limitaci\u00f3n de sus acciones deben ser definidas de acuerdo con el concepto, o con las im\u00e1genes en su \u201ccerebro\u201d<\/em><\/p>\n<div class=\"pullquote\">Hoy las m\u00e1quinas son mejores reconociendo im\u00e1genes que los humanos, pero aun as\u00ed pierden la parte \u201chumana\u201d cuando se trata de manipular las im\u00e1genes o las relaciones.<\/div>\n<p><em>\u201cHoy en d\u00eda, las m\u00e1quinas son mejores en el reconocimiento de im\u00e1genes que los humanos, pero a\u00fan no pueden superar a la humanidad cuando se trata de la manipulaci\u00f3n de las im\u00e1genes o las relaciones, es decir, la IA moderna carece de \u2018sentido com\u00fan\u2019. Tan pronto como esto cambie, y las m\u00e1quinas aprendan a manipular objetos y acciones percibidas, no habr\u00e1 posibilidad de integrar cierres de seguridad nunca m\u00e1s\u201d<\/em>, sentenci\u00f3 Lavrentiev.<\/p>\n<p>y agreg\u00f3:<em> \u201cuna inteligencia de este tipo ser\u00eda capaz de analizar los datos percibidos mucho m\u00e1s r\u00e1pido que un humano, y encontrar\u00eda la manera de saltarse las reglas y limitaciones impuestas por un ser humano y podr\u00eda actuar por su propia voluntad.\u201d<\/em><\/p>\n<p><em>\u201cUna posible limitaci\u00f3n dise\u00f1ada para evitar que la IA haga algo perjudicial ser\u00eda el aislamiento efectivo de la m\u00e1quina del mundo real, lo que la privar\u00eda de la oportunidad de manipular objetos f\u00edsicos. Sin embargo, con este enfoque, el uso pr\u00e1ctico de la IA ser\u00eda nulo\u201d<\/em><\/p>\n<p>Esta probabilidad se representa en el reciente <a href=\"http:\/\/www.imdb.com\/title\/tt0470752\/\" target=\"_blank\" rel=\"noopener nofollow\">thriller de la pel\u00edcula de ciencia ficci\u00f3n \u201cEx Machina\u201d<\/a>. Como cualquier otro producto t\u00edpico de Hollywood, esta pel\u00edcula se rellena con argumentos forzados y sobreestima considerablemente la problem\u00e1tica. Sin embargo, el n\u00facleo del problema est\u00e1 correctamente definido.<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/sNExF5WYMaA?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p>En primer lugar, incluso los robots primitivos son capaces de influir en el estado emocional de una persona. El chat de programaci\u00f3n sencilla llamado <a href=\"http:\/\/en.wikipedia.org\/wiki\/ELIZA\" target=\"_blank\" rel=\"noopener nofollow\">ELISA<\/a> (si quieres hablar con ella, haz clic <a href=\"http:\/\/www.masswerk.at\/elizabot\/\" target=\"_blank\" rel=\"noopener nofollow\">aqu\u00ed<\/a>) fue capaz de <a href=\"http:\/\/en.wikipedia.org\/wiki\/ELIZA_effect#Origin\" target=\"_blank\" rel=\"noopener nofollow\">recopilar informaci\u00f3n personal de sus interlocutores humanos<\/a>, con simplemente utilizado preguntas <a href=\"https:\/\/en.wikipedia.org\/wiki\/Empathy\" target=\"_blank\" rel=\"noopener nofollow\">emp\u00e1ticas<\/a>.<\/p>\n<p>En segundo lugar, cada vez m\u00e1s dependemos de algoritmos robotizados para filtrar y clasificar la informaci\u00f3n. De hecho, cualquiera que gestione estos flujos de datos, tal como lo demostr\u00f3 un <a href=\"http:\/\/www.theguardian.com\/technology\/2014\/jun\/29\/facebook-users-emotions-news-feeds\" target=\"_blank\" rel=\"noopener nofollow\">pol\u00e9mico experimento de Facebook<\/a>, puede influir en el estado emocional de las personas y en sus decisiones.<\/p>\n<p>En la vida privada esta influencia podr\u00eda actuar m\u00e1s r\u00e1pido y ser a\u00fan m\u00e1s impactante. Durante la reciente conferencia de <a href=\"https:\/\/latam.kaspersky.com\/blog\/google-io-2015-7-cosas-para-tener-en-cuenta-sobre-android-m\/5568\/\" target=\"_blank\" rel=\"noopener\">Google I\/O<\/a> fue presentado el nuevo sistema \u201cNo won Tap\u201d. Que recoge informaci\u00f3n de todas las aplicaciones del smartphone del usuario y las utiliza para las b\u00fasquedas en l\u00ednea.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Google's latest Android update brings some much needed privacy strengthening <a href=\"https:\/\/twitter.com\/hashtag\/io15?src=hash&amp;ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">#io15<\/a> \u2013 <a href=\"http:\/\/t.co\/XPdvEUioPP\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/XPdvEUioPP<\/a> <a href=\"http:\/\/t.co\/aWcCY8Ncjw\" target=\"_blank\" rel=\"noopener nofollow\">pic.twitter.com\/aWcCY8Ncjw<\/a><\/p>\n<p>\u2014 Kaspersky (@kaspersky) <a href=\"https:\/\/twitter.com\/kaspersky\/status\/605304070480502784?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">June 1, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Por ejemplo, si usted lee un art\u00edculo sobre un m\u00fasico determinado en la aplicaci\u00f3n de Wikipedia y luego le pregunta a Google \u201c\u00bfCu\u00e1ndo es <em>su<\/em> concierto?\u201d, El robot sabr\u00e1 exactamente a qui\u00e9n se refiere con \u201csu\u201d. Hoy en d\u00eda, un robot nos recuerda que ya es hora de ir al aeropuerto, porque el vuelo est\u00e9 programado para dentro de un par de horas.<\/p>\n<p>La evoluci\u00f3n de la computaci\u00f3n podr\u00eda hacer que este simple robot sea mucho m\u00e1s sofisticado. No obstante, es muy importante asegurarse de que la IA manipula la informaci\u00f3n disponible \u00fanicamente para el bien de los usuarios y que no sigue su propia agenda oculta.<\/p>\n<p>Ese es un problema que preocupa a una gran parte de las mentes brillantes de nuestro tiempo, desde Stephen Hawking hasta Elon Musk. Este \u00faltimo apenas puede ser considerado un pensador conservador opuesto al progreso. Muy por el contrario, el inventor de Tesla y SpaceX est\u00e1 pensando ansiosamente en el futuro. Sin embargo, \u00e9l ve que la evoluci\u00f3n de la IA es una de las tendencias m\u00e1s controvertidas, cuyas consecuencias todav\u00eda son imprevisibles y potencialmente catastr\u00f3ficas. Es por eso que a principios de este a\u00f1o invirti\u00f3 <a href=\"http:\/\/www.wired.com\/2015\/01\/elon-musk-ai-safety\/\" target=\"_blank\" rel=\"noopener nofollow\">10.000.000 d\u00f3lares en la investigaci\u00f3n sobre la inteligencia artificial.<\/a><\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Elon Musk donates $10 million to keep robots from murdering you <a href=\"http:\/\/t.co\/8UHqzaRmdo\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/8UHqzaRmdo<\/a> <a href=\"http:\/\/t.co\/vkldwucgkX\" target=\"_blank\" rel=\"noopener nofollow\">pic.twitter.com\/vkldwucgkX<\/a><\/p>\n<p>\u2014 The Verge (@verge) <a href=\"https:\/\/twitter.com\/verge\/status\/555751471103631360?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">January 15, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><strong>\u00bf<\/strong><strong>Qu<\/strong><strong>\u00e9<\/strong><strong> nos espera para el futuro?<\/strong><\/p>\n<p>Por extra\u00f1o que parezca, uno de los escenarios m\u00e1s factibles, que los expertos consideran demasiado optimista, es la imposibilidad total de crear Inteligencia Artificial. Sin un avance tecnol\u00f3gico significativo (que todav\u00eda no existe), los robots s\u00f3lo podr\u00e1n actualizarse y mejorar en base a sus habilidades existentes.<\/p>\n<p>Mientras que las m\u00e1quinas todav\u00eda est\u00e1n aprendiendo cosas sencillas como <a href=\"https:\/\/latam.kaspersky.com\/blog\/cinco-verdades-no-tan-conocidas-de-los-automoviles-robot\/5409\/\" target=\"_blank\" rel=\"noopener\">conducir un coche<\/a> o hablar idiomas nativos, a\u00fan no son capaces de sustituir a un ser humano en la toma de decisiones aut\u00f3nomas. En la perspectiva a corto plazo, la IA puede generar algunos \u201cda\u00f1os colaterales\u201d, tales como la eliminaci\u00f3n del taxista como ocupaci\u00f3n, pero no se la considera una amenaza global para la humanidad.<\/p>\n<blockquote class=\"twitter-pullquote\"><p>\u00bfDebemos temerle a la Inteligencia Artificial?<\/p><a href=\"https:\/\/twitter.com\/share?url=https%3A%2F%2Fkas.pr%2FMb6T&amp;text=%C2%BFDebemos+temerle+a+la+Inteligencia+Artificial%3F\" class=\"btn btn-twhite\" data-lang=\"en\" data-count=\"0\" target=\"_blank\" rel=\"noopener nofollow\">Tweet<\/a><\/blockquote>\n<p>Andrey Lavrentiev sugiere que el conflicto entre la IA y la humanidad es posible bajo una sola condici\u00f3n: la necesidad de compartir los mismos recursos.<\/p>\n<p><em>\u201cUn ser humano tiene un cuerpo y est\u00e1 interesado en la creaci\u00f3n de condiciones favorables para su conveniencia (y la conveniencia de su mente). Con la IA, la situaci\u00f3n es la opuesta: inicialmente existe s\u00f3lo en el mundo digital\u201d.<\/em><\/p>\n<p><em>\u201cEl principal objetivo y la motivaci\u00f3n de la Inteligencia Artificial es procesar la informaci\u00f3n suministrada a trav\u00e9s de los canales externos, sus \u2018\u00f3rganos sensoriales\u2019, evaluarla e identificar los principios de su cambio\u201d.<\/em><\/p>\n<p><em>\u201cPor supuesto, la IA tambi\u00e9n posee algunas bases materiales, pero su dependencia de la \u2018c\u00e1scara\u2019 es mucho m\u00e1s d\u00e9bil que en el ser humano. La IA, a diferencia de los humanos, no est\u00e1 pensando en preservar su caparaz\u00f3n (o \u201ccuerpo\u201d), debido a que la IA se encuentra \u2018en todas partes\u2019 a la vez. La extensi\u00f3n org\u00e1nica del alcance de la IA en busca de nueva informaci\u00f3n ser\u00eda la exploraci\u00f3n espacial y el estudio de las leyes del universo, por lo que podr\u00eda propagarse a s\u00ed misma m\u00e1s all\u00e1 de la Tierra\u201d.<\/em><\/p>\n<p><em>\u201cSin embargo, incluso en este escenario, hay ciertos escollos. Una vez que esta superinteligencia vea a la humanidad o al universo como \u2018imperfecciones\u2019 en su modelo digital, tratar\u00e1 de eliminar a cualquiera de ellos con el fin de alcanzar la armon\u00eda. O, posiblemente, necesitar\u00e1 de los recursos consumidos por los seres humanos con el fin de \u2018explorar el espacio\u2019, reviviendo as\u00ed el viejo conflicto de \u2018robots vs humanidad'\u201d.<\/em><\/p>\n<p style=\"text-align: right\">Traducido por: Maximiliano De Benedetto y Guillermo Vidal Quinteiro<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfQu\u00e9 tienen en com\u00fan el multimillonario Elon Musk, inventor del servicio de Google Now on Tap y la reciente pel\u00edcula \u201cEx Machina\u201d? La idea de que la Inteligencia Artificial (IA)<\/p>\n","protected":false},"author":32,"featured_media":5636,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[6,2737],"tags":[2020,2021,1521,572,61,2018,1861,1815,49,111,2019,1829,38,2022,192],"class_list":{"0":"post-5634","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-news","8":"category-privacy","9":"tag-ai","10":"tag-computadoras","11":"tag-evolucion","12":"tag-futuro","13":"tag-google","14":"tag-ia","15":"tag-inteligencia-artificial","16":"tag-maquinas","17":"tag-microsoft","18":"tag-peligro","19":"tag-robotica","20":"tag-robots","21":"tag-seguridad","22":"tag-stephen-hawking","23":"tag-tecnologia"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/artificial-intelligence-safety\/5634\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/artificial-intelligence-safety\/5436\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/artificial-intelligence-safety\/5871\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/artificial-intelligence-safety\/6225\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/artificial-intelligence-safety\/6195\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/artificial-intelligence-safety\/8077\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/artificial-intelligence-safety\/9021\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/artificial-intelligence-safety\/5423\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/artificial-intelligence-safety\/5562\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/artificial-intelligence-safety\/7918\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/artificial-intelligence-safety\/8077\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/artificial-intelligence-safety\/9021\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/artificial-intelligence-safety\/9021\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/5634","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/32"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=5634"}],"version-history":[{"count":2,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/5634\/revisions"}],"predecessor-version":[{"id":16205,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/5634\/revisions\/16205"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/5636"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=5634"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=5634"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=5634"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}