{"id":13334,"date":"2018-08-22T14:33:11","date_gmt":"2018-08-22T20:33:11","guid":{"rendered":"https:\/\/latam.kaspersky.com\/blog\/?p=13334"},"modified":"2022-03-28T05:31:58","modified_gmt":"2022-03-28T11:31:58","slug":"machine-learning-nine-challenges","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/machine-learning-nine-challenges\/13334\/","title":{"rendered":"El aprendizaje autom\u00e1tico: 9 desaf\u00edos"},"content":{"rendered":"<p>El futuro va a ser incre\u00edble, no cabe duda, pero actualmente, la inteligencia artificial (IA) plantea unas cuantas preguntas y la mayor\u00eda tienen que ver con la moral y la \u00e9tica. \u00bfCon qu\u00e9 nos vuelve a sorprender el aprendizaje autom\u00e1tico? \u00bfPuedes enga\u00f1ar a una m\u00e1quina? \u00bfEs dif\u00edcil? \u00bfTerminar\u00e1 todo con Skynet y el auge de las m\u00e1quinas?<\/p>\n<p><img decoding=\"async\" class=\"size-full wp-image-16774 aligncenter\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2018\/08\/24141256\/machine-learning-ten-challenges-featured-1024x672.jpg\" alt=\"\" width=\"1024\" height=\"672\"><\/p>\n<h2>La inteligencia artificial fuerte y d\u00e9bil<\/h2>\n<p>Primero, tenemos que diferenciar dos conceptos: la IA fuerte y la d\u00e9bil. La IA fuerte es una m\u00e1quina hipot\u00e9tica que es capaz de pensar y es consciente de su propia existencia, adem\u00e1s, no solo puede resolver las tareas para las que est\u00e1 programada, sino que tambi\u00e9n puede aprender cosas nuevas.<\/p>\n<p>La IA d\u00e9bil ya existe, se encuentra en todas las aplicaciones creadas para resolver problemas espec\u00edficos, como reconocer im\u00e1genes, conducir un coche o jugar una partida de Go. La IA d\u00e9bil es la que habitualmente conocemos como \u201caprendizaje autom\u00e1tico\u201d.<\/p>\n<p>Se desconoce todav\u00eda cu\u00e1ndo podr\u00e1 inventarse la IA fuerte. Seg\u00fan los <a href=\"https:\/\/www.technologyreview.com\/s\/607970\/experts-predict-when-artificial-intelligence-will-exceed-human-performance\/\" target=\"_blank\" rel=\"noopener nofollow\">estudios de los expertos<\/a>, tendremos que esperar otros 45 a\u00f1os, es decir, \u201calg\u00fan d\u00eda\u201d. Tambi\u00e9n afirman que la energ\u00eda de fusi\u00f3n se comercializar\u00e1 dentro de 40 a\u00f1os, que es exactamente lo mismo que dijeron hace 50 a\u00f1os.<\/p>\n<h2>\u00bfQu\u00e9 podr\u00eda salir mal?<\/h2>\n<p>Todav\u00eda no est\u00e1 claro cu\u00e1ndo se desarrollar\u00e1 la IA fuerte, pero la d\u00e9bil ya se encuentra en muchas \u00e1reas y cada a\u00f1o se extiende a diferentes sectores. El aprendizaje autom\u00e1tico nos permite manejar tareas pr\u00e1cticas sin una programaci\u00f3n obvia, ya que aprende de ejemplos. Para m\u00e1s informaci\u00f3n, no te pierdas el art\u00edculo del blog <a href=\"https:\/\/www.kaspersky.es\/blog\/machine-learning-explained\/9560\/\" target=\"_blank\" rel=\"noopener\"><i>C\u00f3mo funciona el aprendizaje autom\u00e1tico, con palabras f\u00e1ciles<\/i><\/a>.<\/p>\n<p>Ense\u00f1amos a las m\u00e1quinas a resolver problemas concretos, por lo que el modelo matem\u00e1tico resultante (lo que llamamos algoritmo de \u201caprendizaje\u201d) no puede desarrollar repentinamente un deseo de derrotar (o salvar) a la humanidad. Es decir, podemos estar tranquilos, la IA d\u00e9bil no generar\u00e1 en una situaci\u00f3n similar a Skynet, pero otras cosas podr\u00edan salir mal.<\/p>\n<h3>1 . Malas intenciones<\/h3>\n<p>Si ense\u00f1amos a un ej\u00e9rcito de drones a matar gente mediante inteligencia artificial, \u00bfser\u00edan \u00e9ticos los resultados?<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/TlO2gcs1YvM?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p>El a\u00f1o pasado surgi\u00f3 un peque\u00f1o esc\u00e1ndalo en torno a este tema. Google <a href=\"https:\/\/gizmodo.com\/google-employees-resign-in-protest-against-pentagon-con-1825729300\" target=\"_blank\" rel=\"noopener nofollow\">estaba desarrollando <i>software<\/i><\/a> para un proyecto militar con drones llamado Project Maven que, en el futuro, podr\u00eda ayudar a crear sistemas de armas completamente aut\u00f3nomos.<\/p>\n<p>Como resultado, 12 empleados de Google dimitieron en acto de protesta y 4000 firmaron una petici\u00f3n pidiendo a la compa\u00f1\u00eda que abandonara el contrato con las fuerzas armadas. M\u00e1s de 1000 cient\u00edficos reputados en el campo de la IA, la \u00e9tica y la inform\u00e1tica escribieron una <a href=\"https:\/\/www.icrac.net\/open-letter-in-support-of-google-employees-and-tech-workers\/\" target=\"_blank\" rel=\"noopener nofollow\">carta abierta<\/a> a Google, pidiendo a la empresa que abandonara el proyecto y respaldara un acuerdo internacional que prohibiera las armas aut\u00f3nomas.<\/p>\n<h3>2. La tendencia de los desarrolladores<\/h3>\n<p>Aunque los desarrolladores de algoritmos de aprendizaje autom\u00e1tico no quieran da\u00f1ar a nadie, lo que s\u00ed quieren muchos de ellos es ganar dinero, es decir, crean los algoritmos para beneficiarse ellos mismos y no necesariamente por el bien de la sociedad. Algunos algoritmos pueden recomendar los tratamientos m\u00e1s costosos como los que mejores resultados ofrecen al paciente, por ejemplo.<\/p>\n<p>A veces, es la propia sociedad la que no tiene inter\u00e9s en que un algoritmo se convierta en un modelo para la sociedad. Por ejemplo, hay una fuerte relaci\u00f3n entre la velocidad de tr\u00e1fico y el \u00edndice de mortalidad debido a accidentes. As\u00ed que, podr\u00edamos programar los coches aut\u00f3nomos para que no circulen a m\u00e1s de 20 km\/h, lo cual reducir\u00eda el n\u00famero de muertes en las carreteras a casi cero, pero anular\u00eda la mayor\u00eda de los beneficios de usar coche.<\/p>\n<h3>3. Los par\u00e1metros del sistema no siempre tienen en cuenta la \u00e9tica<\/h3>\n<p>Por defecto, las computadoras no tienen principios \u00e9ticos. Un algoritmo puede elaborar un presupuesto nacional con el objetivo de \u201caumentar el PIB\/la productividad laboral\/la esperanza de vida\u201d, pero si no se incluyen limitaciones \u00e9ticas en el programa del modelo, podr\u00eda eliminar el presupuesto destinado a los colegios, los hospitales de cuidados paliativos y el medio ambiente, porque no aumentar\u00edan el PIB.<\/p>\n<p>De hecho, si su prop\u00f3sito fuera m\u00e1s amplio, podr\u00eda incluso decidir aumentar la productividad deshaci\u00e9ndose de aquellos que no est\u00e9n capacitados para trabajar.<\/p>\n<p>La cuesti\u00f3n es: se deben incorporar principios \u00e9ticos desde el principio.<\/p>\n<h3>4. Relatividad \u00e9tica<\/h3>\n<p>La \u00e9tica va cambiando con el tiempo y a veces lo hace muy r\u00e1pido. Por ejemplo, las opiniones sobre ciertas cuestiones como los derechos LGTB y el matrimonio entre castas o interracial pueden cambiar significativamente de una generaci\u00f3n a otra.<\/p>\n<p>La \u00e9tica tambi\u00e9n puede variar entre grupos del mismo pa\u00eds, por no hablar de distintos pa\u00edses. Por ejemplo, en China, se ha comenzado a utilizar el reconocimiento facial como principal medida de <a href=\"https:\/\/www.businessinsider.com\/how-china-is-watching-its-citizens-in-a-modern-surveillance-state-2018-4\" target=\"_blank\" rel=\"noopener nofollow\">vigilancia masiva<\/a>, sin embargo, otros pa\u00edses pueden ver este problema de manera diferente y la decisi\u00f3n puede depender seg\u00fan la situaci\u00f3n.<\/p>\n<p><img decoding=\"async\" class=\"size-full wp-image-16775 aligncenter\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2018\/08\/24141520\/machine-learning-challenges-face-recognition-china-1024x590.png\" alt=\"\" width=\"1024\" height=\"590\"><\/p>\n<p>El clima pol\u00edtico tambi\u00e9n importa. Por ejemplo, la guerra contra el terrorismo ha cambiado significativamente (y muy r\u00e1pido) algunas normas \u00e9ticas e ideales en muchos pa\u00edses.<\/p>\n<h3>5. El aprendizaje autom\u00e1tico cambia a los humanos<\/h3>\n<p>Los sistemas de aprendizaje autom\u00e1tico (solo un ejemplo de IA que afecta a la gente directamente) te recomiendan nuevas pel\u00edculas seg\u00fan tu puntuaci\u00f3n a otras y despu\u00e9s de comparar tus preferencias con otros usuarios. A algunos sistemas ya se les da bastante bien.<\/p>\n<p>Un sistema de recomendaci\u00f3n de pel\u00edculas cambia tus preferencias con el tiempo y las limita. Sin \u00e9l, te enfrentar\u00edas a la pesadilla de tener que ver pel\u00edculas malas y de g\u00e9neros que no deseas. Pero con la IA, dar\u00e1s en el clavo con cada pel\u00edcula y, al final, dejar\u00e1s de investigar y solo consumir\u00e1s lo que te ofrezca.<\/p>\n<p>Cabe destacar que no solemos darnos cuenta de c\u00f3mo nos manipulan estos algoritmos. Este ejemplo de las pel\u00edculas no asusta, pero piensa en las noticias o en la publicidad.<\/p>\n<h3>6. Falsas correlaciones<\/h3>\n<p>Una falsa correlaci\u00f3n tiene lugar cuando cosas totalmente independientes empiezan a mostrar un comportamiento similar, lo que podr\u00eda generar la ilusi\u00f3n de que puedan estar conectadas de alguna forma. Por ejemplo, \u00bfsab\u00edas que el consumo de margarina en EEUU est\u00e1 muy relacionado con la tasa de divorcio en Maine?<\/p>\n<p><img decoding=\"async\" class=\"size-full wp-image-16776 aligncenter\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2018\/08\/24141613\/machine-learning-challenges-false-correlation-EN-1024x485.png\" alt=\"\" width=\"1024\" height=\"485\"><\/p>\n<p>Est\u00e1 claro que una persona real, que depende de su experiencia personal y su inteligencia humana, asumir\u00eda de inmediato que cualquier conexi\u00f3n directa entre la margarina y el divorcio es muy poco probable. Sin embargo, un modelo matem\u00e1tico no posee ese conocimiento, solo aprende y generaliza datos.<\/p>\n<p>Un ejemplo muy conocido es un programa que clasifica a los pacientes seg\u00fan el nivel de urgencia que concluy\u00f3 que los pacientes asm\u00e1ticos con neumon\u00eda no necesitaban tan urgentemente la asistencia como los pacientes con neumon\u00eda, pero sin asma. El programa comprob\u00f3 los datos y concluy\u00f3 que los pacientes con asma tienen menos peligro de muerte y, por tanto, no deber\u00edan ser una prioridad. Y lo cierto es que sus \u00edndices de mortalidad eran tan bajos porque siempre recib\u00edan atenci\u00f3n urgente debido al riego inherente a su condici\u00f3n.<\/p>\n<h3>7. Circuitos de retroalimentaci\u00f3n<\/h3>\n<p>Un circuito de retroalimentaci\u00f3n es peor que las falsas correlaciones, ya que es una situaci\u00f3n en la que las decisiones del algoritmo afectan a la realidad, que, a su vez, convence al algoritmo de que su conclusi\u00f3n es acertada.<\/p>\n<p>Por ejemplo, un programa de prevenci\u00f3n de la delincuencia en California sugiri\u00f3 que la polic\u00eda deber\u00eda enviar m\u00e1s oficiales a los barrios afroamericanos seg\u00fan el \u00edndice de delincuencia (el n\u00famero de delito registrados). Pero al ver tantos coches de polic\u00eda en el barrio, los residentes comenzaron a denunciar delitos con mayor frecuencia, lo que llev\u00f3 a que los oficiales redactaran m\u00e1s protocolos e informes y result\u00f3 en un \u00edndice de criminalidad m\u00e1s alto, por lo que tendr\u00edan que destinar a\u00fan m\u00e1s patrullas a la zona.<\/p>\n<h3>8. Datos de referencia \u201ccontaminados\u201d o \u201cenvenenados\u201d<\/h3>\n<p>Los resultados del algoritmo de aprendizaje dependen de los datos de referencia que forman la base del aprendizaje. Los datos pueden ser err\u00f3neos y distorsionados por accidente o porque alguien los haya envenenado.<\/p>\n<p>\u00bfC\u00f3mo se pueden contaminar los datos de referencia? Por ejemplo, si los datos utilizados como muestra de formaci\u00f3n para un algoritmo de contrataci\u00f3n se han obtenido de una empresa con pr\u00e1cticas de contrataci\u00f3n racistas, el algoritmo tambi\u00e9n ser\u00e1 racista.<\/p>\n<p>Microsoft una vez ense\u00f1\u00f3 a un chatbot a comunicarse en Twitter permitiendo que cualquiera chateara con \u00e9l. Tuvieron que <a href=\"https:\/\/www.theverge.com\/2016\/3\/24\/11297050\/tay-microsoft-chatbot-racist\" target=\"_blank\" rel=\"noopener nofollow\">desconectar el proyecto<\/a> en menos de 24 horas porque los amables usuarios de Internet ense\u00f1aron r\u00e1pidamente al bot a maldecir y recitar Mein Kampf.<\/p>\n<p>https:\/\/twitter.com\/geraldmellor\/status\/712880710328139776<\/p>\n<p>\u00bfY hay alg\u00fan ejemplo de datos envenenados? Pues s\u00ed, un modelo matem\u00e1tico en un laboratorio de an\u00e1lisis de virus inform\u00e1ticos procesa un promedio de 1 mill\u00f3n de archivos por d\u00eda, tanto limpios como da\u00f1inos. El panorama de amenazas cambia constantemente, por lo que los cambios del modelo se entregan a los productos instalados del cliente en forma de actualizaciones de la base de datos antivirus.<\/p>\n<p>Un <i>hacker<\/i> puede seguir generando archivos maliciosos, muy similares a los limpios, y enviarlos al laboratorio. Esto puede llegar a difuminar la l\u00ednea entre archivos limpios y da\u00f1inos, degradando el modelo y, quiz\u00e1s, desencadenando un <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/false-positive\/?utm_source=kdaily&amp;utm_medium=blog&amp;utm_campaign=termin-explanation&amp;_ga=2.258686346.1651528453.1534747881-171254224.1518695379\" target=\"_blank\" rel=\"noopener\">falso positivo<\/a>.<\/p>\n<p>Por ello, Kaspersky Lab cuenta con un <a href=\"https:\/\/www.kaspersky.com\/blog\/multilayered-approach\/6601\/\" target=\"_blank\" rel=\"noopener nofollow\">modelo de seguridad multicapa<\/a> y <a href=\"https:\/\/securelist.lat\/five-myths-about-machine-learning-in-cybersecurity\/84088\/\" target=\"_blank\" rel=\"noopener\">no conf\u00eda<\/a> exclusivamente en el aprendizaje autom\u00e1tico. De hecho, son personas reales (expertos en antivirus) los que supervisan la actividad de la m\u00e1quina.<\/p>\n<h3>9. Enga\u00f1o<\/h3>\n<p>Incluso un buen modelo matem\u00e1tico que haya demostrado su efectividad (que conf\u00ede en buenos datos) puede ser enga\u00f1ado, si se sabe c\u00f3mo funciona. Por ejemplo, un grupo de investigadores descubri\u00f3 c\u00f3mo enga\u00f1ar al algoritmo de reconocimiento facial con unas gafas de colores especiales que introduc\u00edan distorsiones m\u00ednimas en la imagen y alteraban por completo el resultado.<\/p>\n<div id=\"attachment_16777\" style=\"width: 1034px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-16777\" class=\"wp-image-16777 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2018\/08\/24142302\/machine-learning-challenges-fail-1-1024x614.png\" alt=\"\" width=\"1024\" height=\"614\"><p id=\"caption-attachment-16777\" class=\"wp-caption-text\">Con gafas con monturas de colores especiales, los investigadores <a href=\"https:\/\/www.theguardian.com\/technology\/2016\/nov\/03\/how-funky-tortoiseshell-glasses-can-beat-facial-recognition\" target=\"_blank\" rel=\"noopener nofollow\">enga\u00f1aron a un algoritmo de reconocimiento facial<\/a> para que pensara que eran otra persona.<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Incluso en situaciones que no parecen involucrar nada complicado, una m\u00e1quina puede ser enga\u00f1ada f\u00e1cilmente utilizando m\u00e9todos desconocidos para una persona inexperta en la materia.<\/p>\n<div id=\"attachment_16778\" style=\"width: 859px\" class=\"wp-caption alignleft\"><img decoding=\"async\" aria-describedby=\"caption-attachment-16778\" class=\"wp-image-16778 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2018\/08\/24142358\/machine-learning-challenges-fail-2.png\" alt=\"\" width=\"849\" height=\"309\"><p id=\"caption-attachment-16778\" class=\"wp-caption-text\">Las primeras tres se\u00f1ales <a href=\"https:\/\/arxiv.org\/pdf\/1412.6572.pdf\" target=\"_blank\" rel=\"noopener nofollow\">se reconocen<\/a> como se\u00f1ales de l\u00edmite de velocidad de 45 km\/h y la \u00faltima como un STOP<\/p><\/div>\n<p>Adem\u00e1s, para derribar un modelo matem\u00e1tico de aprendizaje autom\u00e1tico, los cambios no tienen que ser significativos; bastar\u00e1n<a href=\"https:\/\/www.kaspersky.es\/blog\/ai-fails\/14276\/\" target=\"_blank\" rel=\"noopener\"> cambios m\u00ednimos, imperceptibles<\/a> para el ojo humano.<\/p>\n<div id=\"attachment_16779\" style=\"width: 1034px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-16779\" class=\"wp-image-16779 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2018\/08\/24142530\/machine-learning-challenges-fail-3-1024x333.png\" alt=\"\" width=\"1024\" height=\"333\"><p id=\"caption-attachment-16779\" class=\"wp-caption-text\">A\u00f1ade ruido al panda de la izquierda para obtener un <a href=\"https:\/\/arxiv.org\/pdf\/1312.6199.pdf\" target=\"_blank\" rel=\"noopener nofollow\">gib\u00f3n<\/a><\/p><\/div>\n<p>Mientras la humanidad sea a\u00fan m\u00e1s inteligente que la mayor\u00eda de los algoritmos, los humanos podr\u00e1n enga\u00f1arlos. Imagina el aprendizaje autom\u00e1tico de un futuro cercano que analiza el esc\u00e1ner de rayos x del equipaje en el aeropuerto en busca de armas. Un terrorista inteligente podr\u00e1 poner un objeto junto a un arma de forma que esta sea invisible.<\/p>\n<h2>\u00bfA qui\u00e9n culpar y qu\u00e9 hacer?<\/h2>\n<p>En el 2016, el Big Data Working Group de la administraci\u00f3n de Obama public\u00f3 un <a href=\"https:\/\/obamawhitehouse.archives.gov\/sites\/default\/files\/microsites\/ostp\/2016_0504_data_discrimination.pdf\" target=\"_blank\" rel=\"noopener nofollow\">informe<\/a> que avisaba sobre \u201cel potencial de codificar la discriminaci\u00f3n en las decisiones automatizadas\u201d. El informe tambi\u00e9n conten\u00eda un llamado para generar algoritmos que siguieran los principios de igualdad de oportunidades por defecto.<\/p>\n<p>Es m\u00e1s f\u00e1cil decirlo que hacerlo.<\/p>\n<p>En primer lugar, los modelos matem\u00e1ticos de aprendizaje autom\u00e1tico son dif\u00edciles de probar y corregir. Evaluamos los programas paso a paso y sabemos c\u00f3mo probarlos, pero con el aprendizaje autom\u00e1tico, todo depende del tama\u00f1o de la muestra de aprendizaje, y no puede ser infinito.<\/p>\n<p>Por ejemplo, aunque parezca incre\u00edble, la aplicaci\u00f3n Google Photo sol\u00eda reconocer y etiquetar a las personas de raza negra como gorilas. Como puedes imaginar, fue un esc\u00e1ndalo y Google prometi\u00f3 arreglar el algoritmo. Sin embargo, despu\u00e9s de tres a\u00f1os, Google <a href=\"https:\/\/www.theverge.com\/2018\/1\/12\/16882408\/google-racist-gorillas-photo-recognition-algorithm-ai\" target=\"_blank\" rel=\"noopener nofollow\">acab\u00f3 por prohibir las etiquetas<\/a> a gorilas, chimpanc\u00e9s o monos para evitar el mismo error.<\/p>\n<p>En segundo lugar, es complicado comprender y explicar las decisiones de los algoritmos. Una red neuronal organiza coeficientes para llegar a las respuestas correctas, pero \u00bfc\u00f3mo? \u00bfY qu\u00e9 se puede hacer para cambiar la respuesta?<\/p>\n<p>Una investigaci\u00f3n del 2015 mostr\u00f3 que las mujeres encuentran anuncios de <a href=\"https:\/\/www.theguardian.com\/technology\/2015\/jul\/08\/women-less-likely-ads-high-paid-jobs-google-study\" target=\"_blank\" rel=\"noopener nofollow\">trabajos bien remunerados<\/a> en Google AdSense con mucha menos frecuencia que los hombres. A menudo, el servicio de entrega en el mismo d\u00eda de Amazon <a href=\"https:\/\/www.geekwire.com\/2016\/amazon-same-day-delivery-black-neighborhoods\/\" target=\"_blank\" rel=\"noopener nofollow\">no est\u00e1 disponible para los vecindarios afroamericanos<\/a>. En ambos casos, los representantes de la compa\u00f1\u00eda no pudieron explicar estas decisiones tomadas por los algoritmos.<\/p>\n<p>Nadie tiene la culpa, as\u00ed que tenemos que adoptar nuevas leyes y postular leyes \u00e9ticas para la rob\u00f3tica. En mayo del 2018, Alemania dio el primer paso y public\u00f3 unas <a href=\"https:\/\/www.bmvi.de\/SharedDocs\/EN\/publications\/action-plan-on-the-report-ethics-commission-acd.pdf\" target=\"_blank\" rel=\"noopener nofollow\">normas \u00e9ticas para los autom\u00f3viles de conducci\u00f3n aut\u00f3noma<\/a> que, entre otras cosas, cubre lo siguiente:<\/p>\n<ul>\n<li>La seguridad personal es la principal prioridad en comparaci\u00f3n con el da\u00f1o a animales o propiedades.<\/li>\n<li>En caso de que un accidente sea inevitable, no debe haber discriminaci\u00f3n; los factores distintivos son inadmisibles.<\/li>\n<\/ul>\n<p>Pero lo realmente importante es que:<\/p>\n<ul>\n<li>Los sistemas de conducci\u00f3n autom\u00e1tica se convertir\u00e1n en un imperativo \u00e9tico si causan menos accidentes que los conductores humanos.<\/li>\n<\/ul>\n<p>Es evidente que cada vez confiaremos m\u00e1s en el aprendizaje autom\u00e1tico, simplemente porque llevar\u00e1 a acabo muchas tareas mejor que nosotros. Por ello, es importante tener en cuenta estas tareas, intentar anticiparse a todos los posibles problemas encontrados en la etapa de desarrollo y acordarse de supervisar el rendimiento de los algoritmos si algo va mal.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfQu\u00e9 sorpresas tiene reservadas el aprendizaje autom\u00e1tico? \u00bfEs complicado enga\u00f1ar a una m\u00e1quina? \u00bfTerminaremos con Skynet y el auge las m\u00e1quinas? <\/p>\n","protected":false},"author":669,"featured_media":13336,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2738],"tags":[2797,3512,3064,2018,918,2056],"class_list":{"0":"post-13334","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-aprendizaje-automatico","9":"tag-etica","10":"tag-humachine","11":"tag-ia","12":"tag-problemas","13":"tag-tecnologias"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/machine-learning-nine-challenges\/13334\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/machine-learning-nine-challenges\/13976\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/machine-learning-nine-challenges\/11675\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/machine-learning-nine-challenges\/15974\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/machine-learning-nine-challenges\/16771\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/machine-learning-nine-challenges\/16160\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/machine-learning-nine-challenges\/23553\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/machine-learning-nine-challenges\/11324\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/machine-learning-nine-challenges\/9867\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/machine-learning-nine-challenges\/17511\/"},{"hreflang":"zh","url":"https:\/\/www.kaspersky.com.cn\/blog\/machine-learning-nine-challenges\/9912\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/machine-learning-nine-challenges\/21336\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/machine-learning-nine-challenges\/20846\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/machine-learning-nine-challenges\/20855\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/humachine\/","name":"HuMachine"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/13334","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/669"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=13334"}],"version-history":[{"count":4,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/13334\/revisions"}],"predecessor-version":[{"id":24535,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/13334\/revisions\/24535"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/13336"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=13334"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=13334"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=13334"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}