17 de Junio del 2020 Blog, Inteligencia artificial

Beneficios y riesgos de la inteligencia artificial

beneficios-riesgos-inteligencia-artificial

Desde SIRI hasta los coches de conducción independiente, la inteligencia artificial está avanzando rápidamente. Mientras que la ciencia ficción normalmente representa la inteligencia artificial como robots con características humanas, la inteligencia artificial puede abarcar cualquier cosa desde los algoritmos de búsqueda de Google hasta el Watson de IBM y las armas autónomas.

¿Qué es la inteligencia artificial?

Hoy en día la inteligencia artificial se conoce como inteligencia artificial estrecha (o inteligencia artificial débil), lo cual significa que está diseñada para realizar una tarea estrecha (p. ej. reconocimiento facial, búsqueda en internet o conducir un coche). Sin embargo, el objetivo a largo plazo de varios investigadores es crear una inteligencia artificial general (o inteligencia artificial fuerte). Mientras que la inteligencia artificial estrecha podría superar a los humanos en cualquier tarea específica, como el ajedrez o la resolución de ecuaciones, la inteligencia artificial general superaría a los humanos en prácticamente cualquier tarea cognitiva.

¿Por qué investigar sobre la seguridad de la inteligencia artificial?

A corto plazo, el objetivo de mantener el impacto beneficioso de la inteligencia artificial en la sociedad instiga a la investigación en diferentes áreas, desde la economía y el derecho hasta temas técnicos como la verificación, la validez, la seguridad y el control. Si tu ordenador se rompe o lo hackean, eso solo será una pequeña molestia comparado con el hecho de que un sistema de inteligencia artificial haga lo que quieras al controlar tu coche, avión, marcapasos, sistema de negocio automatizado o tu red eléctrica. Otro problema es prevenir una carrera armamentística devastadora de armas autónomas.

A largo plazo, una cuestión importante es qué pasará si la búsqueda de una inteligencia artificial fuerte prospera y un sistema de inteligencia artificial se vuelve mejor que los humanos en todas las tareas cognitivas. Según dijo I.J. Good en 1965, el hecho de diseñar sistemas de inteligencia artificial más inteligentes es una tarea cognitiva. Un sistema de este tipo podría potencialmente experimentar una automejora recurrente, desencadenando una explosión de inteligencia que dejaría al intelecto humano muy atrás. Al inventar nuevas tecnologías revolucionarias, dicha superinteligencia podría ayudarnos a acabar con la guerra, las enfermedades y la pobreza, por lo que la creación de una inteligencia artificial fuerte podría ser el mayor acontecimiento de la historia de la humanidad. Sin embargo, algunos expertos han expresado su preocupación de que también podría ser el último, a menos que aprendamos a alinear los objetivos de la inteligencia artificial con los nuestros antes de que esta se vuelva superinteligente.

Hay quienes cuestionan si alguna vez se podrá obtener una inteligencia artificial fuerte, y otros que insisten en que está garantizado que la creación de una inteligencia artificial superinteligente será beneficiosa. Contemplamos ambas posibilidades, pero también reconocemos el potencial de que un sistema de inteligencia artificial cause, intencionalmente o no, un gran daño. Creemos que la investigación de hoy nos ayudará a prepararnos mejor y a prevenir tales consecuencias potencialmente negativas en el futuro, disfrutando así de los beneficios de la inteligencia artificial mientras evitamos los obstáculos.

¿Cómo puede la inteligencia artificial ser peligrosa?

La mayoría de los investigadores están de acuerdo en que es poco probable que una inteligencia artificial superinteligente muestre emociones humanas como el amor o el odio, y que no hay razón para esperar que la inteligencia artificial se vuelva intencionalmente benévolo o malévolo. En cambio, cuando se piensa en cómo la inteligencia artificial podría convertirse en un riesgo, los expertos piensan en dos posibles escenarios:

  1. La inteligencia artificial está programada para hacer algo devastador: Las armas autónomas son sistemas de inteligencia artificial programados para matar. En las manos de la persona equivocada, estas armas podrían fácilmente causar bajas masivas. Además, una carrera armamentística de la inteligencia artificial podría llevar inadvertidamente a una guerra de inteligencia artificial, que también acabaría en bajas masivas. Para evitar ser frustradas por el enemigo, estas armas estarían diseñadas para ser extremadamente difíciles de "apagar", por lo que los seres humanos podrían perder el control de la situación. Este riesgo está presente incluso con una inteligencia artificial estrecha, pero crece a medida que aumentan los niveles de inteligencia y autonomía.
  1. La inteligencia artificial está programada para hacer algo beneficioso, pero desarrolla un método destructivo para lograr su objetivo: Esto puede suceder cuando no alineamos completamente los objetivos de la inteligencia artificial con los nuestros, lo cual es sorprendentemente difícil. Si le pides a un coche inteligente obediente que te lleve al aeropuerto lo más rápido posible, puede que te lleve allí perseguido por helicópteros y cubierto de vómito, haciendo no lo que querías sino literalmente lo que pediste. Si a un sistema superinteligente se le asigna un ambicioso proyecto de geoingeniería, podría causar estragos en nuestro ecosistema como efecto secundario, y ver los intentos humanos de detenerlo como una amenaza a la que hay que hacer frente.

Como ilustran estos ejemplos, la preocupación por la inteligencia artificial avanzada no es la malevolencia sino la competencia. Una inteligencia artificial superinteligente será extremadamente buena en el cumplimiento de sus objetivos, y si esos objetivos no están alineados con los nuestros, tenemos un problema. Probablemente no seas un malvado anti-hormigas que pisa hormigas por malicia, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que se va a inundar, qué pena por las hormigas. Un objetivo clave de la investigación sobre seguridad de la inteligencia artificial es nunca poner a la humanidad en la posición de esas hormigas.

¿Por qué el reciente interés en la seguridad de inteligencia artificial?

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates y muchos otros grandes nombres de la ciencia y la tecnología han expresado recientemente su preocupación en los medios de comunicación y a través de cartas abiertas sobre los riesgos que plantea la inteligencia artificial, a los que se han unido muchos de los principales investigadores de la inteligencia artificial. ¿Por qué el tema aparece de repente en los titulares?

La idea de que la búsqueda de una inteligencia artificial fuerte finalmente tendría éxito se pensó durante mucho tiempo como ciencia ficción, a siglos o más de distancia. Sin embargo, gracias a los recientes avances, muchos hitos de la inteligencia artificial, que los expertos consideraban que estaban a décadas de distancia hace apenas cinco años, se han alcanzado ahora, haciendo que muchos expertos se tomen en serio la posibilidad de la superinteligencia en nuestra vida. Mientras que algunos expertos todavía suponen que la inteligencia artificial a nivel humano está a siglos de distancia, la mayoría de las investigaciones de inteligencia artificial en la Conferencia de Puerto Rico del 2015 vaticinaron que sucedería antes del 2060. Dado que completar la investigación de seguridad requerida puede durar décadas, es prudente comenzarla ahora.

Debido a que la inteligencia artificial tiene el potencial de convertirse en más inteligente que cualquier humano, no tenemos una forma segura de predecir cómo actuará. No podemos utilizar los desarrollos tecnológicos del pasado como base porque nunca hemos creado nada que tenga la capacidad de, consciente o inconscientemente, ser más inteligente que nosotros. El mejor ejemplo de lo que podríamos combatir puede ser nuestra propia evolución. La gente ahora controla el planeta, no porque seamos los más fuertes, rápidos o grandes, sino porque somos los más inteligentes. Si ya no somos los más inteligentes, ¿tenemos la seguridad de mantener el control?

La opinión de FLI es que nuestra civilización florecerá siempre y cuando ganemos la carrera entre el creciente poder de la tecnología y la sabiduría con la que la manejamos. En el caso de la tecnología de la inteligencia artificial, la posición de FLI es que la mejor manera de ganar esa carrera no es impedir la primera, sino acelerar la segunda, apoyando la investigación de seguridad de la inteligencia artificial.

Los mitos más conocidos de la inteligencia artificial avanzada.

Se está teniendo una conversación fascinante sobre el futuro de la inteligencia artificial y lo que significará/debería significar para la humanidad. Existen fascinantes controversias en las que los principales expertos del mundo no están de acuerdo, como, por ejemplo: El futuro impacto de la inteligencia artificial en el mercado laboral; si se desarrollará la inteligencia artificial a nivel humano; si esto llevará a una explosión de inteligencia; y si esto es algo que debemos acoger o temer. Pero también hay muchos ejemplos de pseudocontroversias aburridas causadas por personas que no se entienden ni se hablan entre ellas. Para ayudarnos a centrarnos en las controversias interesantes y las preguntas abiertas ( y no en los malentendidos) vamos a aclarar algunos de los mitos más comunes.

Mito: La superinteligencia para 2100 es inevitable. Hecho: Es posible que ocurra en décadas, siglos o nunca: Los expertos en inteligencia artificial no están de acuerdo y nosotros simplemente no lo sabemos.
Mito: La superinteligencia para 2100 es imposible.
Mito: Sólo los luditas se preocupan por la inteligencia artificial. Hecho: Varios investigadores importantes de inteligencia artificial están preocupados.
Preocupación ficticia: La inteligencia artificial se volverá malvada. Preocupación ficticia: La inteligencia artificial se volverá consciente. Preocupación real: La inteligencia artificial se volverá competente con objetivos que no están alineados con los nuestros.
Mito: Los robots son la principal preocupación. Hecho: La inteligencia no alineada es la principal preocupación: no necesita cuerpo, sólo una conexión a internet.
Mito: La inteligencia artificial no puede controlar a los humanos. Hecho: La inteligencia posibilita el control: controlamos a los tigres al ser más listos que ellos.
Mito: Las máquinas no pueden tener objetivos. Hecho: Un misil termodirigido tiene un objetivo.
Preocupación ficticia: La superinteligencia llegará en unos años. Preocupación real: Llegará en unas décadas, como pronto, pero tardará en volverse segura.

Cronología de los mitos.

El primer mito se refiere a la línea de tiempo: ¿cuánto tiempo pasará hasta que las máquinas superen en gran medida la inteligencia humana? Un error común es que sabemos la respuesta con gran certeza.

Un mito popular es que sabemos que tendremos inteligencia artificial sobrehumana este siglo. De hecho, la historia está llena de exageraciones tecnológicas. ¿Dónde están esas plantas de energía de fusión y los coches voladores que nos prometieron que tendríamos a estas alturas? La inteligencia artificial también ha sido repetidamente exagerada en el pasado, incluso por algunos de los fundadores del campo. Por ejemplo, John McCarthy (que acuñó el término "inteligencia artificial"), Marvin Minsky, Nathaniel Rochester y Claude Shannon escribieron este pronóstico demasiado optimista sobre lo que se podría lograr durante dos meses con ordenadores de la edad de piedra: "Proponemos que se lleve a cabo un estudio de dos meses y diez hombres sobre la inteligencia artificial durante el verano de 1956 en el Dartmouth College [...] Se intentará averiguar cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan tipos de problemas que ahora están reservados a los humanos y se mejoren a sí mismas. Creemos que se puede lograr un avance significativo en uno o más de estos problemas si un grupo de científicos cuidadosamente seleccionados trabajan juntos en ello durante un verano".

Por otro lado, un contramito popular es que sabemos que no tendremos inteligencia artificial sobrehumana este siglo. Los investigadores han hecho una amplia gama de estimaciones de cuán lejos estamos de la inteligencia artificial sobrehumana, pero ciertamente no podemos decir con gran seguridad que la probabilidad sea cero en este siglo, dado el triste historial de tales predicciones tecnoescépticas. Por ejemplo, Ernest Rutherford, posiblemente el mayor físico nuclear de su tiempo, dijo en 1933, menos de 24 horas antes de que Szilard inventara la reacción en cadena nuclear, que la energía nuclear era "luz de luna". Y el astrónomo Royal Richard Woolley llamó a los viajes interplanetarios "una completa tontería" en 1956. La forma más extrema de este mito es que la inteligencia artificial sobrehumana nunca llegará porque es físicamente imposible. Sin embargo, los físicos saben que el cerebro está formado por quarks y electrones dispuestos para actuar como un potente ordenador, y que no hay ninguna ley física que nos impida construir bloques de quarks aún más inteligentes.

Se han realizado varias encuestas preguntando a los investigadores de la inteligencia artificial sobre cuántos años piensan que tendremos una inteligencia artificial de nivel humano con al menos un 50% de probabilidad. Todas estas encuestas llegan a la misma conclusión: los principales expertos del mundo no están de acuerdo, así que simplemente no lo sabemos. Por ejemplo, en una encuesta de este tipo con los investigadores de la inteligencia artificial en la conferencia de inteligencia artificial de Puerto Rico en 2015, la respuesta promedio (mediana) fue para el año 2045, pero algunos investigadores estimaron cientos de años o más.

También existe un mito relacionado con el hecho de que las personas que se preocupan por la inteligencia artificial creen que sólo faltan unos pocos años para que se produzca. De hecho, la mayoría de las personas registradas que se preocupan por la inteligencia artificial sobrehumana creen que todavía faltan por lo menos unas décadas. Pero argumentan que mientras no estemos 100% seguros de que no sucederá en este siglo, conviene comenzar la investigación de seguridad ahora para prepararnos para cualquier eventualidad. Muchos de los problemas de seguridad asociados con la inteligencia artificial humana son tan difíciles que pueden tardar décadas en resolverse. Así que es prudente empezar a investigarlos ahora en lugar de la noche antes de que algunos programadores que beben Red Bull decidan encender uno.

Young handsome student of mechatronics working on project

Los mitos de la controversia.

Otro concepto erróneo común es que las únicas personas que albergan preocupaciones sobre la inteligencia artificial y que abogan por la investigación de la seguridad en la inteligencia artificial son luditas que no saben mucho sobre la inteligencia artificial. Cuando Stuart Russell, autor del libro de texto estándar sobre la inteligencia artificial, mencionó esto durante su charla en Puerto Rico, la audiencia se rio a carcajadas. Otro concepto erróneo relacionado es que el apoyo a la investigación sobre seguridad de la inteligencia artificial es enormemente controvertido. De hecho, para apoyar una modesta inversión en la investigación de seguridad de la inteligencia artificial, la gente no necesita estar convencida de que los riesgos son altos, simplemente no son insignificantes, al igual que una modesta inversión en un seguro de hogar se justifica por una probabilidad no insignificante de que la casa se queme.

Es posible que los medios de comunicación hayan hecho que el debate sobre la seguridad de la inteligencia artificial parezca más controvertido de lo que realmente es. Después de todo, el miedo vende, y los artículos que utilizan citas fuera de contexto para proclamar la inminencia de la catástrofe pueden generar más clics que los matizados y equilibrados. Como resultado, dos personas que sólo conocen las posiciones del otro a través de las citas de los medios de comunicación es probable que piensen que están más en desacuerdo de lo que realmente están. Por ejemplo, un tecnoescéptico que sólo haya leído sobre la posición de Bill Gates en un tabloide británico puede pensar erróneamente que Gates cree que la superinteligencia es inminente. De manera similar, alguien en el movimiento benéfico de la inteligencia artificial que no sabe nada sobre la opinión de Andrew Ng, exceptuando su cita sobre la superpoblación en Marte, puede pensar erróneamente que no le importa la seguridad de la inteligencia artificial, cuando en realidad sí le importa. El quid de la cuestión es simplemente que, debido a que las estimaciones de la línea de tiempo de Ng son más largas, naturalmente tiende a priorizar los desafíos de la inteligencia artificial a corto plazo sobre los de largo plazo.

Mitos sobre los riesgos de la inteligencia artificial sobrehumana.

Muchos investigadores de la inteligencia artificial ponen los ojos en blanco al ver este titular: "Stephen Hawking advierte que el ascenso de los robots puede ser desastroso para la humanidad". Y otros tantos han perdido la cuenta de cuántos artículos similares han visto. Normalmente, estos artículos van acompañados de un robot de aspecto malvado que lleva un arma, y sugieren que debemos preocuparnos por los robots que se levantan y nos matan porque se han vuelto conscientes y/o malvados. En un tono más ligero, estos artículos son en realidad bastante impresionantes, porque resumen brevemente el escenario del que los investigadores de la inteligencia artificial no se preocupan. Ese escenario combina hasta tres conceptos erróneos distintos: preocupación por la consciencia, el mal y los robots.

Si conduces por la carretera, tienes una experiencia subjetiva de colores, sonidos, etc. Pero ¿un coche que se conduce tiene una experiencia subjetiva? ¿Siente como si fuera un coche que se conduce a sí mismo? Aunque este misterio de la consciencia es interesante por sí mismo, es irrelevante para el riesgo de la inteligencia artificial. Si te atropella un coche sin conductor, no te importa si se siente subjetivamente consciente. De la misma manera, lo que nos afectará a los humanos es lo que hace la inteligencia artificial superinteligente, no cómo se siente subjetivamente.

El miedo a que las máquinas se vuelvan malvadas es otra pista falsa. La verdadera preocupación no es la malevolencia, sino la competencia. Una inteligencia artificial superinteligente es, por definición, muy buena cumpliendo sus objetivos, sean los que sean, por lo que tenemos que asegurarnos de que sus objetivos están alineados con los nuestros.

El concepto erróneo de la consciencia está relacionado con el mito de que las máquinas no pueden tener metas. Las máquinas pueden obviamente tener metas en el sentido de exhibir un comportamiento orientado a la meta: el comportamiento de un misil que busca calor se explica más fácilmente como una meta para alcanzar un objetivo. Si te sientes amenazado por una máquina cuyos objetivos están desalineados con los tuyos, entonces son precisamente sus objetivos en este sentido los que te preocupan, no si la máquina es consciente y experimenta un sentido de propósito. Si ese misil termodirigido te persiguiera, probablemente no gritarías: "¡No estoy preocupado, porque las máquinas no pueden tener metas!"

Simpatizo con Rodney Brooks y otros pioneros de la robótica que se sienten injustamente demonizados por los alarmismos de los tabloides, porque algunos periodistas parecen obsesionados con los robots y adornan muchos de sus artículos con monstruos metálicos de aspecto malvado con ojos rojos y brillantes. De hecho, la principal preocupación del movimiento beneficioso de la inteligencia artificial no es con los robots sino con la inteligencia en sí misma: específicamente, la inteligencia cuyos objetivos no están alineados con los nuestros. Para causarnos problemas, esta inteligencia sobrehumana desalineada no necesita un cuerpo robótico, sólo una conexión a Internet, esto puede permitir burlar a los mercados financieros, inventar más investigadores humanos, manipular más líderes humanos y desarrollar armas que ni siquiera podemos entender. Incluso si la construcción de robots fuera físicamente imposible, una inteligencia artificial superinteligente y superrica podría pagar o manipular fácilmente a muchos humanos para que, sin darse cuenta, cumplieran sus órdenes.

El concepto erróneo de los robots está relacionado con el mito de que las máquinas no pueden controlar a los humanos. La inteligencia permite el control. Esto significa que, si cedemos nuestra posición como más inteligentes en nuestro planeta, es posible que también cedamos el control.

Las controversias interesantes.

No perder el tiempo en los conceptos erróneos mencionados anteriormente nos permite centrarnos en verdaderas e interesantes controversias en las que incluso los expertos no están de acuerdo. ¿Qué tipo de futuro quieres? ¿Deberíamos desarrollar armas autónomas letales? ¿Qué te gustaría que ocurriera con la automatización del trabajo? ¿Qué consejo profesional le darías a los niños de hoy en día? ¿Prefieres que los nuevos trabajos sustituyan a los antiguos, o una sociedad sin empleo en la que todo el mundo disfrute de una vida de ocio y de riqueza producida por las máquinas? Más adelante, ¿te gustaría que creáramos una vida superinteligente y la difundiéramos por nuestro cosmos? ¿Controlaremos las máquinas inteligentes o ellas nos controlarán a nosotros? ¿Las máquinas inteligentes nos sustituirán, coexistirán con nosotros o se fusionarán con nosotros? ¿Qué significará ser humano en la era de la inteligencia artificial? ¿Qué te gustaría que significara, y cómo podemos hacer que el futuro sea así? Por favor, ¡únete a la conversación!

Si necesitas ayuda en tu proyecto de inteligencia artificial, no dudes en contactar con nosotros.

 

Fuente: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/?cn-reloaded=1

22 de Enero del 2024

Estrategia de crecimiento para apps que sí funciona  

15 de Enero del 2024

¿Cómo sé si mi empresa necesita una app?