.

Cortesía de Penguin Random House

Inteligencia Artificial

"Confiamos mucho en softwares de IA que no merecen esa confianza"

1

En su nuevo libro, el neurocientífico especializado en inteligencia artificial Gary Marcus afirma que hacen falta nuevos enfoques y combinaciones de técnicas para que la tecnología se vuelva realmente útil y segura, y advierte que los sistemas actuales pueden tener consecuencias muy peligrosas

  • por Karen Hao | traducido por Ana Milutinovic
  • 04 Octubre, 2019

Al profesor de la Universidad de Nueva York (EE. UU.) Gary Marcus no le impresiona el bombo que hay en torno al aprendizaje profundo. Aunque cree que ha tenido un papel importante en el avance de la inteligencia artificial (IA), también considera que hacer un énfasis excesivo  sobre el campo podría hacer que desaparezca.

Este neurocientífico de formación ha pasado su carrera liderando la investigación en IA y es capaz de señalar las preocupaciones técnicas y éticas de la tecnología. Desde el punto de vista técnico, al aprendizaje profundo se le da muy bien imitar las tareas perceptivas del cerebro humano, como el reconocimiento de voz e imagen. Pero se queda corto en otras tareas, como la comprensión de las conversaciones y de las relaciones causales. Para crear máquinas más capaces y más inteligentes, algo que a menudo se denomina como inteligencia artificial general, el aprendizaje profundo  debe combinarse con otros métodos.

Si una inteligencia artificial no comprende la esencia de sus tareas o el mundo que lo rodea, las consecuencias podrían ser peligrosas. Cualquier mínimo cambio inesperado en el entorno de un sistema podría hacerle fallar. Ya tenemos innumerables ejemplos de esta situación: detectores de discurso de odio fáciles de engañar, sistemas para solicitar empleo que perpetúan la discriminación, y coches autónomos que se han estrellado, a veces matando al conductor o algún peatón. Buscar la inteligencia artificial general es más que un interesante problema de investigación. Tiene implicaciones muy importantes en el mundo real.

Gary Marcus

Foto: Gary Marcus

En su nuevo libro Rebooting AI, Marcus y su colega Ernest Davis abogan por un nuevo camino a seguir. Creen que todavía estamos muy lejos de conseguir esta inteligencia artificial general, pero también confían en que, con el tiempo, lo lograremos. Para profundizar en el asunto, hablé con Marcus sobre las debilidades del aprendizaje profundo, sobre lo que el campo puede aprender de la mente humana y sobre las razones de su optimismo.

Dado que la IA actual ya ha sido capaz de aportar mucho valor a nuestra sociedad, ¿para qué queremos una inteligencia artificial general?

Es cierto, y generará aún más. Pero hay muchos problemas que la IA actual no parece capaz de resolver, como la comprensión del lenguaje natural y la asistencia general en entornos virtuales. Todo eso está fuera del alcance de la inteligencia artificial actual. Hasta ahora, la realidad es que la IA tiene muchos problemas con los casos atípicos, incluso en la conducción, lo que representa un problema que limita mucho.

En términos generales, creo que a todos nos gustaría que la IA sea capaz de ayudarnos a hacer nuevos descubrimientos médicos. No está claro si las técnicas actuales nos ayudarán a conseguirlo, porque la biología es complicada. Realmente necesitamos poder leer la bibliografía. Los científicos tienen una comprensión causal sobre cómo interactúan las redes y las moléculas; son capaces de desarrollar teorías sobre órbitas y planetas o sobre lo que sea. Con la inteligencia artificial específica no podemos hacer que las máquinas adquieran ese nivel de innovación. Con la IA general, podríamos revolucionar la ciencia, la tecnología y la medicina. Así que creo que abordar el objetivo de lograr la IA general es un proyecto muy valioso.

¿Parece que usa el término IA general para referirse a una IA fuerte?

La IA general debería ser capaz de pensar sobre la marcha y de resolver nuevos problemas por sí sola. Esto es justo lo contrario de lo que se hace, por ejemplo, en el juego Go, donde el problema no ha cambiado en 2.000 años.

La IA general también debería ser capaz de razonar de la misma manera política y medicina. Sería algo parecido a lo que hace la gente: cualquier persona medianamente inteligente puede hacer muchas cosas diferentes. Con unos días de práctica, un estudiante universitario debería ser capaz de trabajar en prácticamente en cualquier cosa, desde un problema legal hasta otro médico, porque ya tiene una comprensión general del mundo y sabe leer, por lo que es capaz de contribuir a una amplia gama de cuestiones.

La relación entre eso y la inteligencia es que, si esta no es fuerte, probablemente no pueda abordar cuestiones generales. Así que para construir algo lo suficientemente confiable como para lidiar con un mundo en constante cambio, probablemente haga falta acercarse a la inteligencia general.

Pero ya sabemos que estamos bastante lejos de eso. AlphaGo sabe jugar muy bien en un tablero de 19x19, pero se debe volver a entrenar para poder jugar en un tablero rectangular. O un sistema de aprendizaje profundo es capaz de reconocer a un elefante siempre y cuando el elefante esté bien iluminado para que sea posible ver su textura. Pero si el elefante está de perfil, es probable que el sistema sea incapaz de reconocerlo.

Como menciona en su libro, el aprendizaje profundo en realidad no puede alcanzar el nivel de una IA general porque le falta comprensión profunda.

En ciencia cognitiva hablamos de los modelos cognitivos de las cosas. Si estoy en una habitación de hotel, entiendo que el armario, la cama y el televisor están colocados de manera inusual. Sé que todas estas cosas están aquí, y no solo las identifico. También entiendo cómo se relacionan entre sí porque sé cómo funciona el mundo exterior. Mis inferencias no son perfectas ni infalibles, pero sí bastante buenas. Y en mi día a día hago muchas inferencias.

El extremo opuesto sería el sistema de juego Atari creado por DeepMind, que memorizó lo que tenía que hacer al observar píxeles en lugares específicos de la pantalla. Con suficientes datos, podría parecer que el sistema entiende qué está haciendo, pero en realidad su comprensión es muy superficial. Para comprobarlo solo hace falta cambiar tres píxeles, ya que el sistema entonces juega mucho peor. Cualquier cambio le hace fallar. Eso es justo lo contrario de que se logra con una comprensión profunda.

Sugiere que habría que volver a la IA clásica para resolver este desafío. ¿Cuáles son los puntos fuertes de la IA clásica que deberíamos tratar de incorporar?

Hay un par de ellos. Primero, la IA clásica en realidad es un marco para construir los modelos cognitivos del mundo sobre los que luego podemos hacer inferencias. Su segunda ventaja es que la IA clásica funciona perfectamente de acuerdo a las reglas. La sociología actual en torno al aprendizaje profundo en la que la gente quiere evitar las reglas me extraña bastante. Quieren hacerlo todo con redes neuronales y dejar de lado cualquier cosa que se parezca a la programación clásica. Pero hay problemas que se resuelven rutinariamente de esta manera a los que nadie les presta atención, como la creación de rutas en Google Maps.

Necesitamos ambas técnicas. El aprendizaje automático es bastante bueno para aprender de los datos, pero representar el tipo de abstracción que logran los programas informáticos se le da muy mal. La IA clásica es bastante buena en la abstracción, pero todo tiene que codificarse a mano, y hay demasiado conocimiento en el mundo como para introducirlo manualmente. Por lo tanto, parece evidente que lo que queremos es algún tipo de sistema que combine ambos enfoques.

Esto tiene que ver con el capítulo en el que mencionan varias cosas que podemos aprender de la mente humana. La primera se basa en lo que ya hemos hablado: la idea de que nuestras mentes están formadas por muchos sistemas dispares que funcionan de diferentes maneras.

Creo que hay otra forma de decirlo: cada sistema cognitivo que tenemos sirve para algo diferente. Del mismo modo, la IA se debe diseñar para abordar diferentes problemas con distintas características.

Actualmente, la gente intenta utilizar tecnologías que sirven para todo para abordar cosas que son en realidad fundamentalmente diferentes. Comprender una frase es una tarea completamente diferente a la de reconocer un objeto. Pero la gente trata de usar el aprendizaje profundo para hacer ambas cosas. Desde una perspectiva cognitiva, estos problemas son cualitativamente diferentes y me asombra la poca conciencia que la comunidad del aprendizaje profundo en general tiene sobre esto. ¿Quién esperaría que una bala de plata funcione para todo? No es realista, y no refleja la sofisticada comprensión de los desafíos reales de la IA.

En su libro, también menciona la necesidad de que los sistemas de inteligencia artificial entiendan las relaciones causales. ¿Cree que eso vendrá del aprendizaje profundo, de la IA clásica o de algo completamente nuevo?

De nuevo, no es algo en lo que el aprendizaje profundo resulte particularmente adecuado porque no puede explicar por qué suceden las cosas, solo revela la probabilidad de lo que podría ocurrir en unas circunstancias determinadas.

Cuando nacemos nuestro cerebro ya está muy elaborado. No es definitivo, pero la naturaleza crea el primer borrador, el boceto. Luego, el aprendizaje lo va modificando durante el resto de la vida.

Me refiero a lo siguiente: observamos algunos escenarios y entendemos por qué ocurren y qué podría suceder si se cambiaran ciertas cosas. Puedo mirar el mueble en el que está la televisión del hotel y suponer que, si le corto una de las patas, el mueble se volcará y la televisión se caerá con él. Eso es un razonamiento causal.

La IA clásica nos proporciona algunas herramientas para esto. Podría representar, por ejemplo, la relación entre el punto de apoyo y lo que se va a caer. Pero, no quiero exagerar. Uno de los problemas consiste en que la IA clásica depende de una información muy completa sobre lo que sucede, mientras que yo puedo hacer esa inferencia sin tener que ver todo el mueble. De alguna manera, soy capaz de crear atajos y hacer deducciones sobre algo que ni siquiera veo. La verdad es que no tenemos herramientas capaces de hacer eso todavía.

Otra cosa que menciona en su libro es la idea de que los humanos tienen un conocimiento innato. ¿Cómo se traslada eso a los sistemas de IA?

Cuando nacemos nuestro cerebro ya está muy elaborado. No es definitivo, pero la naturaleza crea el primer borrador, el boceto. Luego, el aprendizaje lo va modificando durante el resto de la vida.

Ese borrador del cerebro viene con tiene ciertas capacidades. Una cabra montesa de unas pocas horas de edad puede trepar una montaña sin caerse. Claramente tiene cierta comprensión del espacio tridimensional, de su propio cuerpo y de la interrelación entre ambos. Es algo bastante sofisticado.

Esta es una de las razones por las que creo que necesitamos sistemas híbridos. No creo que podamos construir un robot que funcione bien si no viene con un conocimiento parecido de base, en vez de comenzar con una pizarra en blanco y aprender a través de una enorme experiencia.

En los humanos, nuestro conocimiento innato proviene de nuestros genomas que han evolucionado con el tiempo. Para los sistemas de IA, tienen que generarse de otra manera. Una parte puede provenir de las reglas sobre cómo construimos nuestros algoritmos. Otra parte puede provenir de las reglas sobre cómo construimos las estructuras de datos que manipulan esos algoritmos. Y luego, otra parte podría proceder del conocimiento que enseñamos directamente a las máquinas.

Resulta interesante que su libro lo relacione todo con la idea de la confianza y la construcción de sistemas confiables. ¿Por qué ha elegido ese marco en concreto?

Porque creo que es lo más importante en este momento. Creo que estamos viviendo un momento extraño en la historia en el que confiamos mucho en un software que no se merece esa confianza. Creo que las preocupaciones actuales no serán permanentes. Dentro de 100 años, la IA garantizará nuestra confianza, o quizás antes.

Pero ahora mismo, la IA es peligrosa, pero no como cree Elon Musk. Es peligrosa en lo que respecta a los sistemas de entrevistas de trabajo que discriminan a las mujeres, independientemente de lo que hagan los programadores, porque las técnicas que utilizan son muy poco sofisticadas.

Quiero que tengamos una mejor IA. No quiero que la gente se dé cuenta de que no funciona y es peligrosa sin haber hecho nada al respecto.

En cierto modo, su libro parece muy optimista, porque sugiere que es posible crear una IA confiable. Pero que para lograrlo debemos mirar en una dirección diferente.

Correcto, el libro es muy pesimista a corto plazo y muy optimista a largo plazo. Creemos que todos los problemas que describimos en el libro se pueden resolver si el campo consigue tener una visión más amplia sobre cuáles son las respuestas correctas. Y pensamos que si eso ocurre, el mundo será un lugar mejor.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Estos robots aprendieron a superar obstáculos reales desde un entorno virtual gracias a la IA

    Un nuevo sistema podría ayudar a entrenar robots usando exclusivamente mundos generados mediante inteligencia artificial

  2. Por qué la IA podría comerle la tostada a la computación cuántica

    Los rápidos avances en la aplicación de la inteligencia artificial a las simulaciones físicas y químicas hacen que algunos se pregunten si de verdad necesitamos ordenadores cuánticos

  3. Esta IA ayuda a que los profesores enseñen mejor matemáticas a los niños

    La herramienta, llamada Tutor CoPilot, demuestra cómo la IA podría mejorar, en lugar de sustituir, el trabajo de los educadores