Elon Musk y Peter Thiel, entre otros, han financiado una organización para poner ética a los nuevos avances en inteligencia artificial
Mil millones de dólares (unos 915 millones de euros) es mucho dinero a invertir – incluso si el objetivo es salvar al mundo de los efectos negativos de la superinteligencia artificial que escapa al control humano.
Esa es la cantidad de dinero que varios emprendedores de renombre, incluidos Elon Musk, Peter Thiel y Sam Altman de Y Combinator se han comprometido a invertir en OpenAI, una nueva organización sin ánimo de lucro destinada al desarrollo de una inteligencia artificial que "beneficie a la humanidad".
La idea es la siguiente: sin rendir cuentas a la academia ni la industria, OpenAI será más capaz de considerar las implicaciones éticas de la tecnología que cree. OpenAI no representa la primera organización sin ánimo de lucro dedicada a avanzar la inteligencia artificial, y Google, Facebook y otros han tomado medidas para hacer públicamente disponible las tecnologías de IA que desarrollan (ver Facebook también empieza a regalar su tecnología de inteligencia artificial). Sin embargo, OpenAI ha atraído muchas atenciones ya, tanto por los grandes nombres involucrados como por sus nobles y futuristas objetivos.
Podría parecer un emprendimiento sensato que valga la pena. Después de todo, muchos expertos en IA creen que merece la pena considerar las implicaciones de una tecnología que cada vez se vuelve más potente y disruptiva.
Sin embargo, quedan algunas cuestiones importantes por abordar. No está claro cómo se gastarán los mil millones de dólares invertidos en OpenAI, ni en qué plazo de tiempo. Ni resulta evidente cómo se emparejarán los objetivos éticos de la organización con el trabajo básico de construir algoritmos de IA. Quizás lo más confuso de todo es que resulta difícil imaginar cómo los objetivos éticos que se incluirían en las futuras programaciones de IA podrían ser consensuados y acordados.
"Estaría de acuerdo en que la IA es una herramienta muy potente, y algunos diseños y usos pueden ser mejores o peores que otros", dice Patrick Lin, un filósofo de la Universidad Estatal Politécnica de California (EEUU) que estudia la ética de la automatización y la inteligencia artificial. Pero, añade: "OpenAI dice que su objetivo es 'un buen resultado para todos' y 'beneficiar a la humanidad en su totalidad', pero, ¿a quién le corresponde definir lo que constituye un buen resultado?"
Lin hace constar que algunos de apoyos de OpenAI son conocidos por sus posturas libertarias, lo cual puede que no case con el público en general. Y señala la decisión de Tesla de realizar pruebas beta de su tecnología de conducción autónoma en calles públicas como éticamente cuestionable. Lin también afirma que eliminar las incentivas financieras no necesariamente erradicará el potencial de que las cosas salgan mal.
Otros, sobre todo los que ya se preocupan por las implicaciones longevas de la tecnología que desarrollan, son más positivos. "La iniciativa me inspira mucho entusiasmo", dice Eric Horvitz, un investigador técnico y el director general de Microsoft Research en Redmond, Washington (EEUU), que hace mucho que se interesa por discutir las implicaciones longevas de la IA. "Espero que Microsoft Research y Microsoft en términos más generales puedan asistir a Elon y a Sam y a otros – y que colaboren con la gente de OpenAI".
En 2009, como el presidente de la Asociación por el Avance de la Inteligencia Artificial, Horvitz organizó una conferencia para explorar el impacto a largo plazo de la IA. Y el año pasado fundó un esfuerzo académico para investigar el tema: el Estudio de Cien Años de Inteligencia Artificial de la Universidad de Stanford (EEUU). "No sólo se trata de alinear las preferencias y asegurar que los sistemas hagan cosas adecuadas", explica Horvitz, "sino también de su capacidad de entender cuándo deben acudir a las personas para pedir ayuda cuando estén confusos".
Oren Etzioni, el director ejecutivo del Instituto Allen para la Inteligencia Artificial, otra organización sin ánimo de lucro, se siente similarmente positivo acerca del anuncio. "Creo que todos creen que esto será algo bueno", dice. "Las personas involucradas tienen un talento excepcional".
El anuncio de OpenAI desde luego se ha producido en un momento destacable del renacimiento de la IA. Se han producido unos progresos rápidos y a veces chocantes - especialmente el uso de una técnica basada en las redes neuronales del cerebro humano llamada aprendizaje profundo (ver Aprendizaje profundo) – en la programación de algoritmos que habilitan las máquinas para ejecutar tareas que anteriormente se escapaban a sus capacidades, incluidos el reconocimiento del contenido de las fotos, entender el lenguaje hablado y analizar textos básicos.
La creación de OpenAI también ha sido precedida por una serie de advertencias, emitidas por Musk y otros, sobre las potenciales implicaciones longevas de la inteligencia artificial, alimentadas en parte por la especulación acerca de la dificultad de controlar una IA capaz de una inteligencia y una ingenuidad superhumanas. En gran parte, todo esto parece haber sido inspirado por un libro llamado Superintelligence: Paths, Dangers, Strategies, escrito por Nick Bostrom, un filósofo y el director del Instituto del Futuro de la Humanidad de la Universidad de Oxford (Reino Unido). El libro de Bostrom contiene muchos experimentos de pensamiento perturbadores sobre el futuro de la IA.
Algunos advierten de que estos temores a largo plazo no deberían pesar más que otras preocupaciones más urgentes, como el impacto de la IA en el empleo o las consideraciones legales.
"Desde luego, yo pensaría en las consecuencias sociales y económicas de la IA ahora", asegura Etzioni. "Estas otras cuestiones más exageradas de si la IA representa una amenaza existencial – me preocupa que se puedan convertir en una distracción indeseable".
La nueva organización sin ánimo de lucro desde luego no carecerá de experiencia técnica. Será liderada por el director de investigaciones Ilya Sutskever, que fue alumno del pionero del aprendizaje profundo Geoffrey Hinton y trabajó más recientemente para Google, después de que adquiriese la empresa que Sutskever cofundó con Hinton (ver Ilya Sutskever, 29. Visionario).
El proyecto OpenAI aún no ha informado de cómo sus objetivos morales cambiarán las técnicas de aprendizaje de máquinas que Sutskever y otros están desarrollando. Algunos expertos técnicos dicen que no representa un reto insuperable. "Realmente no creo que sea tan difícil codificar unas consideraciones éticas dentro de los algoritmos de aprendizaje de máquinas como parte de la función ejecutiva que optimizan", afirma Pedro Domingos, un profesor de la Universidad de Washington (EEUU) y el autor del libro de reciente publicación The Master Algorithm. Sin embargo, hace constar: "La gran incógnita es si nosotros, los humanos, somos capaces de formalizar nuestras creencias éticas de una manera mediamente coherente y completa. Otra opción es que el equipo de IA aprenda ética al observar nuestros comportamientos, pero me da la sensación de que podrían acabar bastantes confusos si lo hicieran".
Sea cual sea la manera que elija OpenAI para programar la moralidad en sus algoritmos, Lin argumenta que el tema debería abrirse a un debate más amplio. "La sociedad debería tener algo que decir acerca de lo que representaría un buen resultado, especialmente para una tecnología tan rompedora como la IA", dice. "Sin unas aportaciones más amplias, tendrán pocas probabilidades de acertar".