.

IYIKON/anbileru adaleru/yaroslav samoylov/SBTS/Hea Pon Lin (The Noun Project)

Inteligencia Artificial

Los siete principios de Google para evitar críticas a sus proyectos militares

1

Una docena de trabajadores ha renunciado y otros han firmado una carta quejándose de que el gigante está empleando sus tecnologías de inteligencia artificial en iniciativas de defensa. El CEO ha respondido a la situación con un nuevo código ético, pero este aún le deja margen para trabajar

  • por Will Knight | traducido por Mariana Díaz
  • 14 Junio, 2018

Google ha creado un código ético para la inteligencia artificial (IA) que prohíbe el desarrollo de armas autónomas. Pero los principios que recoge dejan suficiente margen de maniobra para que Google pueda seguir lucrándose con futuros proyectos de defensa.

El comunicado llega después de una protesta interna sobre el uso de la IA de Google por parte de una iniciativa del Departamento de Defensa de Estados Unidos llamada Algorithmic Warfare Cross-Functional Team (Equipo Interfuncional de Guerra Algorítmica). El objetivo de esta empresa, conocida como Project Maven (Proyecto Experto), consiste mejorar la precisión de los ataques con drones, entre otras cosas.

El mes pasado, una docena de trabajadores de Google renunció a causa del escándalo y muchos más firmaron una carta de protesta.

El alboroto es un reflejo de los temores que muchos tienen sobre cómo la tecnología podría llegar a automatizar la guerra. Pero la situación es aún más compleja.

La inteligencia artificial podría lograr que algunos sistemas de armas sean más seguros y menos propensos a errores. Y algunas aplicaciones sencillas de la tecnología ya se usan en  todo el sector defensa. Google no quiere desautorizar este enorme mercado potencial para su tecnología de inteligencia artificial en la nube.

El CEO de Google, Sundar Pichai, anunció el nuevo código en una publicación de blog en la que recomienda que Google aplique la IA bajo siete principios básicos:

  1. Beneficiar a la sociedad

  2. Evitar el sesgo algorítmico

  3. Respetar la privacidad

  4. Someterse a pruebas de seguridad

  5. Ser responsable ante el público

  6. Mantener el rigor científico

  7. Estar disponible para otros de acuerdo con los mismos principios

Pero Pichai también también aseguró que Google no permitiría que su tecnología de IA se use para desarrollar cualquier cosa que pueda causar daño, como en "armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar lesiones a las personas".

Pichai también dijo que Google evitaría desarrollar tecnología de vigilancia que viole las normas internacionalmente aceptadas en materia de derechos humanos o cualquier tecnología que contravenga las leyes internacionales.

La inteligencia artificial avanza deprisa, y Google ya se ha topado con otros problemas en sus distintos proyectos de IA. Uno de sus sistemas de visión artificial, por ejemplo, identificó erróneamente en varias ocasiones a las personas de ascendencia africana como gorilas. La compañía abandonó su lema "Do not be evil" (No sea malvado) este abril, pero conserva una cultura idealista.

Los usos militares de la inteligencia artificial podrían ser cada vez más polémicos a medida que la tecnología adopte nuevas formas y las empresas sigan intentando vender su tecnología de IA en la nube lo más ampliamente posible.

El aprendizaje automático y la inteligencia artificial tendrán cada vez más peso en los sectores de inteligencia y defensa. Otras compañías tecnológicas de Estados Unidos, incluidas Amazon y Microsoft, han competido para lograr un multimillonario proyecto de computación en la nube con el Pentágono.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Estos robots aprendieron a superar obstáculos reales desde un entorno virtual gracias a la IA

    Un nuevo sistema podría ayudar a entrenar robots usando exclusivamente mundos generados mediante inteligencia artificial

  2. Por qué la IA podría comerle la tostada a la computación cuántica

    Los rápidos avances en la aplicación de la inteligencia artificial a las simulaciones físicas y químicas hacen que algunos se pregunten si de verdad necesitamos ordenadores cuánticos

  3. Esta IA ayuda a que los profesores enseñen mejor matemáticas a los niños

    La herramienta, llamada Tutor CoPilot, demuestra cómo la IA podría mejorar, en lugar de sustituir, el trabajo de los educadores