.

Jake Belcher

Inteligencia Artificial

El peligro de confundir los avances reales de la IA con la publicidad

1

La inteligencia artificial tiene un enorme potencial para transformar nuestras vidas, pero el bombo que hay en torno a ella es muy preocupante, según el experto de la Carnegie Mellon Zachary Lipton, quien critica que los legisladores no leen revistas científicas pero sí los titulares virales

  • por Martin Giles | traducido por Ana Milutinovic
  • 20 Septiembre, 2018

Quienes ya cuenten con más de tres décadas de vida a sus espaldas probablemente estarán pensando que toda la publicidad y noticias que rodean a la inteligencia artificial (IA) se parecen cada vez más las que envolvían la burbuja de las puntocom.

Las grandes empresas están invirtiendo miles de millones de euros en y start-ups de IA. El problema es que hay muchos oportunistas dispuestos a hacer afirmaciones exageradas sobre las capacidades de esta tecnología que eclipsan su verdadero valor y potencial, según alerta el profesor de la Universidad Carnegie Mellon Zachary Lipton.

El profesor lanzó esta advertencia durante su charla en la reciente conferencia EmTech de MIT Technology Review. En su opinión, el bombo en torno a la inteligencia artificial está cegando a la gente. "Cada vez es más difícil distinguir qué es un avance real de lo que no lo es", afirmó.

La tecnología de inteligencia artificial conocida como aprendizaje profundo ha demostrado ser muy poderosa en tareas como el reconocimiento de imágenes y la traducción de voz. De hecho, ahora se está empezando a usar para todo, desde los coches autónomos hasta las aplicaciones de traducción en los teléfonos inteligentes (ver "La revolución del aprendizaje profundo en la inteligencia artificial ha sucedido demasiado rápido").

Pero esta tecnología aún tiene limitaciones importantes. Muchos modelos de aprendizaje profundo necesitan enormes cantidades de datos para funcionar, y a menudo tienen dificultades para adaptarse a las condiciones del mundo real que cambian rápidamente.

En su presentación, Lipton también criticó a quienes afirman que las capacidades de la inteligencia artificial son similares a las humanas. El riesgo es que la burbuja de la IA nos lleve a confiar en exceso en los algoritmos que rigen los vehículos autónomos y los diagnósticos médicos.

El profesor advirtió: "Los legisladores no leen la literatura científica, pero sí leen el clickbait de turno". Los medios de comunicación son cómplices de la burbuja de la IA porque no hacen un buen trabajo a la hora de distinguir entre los verdaderos avances en el campo y la publicidad pura y dura.

Lipton no es el único experto alarmado: en una reciente publicación de blog titulada Inteligencia artificial: la revolución no ha sucedido todavía, el profesor de la Universidad de California en Berkeley (EE. UU.), Michael Jordan, sostiene que la IA se usa con frecuencia como "un comodín intelectual", y por eso es más difícil pensar de forma crítica sobre su potencial impacto.

Finalmente, Lipton reconoció que tendrá que luchar mucho para lograr que esta burbuja explote, y concluyó: "Me siento como un grano de arena en el desierto".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  2. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos
  3. Al habla con la IA: el reto de lograr voces más diversas e inclusivas

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por inteligencias artificiales sean más inclusivas y reflejen una mayor variedad de dialectos para asegurar que las particularidades de cada lugar y cultura se preserven frente al avance tecnológico

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por IA sean más inclusivas y diversas