.

Julia Dufossé

Inteligencia Artificial

TR10: IA diminuta

1

Ya es posible ejecutar potentes algoritmos de IA en un simple 'smartphone'

  • por Karen Hao | traducido por Ana Milutinovic
  • 26 Febrero, 2020

  • ¿Qué? Ya es posible ejecutar potentes algoritmos de inteligencia artificial en un simple smartphone

  • ¿Por qué? Nuestros dispositivos ya no necesitan comunicarse con la nube para que nos beneficiemos de las últimas funciones basadas en la inteligencia artificial

  • ¿Quién? Google, IBM, Apple, Amazon

  • ¿Cuándo? Ya

La inteligencia artificial (IA) tiene un problema: con la intención de crear algoritmos más potentes, los investigadores utilizan una cantidad cada vez mayor de datos y potencia informática, y dependen de servicios centralizados en la nube. Esta situación no solo genera emisiones de carbono a niveles alarmantes, también limita la velocidad y la privacidad de las aplicaciones de IA.

La IA diminuta es la tendencia precisamente contraria y está cambiando la situación. Los gigantes tecnológicos y los investigadores académicos están desarrollando nuevos algoritmos para reducir los actuales modelos de aprendizaje profundo sin que pierdan eficiencia. Además, una generación emergente de chips diseñados específicamente para la IA promete aumentar la potencia computacional en espacios físicos más reducidos, y la posibilidad de entrenar y ejecutar IA con mucha menos energía.

Estos avances ya empiezan a estar disponibles para los consumidores. En mayo pasado, Google anunció que Google Assistant ya funcionaba en los teléfonos de sus usuarios sin tener que enviar solicitudes a un servidor remoto. A partir de iOS 13, Apple ejecuta localmente el reconocimiento de voz de Siri y su teclado QuickType en iPhone. IBM y Amazon también ofrecen plataformas de desarrolladores para crear e implementar IA de pequeño tamaño.

Todo esto podría traer muchos beneficios. Algunos servicios como los asistentes de voz, la autocorrección y las cámaras digitales mejorarán y serán más rápidos sin tener que acudir a la nube cada vez que necesiten acceder a un modelo de aprendizaje profundo. La IA diminuta también facilitará la creación y popularización de nuevas aplicaciones, como análisis de imágenes médicas en dispositivos móviles o tiempos de reacción más rápidos en coches autónomos. Finalmente, la IA centralizada resulta mejor para la privacidad, porque los datos ya no tienen que salir del dispositivo para mejorar un servicio o una función.

Pero a medida que los beneficios de la IA aumentan, también lo hacen sus desafíos. Por ejemplo, combatir los sistemas de vigilancia o vídeos falsos podría resultar cada vez más complicado, y los algoritmos discriminatorios también podrían proliferar aún más. Los investigadores, ingenieros y responsables políticos deben empezar a colaborar para desarrollar los controles técnicos y normativos para estos posibles efectos nocivos.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  2. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  3. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos