La nueva versión del chatbot de GPT-3 admite sus errores y es más transparente que la original, pero aún dista de ser perfecta
OpenAI ha cambiado el tipo de entrenamiento para lograr un modelo que responde mucho mejor a las peticiones. No obstante, al haber mejorado su capacidad de seguir instrucciones, InstructGPT también aprende mentiras y produce lenguaje mucho más tóxico que GPT-3 si se le ordena que lo haga
La tendencia empezó en 2020 con el modelo de lenguaje GPT-3, con 175.000 millones de parámetros, una cifra que no ha dejado de crecer gracias a los rivales del sector. Pero nadie sabe por qué el tamaño importa tanto y el enfoque no resuelve el problema de los sesgos de los datos de entrenamiento ni supone innovaciones disruptivas
Creado por el ingeniero de software Eric Wastl en 2015 como pasatiempo para sus amigos, el desafío ya cuenta con casi 200.000 participantes de todo el mundo que luchan por resolver sus puzles informáticos en segundos. Buscan mejorar sus habilidades, aprender nuevos lenguajes o simplemente disfrutar de la historia y las soluciones de los demás
La irrupción de la inteligencia artificial en la computación está alterando cómo se fabrican, se programan y usan los ordenadores, hasta que finalmente modifiquen para qué sirven. Su misión evolucionará desde la ejecución de cálculos hacia la toma de decisiones, hasta que ellos mismos sepan cuándo necesitamos ayuda
Los científicos trabajan para medir dónde falla cada sistema, ante las trabas para entender el lenguaje natural. Los contradiscursos y el uso de insultos por parte de colectivos para empoderarse son algunas de las razones
A medida que las grandes empresas crean sistemas plagados de sesgos y con potencial de causar daño, una coalición internacional de científicos colabora para crear un gran modelo abierto y multilingüe de investigación que ayude a encontrar los mejores enfoques de diseño y uso para esta tecnología
Una investigación demuestra que la mayoría de modelos de procesamiento del lenguaje natural son incapaces de identificar que las palabras de una frase están desordenadas. Aunque es un problema muy extendido en inteligencia artificial, podría solucionarse con nuevos procesos de entrenamiento
'MIT Technology Review' ha accedido a la investigación coautorizada por Timnit Gebru donde se analizaban los costes medioambientales y las limitaciones de los grandes modelos de lenguaje, esenciales para el negocio del gigante. Pese a contar con 128 referencias, fue criticada por ignorar "investigaciones relevantes"
Aunque OpenAI se fundó sin ánimo de lucro y bajo la premisa de desarrollar IA enfocada al bien de la humanidad, ha concedido acceso exclusivo a su herramienta de generación de lenguaje. La medida no hace más que concentrar el poder de la inteligencia artificial en manos de los gigantes tecnológicos