La tendencia empezó en 2020 con el modelo de lenguaje GPT-3, con 175.000 millones de parámetros, una cifra que no ha dejado de crecer gracias a los rivales del sector. Pero nadie sabe por qué el tamaño importa tanto y el enfoque no resuelve el problema de los sesgos de los datos de entrenamiento ni supone innovaciones disruptivas
Dos técnicas diferentes permiten acceder a los datos originales, como las caras, que se usan para entrenar redes generativas antagónicas capaces de crear imágenes ultrarrealistas, pero falsas, conocidas como 'deepfakes'. Ambas investigaciones son una alerta más de los riesgos de privacidad de este tipo de inteligencia artificial
Encontrar errores en el código resulta una labor cada vez más complicada para los humanos, por lo que algunos expertos pretenden que las máquinas se programen solas. Un nuevo sistema utiliza aprendizaje automático para ofrecer formas de escribir código más eficientes y proporcionando correcciones
Los sistemas de reconocimiento y reconstrucción de imágenes continúan siendo vulnerables a ataques destinados a confundirlos. Un nuevo método ayuda a que el aprendizaje profundo falle menos enfrentando dos redes neuronales: una burla a otra, que mejora a su vez para evitar el engaño
Hasta ahora, las redes neuronales solo habían sido capaces de aprender a sumar y multiplicar. Pero la nueva inteligencia artificial de la red social ha sido entrenada para calcular integrales y resolver ecuaciones diferenciales en segundos. Se trata de un avance impresionante
Resolver el problema de los tres cuerpos, en el que se pretende averiguar las posiciones de tres objetos como el Sol, la Tierra y la Luna, es un complejo desafío. Ahora, una red neuronal lo hace 100 millones de veces más rápido que el modelo tradicional y con menos recursos computacionales
Su estructura basada en nanocables superconductores replica varias de las características clave de este órgano. Si los resultados de sus simulaciones funcionan en el mundo real, podrían convertirse en la base de una nueva generación de hardware informático
Llevamos años usando modelos enormes con grandes partes que no sirven para nada, lo que dificulta el entrenamiento y aumenta su tiempo y coste. Una investigación revela que es posible reducir su tamaño sin sacrificar su rendimiento para ampliar los usos de la IA a dispositivos como los móviles
Si las redes neuronales están inspiradas en nuestro cerebro, cabe esperar que se comporten de la misma forma. Y eso es precisamente lo que ha sucedido en este experimento basado en las leyes de Gestalt sobre la percepción de un todo a partir de sus partes
Las redes neuronales tradicionales tienen dificultades para modelar procesos continuos. Un equipo de investigadores ha desarrollado una técnica diferente que reemplaza las capas discretas por ecuaciones diferenciales. Las aplicaciones de inteligencia artificial en el ámbito médico podrían beneficiarse del nuevo diseño