Dos técnicas diferentes permiten acceder a los datos originales, como las caras, que se usan para entrenar redes generativas antagónicas capaces de crear imágenes ultrarrealistas, pero falsas, conocidas como 'deepfakes'. Ambas investigaciones son una alerta más de los riesgos de privacidad de este tipo de inteligencia artificial
DeepMind ha anunciado una herramienta de aprendizaje profundo capaz de notificar la probabilidad de precipitaciones en los siguientes 90 minutos. A las actividades al aire libre o los aeropuertos les interesan este tipo de tecnologías ante uno de los grandes retos meteorológicos
Investigadores de McAfee han logrado engañar a un sistema de reconocimiento facial para que identifique a la persona de una fotografía como si fuera otra. Su trabajo intenta demostrar lo vulnerables que son estos sistemas, cada vez más utilizados en procesos como la vigilancia y la contratación
Los sistemas de reconocimiento y reconstrucción de imágenes continúan siendo vulnerables a ataques destinados a confundirlos. Un nuevo método ayuda a que el aprendizaje profundo falle menos enfrentando dos redes neuronales: una burla a otra, que mejora a su vez para evitar el engaño
OpenAI ha modificado su algoritmo GPT-2, especializado en texto, para que genere imágenes a partir de ejemplos. Sus creaciones no solo resultan convincentes sino que abren la puerta a un nuevo enfoque que facilita aún más la creación de 'deepfakes'
Un trozo de cinta adhesiva bastó para que las cámaras de varios modelos Tesla creyeran que una señal de velocidad marcaba un límite mayor del real. El hackeo es una prueba más de que los sistemas de aprendizaje automático pueden ser fácilmente saboteados en situaciones de peligro mortal
La tecnología para crear ultrafalsificaciones amenaza con destruir la información y la realidad tal y como las conocemos. Pero también puede generar avances muy positivos. Esta guía aspira a fomentar su avance de forma segura, pero requiere que gobiernos, empresas e investigadores la apoyen
La red social creará sus propias ultrafalsificaciones y las usará para desarrollar sistemas capaces de detectarlas automáticamente. Cada vez más empresas, políticos y expertos alertan del enorme problema que supondrán cuando se masifiquen, ya que incluso podrían usarse para el acoso escolar
Si su iPhone es capaz de convertirle en un unicornio es gracias al trabajo de Hao Li. Después de perfeccionar su trabajo para aplicarlo el cine y la medicina, se ha centrado en encontrar formas de detectar estas falsificaciones cada vez más realistas, fáciles de crear y difíciles de identificar
La polémica saltó en cuanto se descubrió la existencia de DeepNude y la aplicación fue cerrada casi de inmediato. Lamentablemente, dado que la inteligencia artificial genera falsificaciones cada vez más realistas con mayor facilidad, seguro que este no es el último caso de abusos a minorías que vemos