Dos técnicas diferentes permiten acceder a los datos originales, como las caras, que se usan para entrenar redes generativas antagónicas capaces de crear imágenes ultrarrealistas, pero falsas, conocidas como 'deepfakes'. Ambas investigaciones son una alerta más de los riesgos de privacidad de este tipo de inteligencia artificial
Todos sus detalles están pensados para ganarse nuestra confianza, desde su imagen de ojos grandes y tamaño pequeño hasta sus limitadas funciones. Pero, ¿qué pasará cuando los más pequeños lo confundan con un ser vivo o empiecen a recibir publicidad de su nuevo amigo?
En EE.UU., existen asociaciones con las fuerzas del orden para ofrecer a las víctimas cámaras inteligentes como Amazon Ring. A los especialistas e investigadores les preocupan posibles hackeos de los aparatos y sus redes, y recuerdan el historial de las empresas tecnológicas en la protección de la privacidad de sus usuarios
Las gafas inteligentes, que cuestan unos 250 euros, permiten grabar y compartir imágenes y vídeos cortos, escuchar música y realizar llamadas. Su lanzamiento representa el primer paso para crear el metaverso de Zuckerberg y su vigilancia silenciosa alterará nuestra relación con el espacio y la gente
A falta de regulación federal, un informe revela que las agencias nacionales del país lo utilizan cada vez más, en muchas ocasiones sin una supervisión adecuada, y la tendencia no para de aumentar. Además, muchas de ellas utilizan el controvertido sistema de Clearview AI
Ante las críticas y preocupaciones sobre los malos usos que se podrían dar a la herramienta, el gigante afirma que el software puede ser analizado libremente por los investigadores. Sin embargo, ha invertido mucho para evitar justo eso y ha demandado a una empresa que ofrece un servicio para hacerlo
Distintas investigaciones demuestran que, cuando un conjunto se publica, resulta imposible evitar que se expanda y se use por terceros, incluso aunque se borre poco después. La comunidad de la inteligencia artificial necesita solucionarlo para seguir avanzando sin amenazar la privacidad y la ética de la gente
NeuralHash escaneará imágenes encriptadas en iPhones en busca de material de abuso sexual infantil. Aunque de momento solo funciona en EE. UU. y el gobierno no tendrá acceso al sistema, muchos países podrían presionar a la empresa para acceder a este tipo de tecnología en busca de otros delitos
Las periodistas Sheera Frenkel y Cecilia Kang revelan los defectos fundamentales de la red social mediante un relato detallado de los años entre las dos últimas elecciones de EE. UU. Sus conclusiones son que la empresa siempre se protege a costa de los demás y que nunca podrá arreglarse a sí misma
Una filtración revela que su producto Pegasus parece haber sido utilizado para espiar decenas de miles de teléfonos de periodistas y activistas. Para defenderse, la compañía usa su argumento de siempre: que el uso que los clientes hagan de su producto no es responsabilidad suya