El fundador de Oculus ha pasado de vender gafas a consumidores a venderlas a militares.
Esta historia apareció originalmente en The Algorithm, nuestro boletín semanal sobre inteligencia artificial. Para recibir historias como esta en tu bandeja de entrada antes que nadie, regístrate aquí .
La guerra es un catalizador del cambio, me dijo un experto en inteligencia artificial y guerra en 2022. En ese momento, la guerra en Ucrania acababa de comenzar y el negocio de la inteligencia artificial militar estaba en auge . Dos años después, las cosas no han hecho más que empeorar a medida que las tensiones geopolíticas siguen aumentando.
Los actores de Silicon Valley están a punto de beneficiarse. Uno de ellos es Palmer Luckey, el fundador de la empresa de cascos de realidad virtual Oculus, que vendió a Facebook por 2.000 millones de dólares. Tras su salida pública de Meta, Luckey fundó Anduril, que se centra en drones, misiles de crucero y otras tecnologías mejoradas con inteligencia artificial para el Departamento de Defensa de Estados Unidos. La empresa está valorada actualmente en 14.000 millones de dólares. Mi colega James O'Donnell entrevistó a Luckey sobre su nuevo proyecto favorito: cascos para el ejército.
Luckey está cada vez más convencido de que los militares, no los consumidores, serán los primeros en ver el valor del hardware de realidad mixta: "Veremos un casco de realidad aumentada en cada soldado, mucho antes de verlo en cada civil", afirma. En el mundo del consumo, cualquier empresa de cascos compite con la ubicuidad y la facilidad de uso de los teléfonos inteligentes, pero él ve compensaciones completamente diferentes en defensa. Lea la entrevista aquí .
El uso de la IA con fines militares es controvertido. En 2018, Google se retiró del Proyecto Maven del Pentágono, un intento de construir sistemas de reconocimiento de imágenes para mejorar los ataques con drones, tras huelgas del personal por la ética de la tecnología (desde entonces, Google ha vuelto a ofrecer servicios para el sector de defensa). Existe una campaña de larga data para prohibir las armas autónomas, también conocidas como "robots asesinos", a la que ejércitos poderosos como el de Estados Unidos se han negado a acceder.
Pero las voces que resuenan aún más fuerte pertenecen a una facción influyente de Silicon Valley, como el ex director ejecutivo de Google, Eric Schmidt, que ha pedido que los militares adopten e inviertan más en inteligencia artificial para obtener una ventaja sobre sus adversarios. Los ejércitos de todo el mundo han sido muy receptivos a este mensaje.
Esas son buenas noticias para el sector tecnológico. Para empezar, los contratos militares son largos y lucrativos. Recientemente, el Pentágono compró servicios de Microsoft y OpenAI para realizar búsquedas, procesamiento de lenguaje natural, aprendizaje automático y procesamiento de datos, informa The Intercept . En la entrevista con James, Palmer Luckey dice que el ejército es un campo de pruebas perfecto para las nuevas tecnologías. Los soldados hacen lo que se les dice y no son tan exigentes como los consumidores, explica. También son menos sensibles a los precios: a los militares no les importa gastar más para obtener la última versión de una tecnología.
Pero adoptar tecnologías potentes de forma prematura en áreas de alto riesgo como ésta entraña graves peligros. Los modelos básicos plantean graves amenazas a la seguridad nacional y a la privacidad, por ejemplo, al filtrar información sensible, sostienen en un nuevo artículo investigadores del AI Now Institute y Meredith Whittaker, presidenta de la organización de privacidad de las comunicaciones Signal. Whittaker, que fue una de las organizadoras principales de las protestas del Proyecto Maven, ha dicho que el impulso para militarizar la IA tiene más que ver con enriquecer a las empresas tecnológicas que con mejorar las operaciones militares.
A pesar de los llamados a reglas más estrictas en materia de transparencia, es poco probable que veamos a los gobiernos restringir sus sectores de defensa de alguna manera significativa más allá de los compromisos éticos voluntarios. Estamos en la era de la experimentación con IA, y los militares son los que más se juegan. Y debido a la naturaleza secreta de los militares, las empresas tecnológicas pueden experimentar con la tecnología sin necesidad de transparencia o incluso de mucha rendición de cuentas. Eso le viene muy bien a Silicon Valley.
Ahora lee el resto de El Algoritmo
Aprendizaje más profundo
Cómo los coches sin conductor de Wayve afrontarán uno de sus mayores retos hasta el momento
Wayve, la startup británica de coches sin conductor, se dirige al oeste. Los coches de la firma aprendieron a circular por las calles de Londres, pero ha anunciado que empezará a probar su tecnología también en San Francisco y sus alrededores, lo que supone un nuevo reto: su inteligencia artificial tendrá que pasar de conducir por la izquierda a hacerlo por la derecha.
A toda velocidad: como sabrán quienes visiten o vengan del Reino Unido, hacer ese cambio es más difícil de lo que parece. La visión de la carretera y la forma en que gira el vehículo son diferentes. El traslado a los EE. UU. será una prueba de la tecnología de Wayve, que según la empresa es más polivalente que la que ofrecen muchos de sus rivales. Al otro lado del Atlántico, la empresa se enfrentará ahora a los pesos pesados de la creciente industria de los coches autónomos, como Cruise, Waymo y Tesla. Únase a Will Douglas Heaven en un viaje en uno de sus coches para obtener más información .
Bits y bytes
Los niños están aprendiendo a hacer sus propios pequeños modelos de lenguaje.
Little Language Models es una nueva aplicación de dos investigadores de doctorado del Media Lab del MIT que ayuda a los niños a comprender cómo funcionan los modelos de IA, al permitirles construir ellos mismos versiones a pequeña escala. ( MIT Technology Review )
Google DeepMind hace que su marca de agua de texto con inteligencia artificial sea de código abierto
Google DeepMind ha desarrollado una herramienta para identificar texto generado por IA llamada SynthID, que forma parte de una familia más amplia de herramientas de marca de agua para resultados de IA generativos. La empresa está aplicando la marca de agua al texto generado por sus modelos Gemini y poniéndolo a disposición de otros usuarios. ( MIT Technology Review )
Anthropic presenta un modelo de IA que puede “utilizar” una computadora
La herramienta permite que el modelo de inteligencia artificial Claude de la empresa interactúe con interfaces de computadora y realice acciones como mover un cursor, hacer clic en elementos y escribir texto. Es una versión muy engorrosa y propensa a errores de lo que algunos han dicho que los agentes de inteligencia artificial podrán hacer algún día. ( Anthropic )
¿Se puede culpar a un chatbot de IA por el suicidio de un adolescente?
Un chico de 14 años se suicidó y su madre dice que fue porque estaba obsesionado con un chatbot de inteligencia artificial creado por Character.AI. Ella está demandando a la compañía. Los chatbots han sido promocionados como curas para la soledad, pero los críticos dicen que en realidad empeoran el aislamiento. ( The New York Times )
Google, Microsoft y Perplexity promueven el racismo científico en los resultados de búsqueda
Los motores de búsqueda más grandes de Internet basados en inteligencia artificial están presentando la idea ampliamente desacreditada de que los blancos son genéticamente superiores a otras razas. ( Wired )