Skip to main content

En enero, Jensen Huang, de Nvidia, el director ejecutivo de la empresa más valiosa del mundo, proclamó que estamos entrando en la era de la IA física, cuando la inteligencia artificial irá más allá del lenguaje y los chatbots para convertirse en máquinas físicamente capaces. (Por cierto, también dijo lo mismo el año anterior). 

La implicación, alimentada por nuevas demostraciones de robots humanoides guardando platos o ensamblando coches, es que imitar extremidades humanas con brazos robóticos de un solo propósito es la forma antigua de automatización. La nueva forma consiste en replicar cómo los humanos piensan, aprenden y se adaptan mientras trabajan. El problema es que la falta de transparencia sobre el trabajo humano involucrado en entrenar y operar estos robots hace que el público malinterprete tanto lo que los robots pueden hacer realmente como las nuevas y extrañas formas de trabajo que están surgiendo a su alrededor. 

Considera cómo, en la era de la IA, los robots suelen aprender de humanos que demuestran cómo hacer una tarea doméstica. Crear estos datos a escala está generando escenarios propios de Black Mirror. Un trabajador en Shanghái (China), por ejemplo, pasó una semana usando un casco de realidad virtual y un exoesqueleto mientras abría y cerraba la puerta de un microondas cientos de veces al día para entrenar al robot a su lado, según informó Rest of World. En Norteamérica, la empresa de robótica Figure parece estar planeando algo similar: anunció en septiembre que colaboraría con la firma de inversión Brookfield, que gestiona 100.000 viviendas, para capturar “cantidades masivas” de datos del mundo real “en una variedad de entornos domésticos”. (Figure no respondió a preguntas sobre este proyecto). 

Al igual que nuestras palabras se convirtieron en datos de entrenamiento para los modelos de lenguaje de gran tamaño, ahora nuestros movimientos parecen estar destinados a seguir el mismo camino. Solo que este futuro podría dejar a los humanos en una posición aún peor, y ya está empezando. El experto en robótica Aaron Prather me habló de un proyecto reciente con una empresa de envíos en el que sus trabajadores llevaban sensores de seguimiento de movimiento mientras trasladaban cajas; los datos recopilados se utilizarán para entrenar robots. El esfuerzo por construir humanoides probablemente requerirá que trabajadores manuales actúen como recolectores de datos a gran escala. “Va a ser raro”, dice Prather. “Sin ninguna duda”. 

O considera la teleoperación. Aunque el objetivo final de la robótica es una máquina capaz de completar una tarea por sí sola, las empresas de robótica emplean personas para operar sus robots de forma remotaNeo, un robot humanoide de 20.000 dólares (unos 16.974 euros) de la start-up 1X, se enviará a hogares este año, pero su fundador, Bernt Øivind Børnich, me dijo recientemente que no se compromete con ningún nivel de autonomía predeterminado. Si un robot se queda atascado, o si el cliente quiere que realice una tarea complicada, un teleoperador desde la sede de la empresa en Palo Alto (California, EE UU) lo pilotará, mirando a través de sus cámaras para planchar ropa o descargar el lavavajillas. 

Esto no es inherentemente dañino (1X obtiene el consentimiento del cliente antes de activar la teleoperación), pero la privacidad tal como la conocemos no existirá en un mundo donde teleoperadores realicen tareas en tu hogar a través de un robot. Y si los humanoides domésticos no son realmente autónomos, este acuerdo debe entenderse mejor como una forma de arbitraje salarial que recrea las dinámicas del trabajo precario permitiendo, por primera vez, que tareas físicas se realicen allá donde la mano de obra es más barata. 

Ya hemos recorrido caminos similares. La moderación de contenidos “impulsada por IA” en plataformas de redes sociales o la recopilación de datos de entrenamiento para empresas de IA suele requerir que trabajadores en países con salarios bajos vean contenido perturbador. Y, pese a las afirmaciones de que la IA pronto entrenará con sus propios resultados y aprenderá sola, incluso los mejores modelos requieren una enorme cantidad de retroalimentación humana para funcionar como se desea. 

Estas fuerzas laborales humanas no significan que la IA sea puro humo. Pero cuando permanecen invisibles, el público tiende sistemáticamente a sobreestimar las capacidades reales de las máquinas. 

Eso es estupendo para los inversores y para el hype, pero tiene consecuencias para todos. Cuando Tesla comercializó su software de asistencia al conductor como “Autopilot”, por ejemplo, infló las expectativas del público sobre lo que el sistema podía hacer de manera segura; una distorsión que, según dictaminó recientemente un jurado de Miami, contribuyó a un accidente que mató a una joven de 22 años (y que llevó a que Tesla fuera condenada a pagar 240 millones de dólares, es decir unos 203,68 millones de euros, en daños). 

Lo mismo ocurrirá con los robots humanoides. Si Huang tiene razón, y la IA física va a llegar a nuestros lugares de trabajo, hogares y espacios públicos, entonces importa cómo describimos y supervisamos esa tecnología. Sin embargo, las empresas de robótica son tan opacas sobre el entrenamiento y la teleoperación como las firmas de IA lo son sobre sus datos de entrenamiento. Si eso no cambia, corremos el riesgo de confundir trabajo humano encubierto con inteligencia de máquina, y de atribuir mucha más autonomía de la que realmente existe.