Skip to main content
Por qué los chatbots están empezando a comprobar tu edad

¿Cómo comprueban las tecnológicas si sus usuarios son menores? 

La pregunta ha cobrado nueva urgencia recientemente, a medida que crece la preocupación por los riesgos que pueden surgir cuando los niños conversan con chatbots de IA. Durante años, las grandes compañías tecnológicas se limitaban a pedir la fecha de nacimiento (fácilmente falseable) para evitar infringir las leyes de privacidad infantil, pero no tenían la obligación de moderar el contenido en función de esa edad. Dos acontecimientos ocurridos la semana pasada en EE UU muestran lo rápido que está cambiando el panorama y cómo este asunto se ha convertido en un nuevo campo de batalla, incluso entre padres y expertos en seguridad infantil. 

En un lado del debate se sitúa el Partido Republicano, que ha impulsado en varios estados leyes que exigen verificar la edad de los usuarios en sitios con contenido para adultos. Sus críticos sostienen que estas normas sirven de cobertura para bloquear cualquier material considerado “perjudicial para menores”, algo que incluiría incluso la educación sexual. Otros estados, como California, han puesto el foco en las empresas de IA con leyes destinadas a proteger a los niños que interactúan con chatbots, obligando a las compañías a identificar quién es menor. Mientras tanto, el presidente Trump está intentando que la regulación de la IA siga siendo una cuestión nacional, en lugar de permitir que los estados establezcan sus propias normas. El apoyo a los distintos proyectos legislativos en el Congreso cambia casi a diario. 

¿Entonces qué puede ocurrir? El debate se desplaza rápidamente de si es necesaria la verificación de edad a quién debe asumir esa responsabilidad. Y esa responsabilidad es una auténtica patata caliente que ninguna empresa quiere sostener. 

En una publicación en su blog publicada en enero, OpenAI reveló que tiene previsto implementar la predicción automática de la edad. En esencia, aplicará un modelo que tendrá en cuenta factores como la franja horaria, entre otros, para estimar si la persona que escribe es menor de 18 años. A quienes identifique como adolescentes o niños, ChatGPT les aplicará filtros destinados a “reducir su exposición” a contenidos como violencia gráfica o juegos de roles sexuales. YouTube puso en marcha un mecanismo similar el año pasado. 

Para quienes defienden la verificación de edad pero les preocupa la privacidad, esto podría sonar a avance. Pero hay una trampa. El sistema no es perfecto, por supuesto, por lo que podría clasificar a un niño como adulto o viceversa. Las personas a las que se les ha asignado erróneamente la etiqueta de menores de 18 años podrán verificar su identidad enviando un selfie o un documento de identidad oficial a una empresa llamada Persona. 

Las verificaciones mediante selfie presentan problemas: fallan con mayor frecuencia en personas de color y en usuarios con determinadas discapacidades. Sameer Hinduja, codirector del Cyberbullying Research Center, advierte de que el hecho de que Persona tenga que almacenar millones de documentos oficiales y grandes volúmenes de datos biométricos abre otro frente de riesgo. “Cuando eso se vea comprometido, habremos expuesto a poblaciones enteras de golpe”, afirma. 

En lugar Hinduja apuesta por la verificación a nivel del dispositivo, en la que los padres especifican la edad del niño al configurar su teléfono por primera vez. Esa información queda almacenada en el propio dispositivo y se comparte de forma segura con aplicaciones y sitios web. 

Es más o menos lo que Tim Cook, consejero delegado de Apple, defendió recientemente ante legisladores de EE UU. Cook se oponía a quienes quieren obligar a las tiendas de aplicaciones a verificar la edad de los usuarios, una medida que cargaría sobre Apple un volumen considerable de responsabilidad legal. 

Más pistas sobre hacia dónde se dirige este debate llegarán este miércoles, cuando la Comisión Federal de Comercio (FTC, por sus siglas en inglés), el organismo encargado de aplicar estas nuevas leyes, celebre un taller de un día completo sobre la verificación de edad. Entre los asistentes estará Nick Rossi, responsable de asuntos gubernamentales de Apple, acompañado por altos cargos de seguridad infantil de Google y Meta, además de una empresa especializada en marketing dirigido a menores. 

La FTC se ha vuelto cada vez más politizada bajo la presidencia de Trump (su despido de la única comisionada demócrata fue anulado por un tribunal federal y la decisión está ahora pendiente de revisión ante el Tribunal Supremo de EE UU). En julio escribí sobre señales que apuntan a un giro más suave del organismo hacia las empresas de IA. De hecho, en diciembre, la FTC revocó una resolución de la era Biden contra una compañía de IA que permitía inundar Internet con reseñas falsas de productos, argumentando que chocaba con el AI Action Plan impulsado por Trump. 

El taller del miércoles podría ofrecer pistas sobre hasta qué punto la postura de la FTC en materia de verificación de edad será partidista. Los estados gobernados por republicanos están a favor de leyes que obligan a los sitios de contenido pornográfico a comprobar la edad de los usuarios (aunque los críticos alertan de que estas normas podrían emplearse para bloquear un espectro mucho más amplio de contenidos). Bethany Soye, representante republicana del estado que lidera los esfuerzos para aprobar una ley de este tipo en su estado, Dakota del Sur, tiene previsto intervenir en la reunión de la FTC. Por su parte, la ACLU se opone de forma generalizada a las leyes que exigen identificarse para acceder a sitios web y aboga en su lugar por reforzar los controles parentales existentes. 

Mientras se debate todo esto, sin embargo, la IA ha revolucionado el mundo de la seguridad infantil. Estamos viendo un aumento en la creación de material de abuso sexual infantil, nuevas preocupaciones (y demandas judiciales) relacionadas con suicidios y autolesiones tras conversaciones con chatbots, y evidencias inquietantes sobre vínculos emocionales que algunos menores desarrollan con sus compañeros de IA. La colisión entre enfoques divergentes sobre privacidad, política, libertad de expresión y vigilancia complicará cualquier intento de hallar una solución. Escríbeme y cuéntame qué opinas.