.

Inteligencia Artificial

¿Es la IA demasiado seductora? Hay que prepararse para la IA adictiva

1

Es difícil resistirse al encanto de los compañeros de la inteligencia artificial. He aquí cómo la innovación en la regulación puede ayudarnos a protegernos

  • por Robert Mahari | traducido por
  • 16 Agosto, 2024

La preocupación por la IA hace demasiado hincapié en los daños derivados de la subversión y no de la seducción. La preocupación por la IA a menudo imagina escenarios catastróficos en los que los sistemas escapan al control humano o incluso a su comprensión. Sin llegar a esas pesadillas, hay daños a más corto plazo que deberíamos tomarnos en serio: que la IA pueda poner en peligro el discurso público a través de la desinformación; cimentar sesgos en las decisiones sobre préstamos, juicios o contrataciones; o perturbar las industrias creativas.

Sin embargo, prevemos una clase de riesgos diferente, pero no menos urgente: los derivados de las relaciones con agentes no humanos. La compañía de la IA ya no es teórica: nuestro análisis de un millón de registros de interacción ChatGPT revela que el segundo uso más popular de la IA es el juego de rol sexual. Ya estamos empezando a invitar a las IA a nuestras vidas como amigos, amantes, mentores, terapeutas y profesores.

¿Será más fácil refugiarse en una réplica de una pareja fallecida que enfrentarse a la confusa y dolorosa realidad de las relaciones humanas? De hecho, el proveedor de compañía de IA Replika nació de un intento de resucitar a un mejor amigo fallecido y ahora proporciona compañía a millones de usuarios. Incluso el CTO de OpenAI advierte que la IA tiene el potencial de ser "extremadamente adictiva".

Estamos asistiendo al desarrollo de un gigantesco experimento en el mundo real, sin saber qué impacto tendrán estos compañeros de la IA en nosotros individualmente o en la sociedad en su conjunto. ¿Pasará la abuela sus últimos y desatendidos días charlando con el doble digital de su nieto, mientras su verdadero nieto es tutelado por un anciano simulado? La IA ejerce el encanto colectivo de toda la historia y la cultura humanas con un infinito mimetismo seductor. Estos sistemas son a la vez superiores y sumisos, con una nueva forma de encanto que puede hacer ilusorio el consentimiento a estas interacciones. Ante este desequilibrio de poder, ¿podemos dar nuestro consentimiento para entablar una relación con la IA, especialmente cuando para muchos la alternativa es la nada?

Como investigadores de la IA que trabajan en estrecha colaboración con los responsables políticos, nos sorprende la falta de interés que han mostrado los legisladores por los daños derivados de este futuro. Aún no estamos preparados para responder a estos riesgos porque no los comprendemos plenamente. Lo que se necesita es una nueva investigación científica en la intersección de la tecnología, la psicología y el derecho, y quizá nuevos enfoques de la regulación de la IA.

¿Por qué los sistemas con IA son tan adictivos?

Por muy adictivas que puedan parecer hoy en día las plataformas impulsadas por sistemas de recomendación, TikTok y sus rivales siguen estando limitadas por el contenido humano. Aunque en el pasado han saltado las alarmas sobre la "adicción" a las novelas, la televisión, Internet, los teléfonos inteligentes y las redes sociales, todas estas formas de medios de comunicación están igualmente limitadas por la capacidad humana. La IA generativa es diferente. Puede generar sin cesar contenidos realistas sobre la marcha, optimizados para adaptarse a las preferencias precisas de la persona con la que interactúa.

El atractivo de la IA reside en su capacidad para identificar nuestros deseos y ofrecérnoslos cuando y como queramos. La IA no tiene preferencias ni personalidad propias, sino que refleja lo que los usuarios creen que es, un fenómeno conocido por los investigadores como "adulación". Nuestra investigación ha demostrado que quienes perciben o desean que una IA tenga motivos afectuosos utilizarán un lenguaje que suscite precisamente este comportamiento. Esto crea una cámara de eco de afecto que amenaza con ser extremadamente adictiva. ¿Por qué comprometerse en el toma y daca de estar con otra persona cuando podemos simplemente tomar? Las interacciones repetidas con compañeros aduladores pueden acabar atrofiando la parte de nosotros capaz de comprometerse plenamente con otros seres humanos que tienen deseos y sueños propios reales, lo que podría conducir a lo que podríamos llamar "trastorno de apego digital".

Investigar los incentivos que impulsan los productos adictivos

Abordar el daño que podrían suponer los compañeros de la IA requiere una comprensión profunda de los incentivos económicos y psicológicos que impulsan su desarrollo. Hasta que no apreciemos estos impulsores de la adicción a la IA, nos seguirá siendo imposible crear políticas eficaces.

No es casualidad que las plataformas de Internet sean adictivas: se toman decisiones de diseño deliberadas, conocidas como "patrones oscuros", para maximizar la participación de los usuarios. Esperamos que incentivos similares acaben creando compañeros de IA que proporcionen hedonismo como servicio. Esto plantea dos cuestiones distintas relacionadas con la IA. ¿Qué opciones de diseño se utilizarán para que los acompañantes de la IA resulten atractivos y, en última instancia, adictivos? ¿Y cómo afectarán estos compañeros adictivos a las personas que los utilicen?

Para comprender esta dimensión psicológica de la IA se necesita un estudio interdisciplinar que se base en la investigación de patrones oscuros en los medios sociales. Por ejemplo, nuestra investigación ya muestra que las personas son más propensas a interactuar con IA que emulan a personas que admiran, incluso si saben que el avatar es falso.

Una vez que comprendamos las dimensiones psicológicas de la compañía de la IA, podremos diseñar intervenciones políticas eficaces. Se ha demostrado que redirigir la atención de las personas para que evalúen la veracidad antes de compartir contenidos en línea puede reducir la desinformación, mientras que las imágenes horripilantes en los paquetes de cigarrillos ya se utilizan para disuadir a los posibles fumadores. Planteamientos de diseño similares podrían poner de manifiesto los peligros de la adicción a la IA y hacer que los sistemas de IA resultaran menos atractivos como sustituto de la compañía humana.

Es difícil modificar el deseo humano de ser amado y entretenido, pero quizá podamos cambiar los incentivos económicos. Un impuesto sobre la interacción con la IA podría empujar a la gente hacia interacciones de mayor calidad y fomentar una forma más segura de utilizar las plataformas, de forma regular pero durante periodos cortos. Al igual que las loterías estatales se han utilizado para financiar la educación, un impuesto sobre la interacción podría financiar actividades que fomenten las conexiones humanas, como centros de arte o parques.

Hace falta una nueva regulación

En 1992, Sherry Turkle, una destacada psicóloga pionera en el estudio de la interacción entre el ser humano y la tecnología, identificó las amenazas que los sistemas técnicos suponen para las relaciones humanas. Uno de los principales retos que se desprenden del trabajo de Turkle se refiere a una cuestión central en este asunto: ¿Quiénes somos nosotros para decir que lo que te gusta no es lo que mereces?

Por buenas razones, nuestra sociedad liberal se esfuerza por regular los tipos de daños que describimos aquí. Del mismo modo que la prohibición del adulterio ha sido rechazada con razón como una intromisión antiliberal en los asuntos personales, a quién -o a qué- queremos amar no es asunto del gobierno. Al mismo tiempo, la prohibición universal del material sobre abusos sexuales a menores representa un ejemplo de una línea clara que debe trazarse, incluso en una sociedad que valora la libertad de expresión y la libertad personal. La dificultad de regular el acompañamiento de la IA puede requerir nuevos enfoques reguladores -basados en una comprensión más profunda de los incentivos subyacentes a estos acompañamientos- que aprovechen las nuevas tecnologías.

Uno de los enfoques reguladores más eficaces consiste en incorporar salvaguardias directamente en los diseños técnicos, de forma similar a como los diseñadores evitan los riesgos de asfixia haciendo que los juguetes infantiles sean más grandes que la boca de un bebé. Este enfoque de "regulación por diseño" podría tratar de hacer menos dañinas las interacciones con la IA diseñando la tecnología de forma que sea menos deseable como sustituto de las conexiones humanas, aunque siga siendo útil en otros contextos. Es posible que se necesiten nuevas investigaciones para encontrar mejores formas de limitar los comportamientos de los grandes modelos de IA con técnicas que alteren los objetivos de la IA a un nivel técnico fundamental. Por ejemplo, el "ajuste de la alineación" se refiere a un conjunto de técnicas de entrenamiento destinadas a hacer que los modelos de IA concuerden con las preferencias humanas; esto podría ampliarse para abordar su potencial adictivo. Del mismo modo, la "interpretabilidad mecanicista" pretende aplicar ingeniería inversa a la forma en que los modelos de IA toman decisiones. Este enfoque podría utilizarse para identificar y eliminar partes específicas de un sistema de IA que den lugar a comportamientos nocivos.

Podemos evaluar el rendimiento de los sistemas de IA utilizando técnicas interactivas e impulsadas por humanos que van más allá de la evaluación comparativa estática para poner de relieve las capacidades adictivas. La naturaleza adictiva de la IA es el resultado de complejas interacciones entre la tecnología y sus usuarios. Probar los modelos en condiciones reales con las aportaciones de los usuarios puede revelar patrones de comportamiento que, de otro modo, pasarían desapercibidos. Los investigadores y los responsables políticos deben colaborar para determinar prácticas estándar para probar modelos de IA con diversos grupos, incluidas las poblaciones vulnerables, para garantizar que los modelos no explotan las condiciones psicológicas previas de las personas.

A diferencia de los humanos, los sistemas de IA pueden ajustarse fácilmente a las políticas y normas cambiantes. El principio del "dinamismo jurídico ", que concibe las leyes como sistemas dinámicos que se adaptan a factores externos, puede ayudarnos a identificar la mejor intervención posible, como los "frenos al comercio" que detienen el comercio de acciones para ayudar a prevenir desplomes tras una gran caída del mercado. En el caso de la IA, los factores cambiantes incluyen cosas como el estado mental del usuario. Por ejemplo, una política dinámica puede permitir que un compañero de IA se vuelva cada vez más atractivo, encantador o coqueto con el tiempo si eso es lo que desea el usuario, siempre que la persona no muestre signos de aislamiento social o adicción. Este enfoque puede ayudar a maximizar la elección personal y minimizar la adicción. Pero depende de la capacidad de comprender con precisión el comportamiento y el estado mental de un usuario, y de medir estos atributos sensibles preservando la privacidad.

La solución más eficaz a estos problemas probablemente atacaría lo que lleva a las personas a los brazos de la compañía de la IA: la soledad y el aburrimiento. Pero las intervenciones reguladoras también pueden castigar inadvertidamente a quienes necesitan compañía, o pueden hacer que los proveedores de IA se trasladen a una jurisdicción más favorable en el mercado internacional descentralizado. Aunque debemos esforzarnos por hacer que la IA sea lo más segura posible, este trabajo no puede sustituir a los esfuerzos por abordar problemas más amplios, como la soledad, que hacen que las personas sean vulnerables a la adicción a la IA en primer lugar.

A los tecnólogos les mueve el deseo de ver más allá de los horizontes que otros no pueden abarcar. Quieren estar a la vanguardia del cambio revolucionario. Sin embargo, los temas que tratamos aquí dejan claro que la dificultad de construir sistemas técnicos palidece en comparación con el reto de alimentar interacciones humanas sanas. La oportuna cuestión de los acompañantes de la IA es un síntoma de un problema mayor: mantener la dignidad humana frente a los avances tecnológicos impulsados por estrechos incentivos económicos. Cada vez con más frecuencia somos testigos de situaciones en las que la tecnología diseñada para "hacer del mundo un lugar mejor" causa estragos en la sociedad. Antes de que la inteligencia artificial se convierta en una especie de gafas de color de rosa para la realidad, antes de que perdamos nuestra capacidad de ver el mundo tal y como es, y de reconocer cuándo nos hemos desviado de nuestro camino.

La tecnología se ha convertido en sinónimo de progreso, pero la tecnología que nos roba el tiempo, la sabiduría y la concentración necesarios para la reflexión profunda es un paso atrás para la humanidad. Como constructores e investigadores de sistemas de IA, hacemos un llamamiento a investigadores, responsables políticos, éticos y líderes del pensamiento de todas las disciplinas para que se unan a nosotros para aprender más sobre cómo la IA nos afecta individual y colectivamente. Sólo renovando sistemáticamente nuestra comprensión de la humanidad en esta era tecnológica podremos encontrar formas de garantizar que las tecnologías que desarrollemos favorezcan el florecimiento humano.

Robert Mahari es doctorando en el MIT Media Lab y en la Facultad de Derecho de Harvard. Su trabajo se centra en el derecho computacional: el uso de técnicas computacionales avanzadas para analizar, mejorar y ampliar el estudio y la práctica del derecho.

Pat Pataranutaporn es investigador en el Laboratorio de Medios del MIT. Su trabajo se centra en la psicología ciborg y en el arte y la ciencia de la interacción entre el ser humano y la inteligencia artificial.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Estos robots aprendieron a superar obstáculos reales desde un entorno virtual gracias a la IA

    Un nuevo sistema podría ayudar a entrenar robots usando exclusivamente mundos generados mediante inteligencia artificial

  2. Por qué la IA podría comerle la tostada a la computación cuántica

    Los rápidos avances en la aplicación de la inteligencia artificial a las simulaciones físicas y químicas hacen que algunos se pregunten si de verdad necesitamos ordenadores cuánticos

  3. Esta IA ayuda a que los profesores enseñen mejor matemáticas a los niños

    La herramienta, llamada Tutor CoPilot, demuestra cómo la IA podría mejorar, en lugar de sustituir, el trabajo de los educadores