Además, se han detectado contenidos nocivos en la era de la inteligencia artificial
Parece que todo el mundo habla de la IA. Aunque, si te sientes abrumado o no sabes de qué demonios está hablando la gente, no te preocupes. Yo te entiendo.
He pedido a algunos de los mejores periodistas especializados en IA que compartan con nosotros sus mejores consejos para hablar de IA con confianza. Mis colegas y yo pasamos el día obsesionados con la tecnología, escuchando a especialistas en IA y traduciendo lo que dicen a un lenguaje claro y comprensible con contexto significativo. Considero que, al menos, sabemos un par de cosas sobre lo que hablamos.
A continuación, siete cosas a las que se debe prestar atención cuando se habla de IA.
1. No te preocupes por parecer tonto
"A la industria tecnológica no se le da muy bien explicarse con claridad, a pesar de insistir en que los grandes modelos lingüísticos cambiarán el mundo. Si tienes dificultades, no eres el único", afirma Nitasha Tiku, periodista de Cultura Tecnológica del Washington Post. Y añade que tampoco ayuda que las conversaciones sobre IA estén plagadas de jerga. "Alucinación" es una forma elegante de decir que un sistema de IA se inventa cosas. Y los "ingenieros rápidos" son personas que saben cómo hablar con la IA para conseguir lo que quieren.
Tiku recomienda escuchar a especialistas de conceptos y modelos de IA en YouTube. "Sáltate a los influencers de la IA y ve a por los anfitriones más moderados, como Computerphile", sugiere. "IBM Technology es genial si buscas algo breve y sencillo. No hay ningún canal dirigido a observadores ocasionales, pero puede ayudar a desmitificar el proceso".
Además, se hable de IA como se hable, algunos refunfuñarán. "A veces, da la sensación de que el mundo de la IA se ha dividido en bandos donde todos pasan de los demás, aferrándose a definiciones y creencias", asegura Will Douglas Heaven, redactor jefe de IA en MIT Technology Review. "Averigua qué significa para ti la IA, y aférrate a ello".
2. Sé específico acerca de qué tipo de IA se refiere
“En el discurso público, la inteligencia artificial suele considerarse una sola cosa. En realidad, es un conjunto de cien cosas distintas", afirma Karen Hao, reportera de Tecnología y Sociedad del Wall Street Journal en China (¡y creadora de The Algorithm!).
Hao afirma que es útil distinguir de qué función de la IA se está hablando para poder mantener una conversación más concreta. ¿Se está hablando de procesamiento del lenguaje natural y modelos lingüísticos, o de visión por ordenador? ¿O de diferentes aplicaciones, como los chatbots o la detección del cáncer? Si no está seguro, aquí tiene algunas definiciones de varias aplicaciones prácticas de la inteligencia artificial.
Hablar de inteligencia artificial como algo en singular oscurece la realidad de la tecnología, declara Billy Perrigo, periodista de Time.
"Hay diferentes modelos que pueden hacer cosas distintas, que responderán de forma diferente a las mismas indicaciones y que también tienen sus propios sesgos", concluye Perrigo.
3. Sé realista
"Las dos preguntas más importantes para los nuevos productos y herramientas de IA son: ¿Qué hace y cómo lo hace?", afirma James Vincent, redactor jefe de The Verge.
Existe una tendencia en la comunidad de la IA a hablar de los riesgos y el potencial a largo plazo de la IA. Es fácil distraerse con escenarios hipotéticos e imaginar lo que la tecnología podría hacer en el futuro, pero los debates sobre IA suelen ser más útiles si se es pragmático y se centra la atención en la realidad, no en los "y si...", añade Vincent.
El sector tecnológico también tiende a exagerar las capacidades de sus productos. "Hay que ser escéptico y cínico", recomienda Douglas Heaven.
Esto es especialmente importante cuando se habla de Inteligencia Artificial General (AGI, por sus siglas en inglés), que suele utilizarse para referirse a un software tan inteligente como una persona. Sea lo que sea que eso signifique.
"Si algo suena a ciencia ficción mala, quizá lo sea", añade Heaven.
4. Ajuste sus expectativas
Los modelos lingüísticos que utilizan chatbots de inteligencia artificial, como ChatGPT, suelen "alucinar" o inventarse cosas. Esto puede resultar molesto y sorprendente para la gente, pero es una parte inherente de su funcionamiento, según afirma Madhumita Murgia, redactora de IA en el Financial Times.
Es importante recordar que los modelos lingüísticos no son motores de búsqueda creados para encontrar y dar las respuestas acertadas, ni tienen conocimientos infinitos. Son sistemas predictivos que generan las palabras más probables, teniendo en cuenta la pregunta y todo lo que se les ha enseñado, recuerda Murgia.
"Esto no significa que no puedan escribir nada original, pero siempre debemos asumir que sean inexactos y fabriquen hechos. Si lo hacemos, entonces los errores importan menos porque nuestro uso y sus aplicaciones pueden ajustarse en consecuencia", concluye.
5. No antropomorfizar
Los chatbots de IA han cautivado la imaginación del público porque generan texto que parece escrito por un ser humano y dan a los usuarios la ilusión de estar interactuando con algo distinto a un programa informático. Cuando la realidad es que no son más que programas.
Es muy importante no antropomorfizar la tecnología ni atribuirle características humanas, asegura Chloe Xiang, periodista de Motherboard. "No le des un pronombre [de género], [o] digas que puede sentir, pensar, creer, etc".
Hacer esto contribuye a alimentar la errónea idea de que los sistemas de IA son más capaces y sensibles de lo que son.
He descubierto que es muy fácil meter la pata porque nuestro lenguaje no se ha puesto al día con las formas de describir lo que hacen los sistemas de IA. En caso de duda, sustituyo "IA" por "programa informático". Entonces, te sientes tonto contando que un programa informático le dijo a alguien que se divorciara de su esposa.
6. Todo es cuestión de poder
Aunque la publicidad y los escenarios de pesadilla pueden dominar los titulares de las noticias, cuando se habla de IA es crucial pensar en el papel del poder, advierte Khari Johnson, redactor jefe de Wired.
"El poder es clave para los ingredientes básicos de la IA, como la computación y los datos; es clave para cuestionar el uso ético de la IA; y también es clave para entender quién puede permitirse obtener un título avanzado en informática y quién está en la sala durante el proceso de diseño del modelo de IA", afirma Johnson.
Hao está de acuerdo con este pensamiento. Y añade que también es útil tener en cuenta que el desarrollo de la IA es muy político e implica grandes cantidades de dinero y muchas facciones de investigadores con intereses contrapuestos: "A veces, la conversación sobre la IA gira menos en torno a la tecnología y más en torno a las personas".
7. Por favor, por el amor de Dios, no piense en robots
No imagine ni describa la IA como un robot aterrador o una máquina que todo lo sabe. “Recuerde que la IA es básicamente programación de computadoras por parte de humanos, que combina grandes conjuntos de datos con mucho poder de cómputo y algoritmos inteligentes”, dice Sharon Goldman, escritora sénior de VentureBeat.
Aprendizaje aún más profundo
Detectar los contenidos inadecuados en la era de la inteligencia artificial
En los últimos 10 años, la gran tecnología ha llegado a ser muy buena en algunos aspectos: lenguaje, predicción, personalización, archivo, análisis de texto y procesamiento de datos. No obstante, sigue siendo sorprendentemente mala a la hora de detectar, etiquetar y eliminar contenidos nocivos. Basta con recordar la difusión de teorías conspirativas sobre las elecciones y las vacunas en EE UU en los dos últimos años para comprender el daño que causa en el mundo real. La facilidad de uso de la IA generativa podría acelerar la creación de contenidos online más nocivos todavía. Ya se están utilizando modelos lingüísticos de IA para crear webs de noticias falsas.
Sin embargo, ¿podría la IA ayudar en la moderación de contenidos?
Los grandes modelos lingüísticos más recientes interpretan el texto mejor que los anteriores sistemas de IA. En teoría, podrían utilizarse para impulsar la moderación automática de contenidos. Más información por parte de Tate Ryan-Mosley en su boletín semanal, The Technocrat.
Bits y bytes
Unos científicos utilizaron IA para encontrar un medicamento que combatiera las infecciones resistentes a los medicamentos
Varios investigadores del MIT y la Universidad McMaster (Canadá) desarrollaron un algoritmo de IA que les permitió encontrar un nuevo antibiótico para eliminar un tipo de bacteria, responsable de muchas infecciones y resistente a los medicamentos más frecuentes en los hospitales. Se trata de un avance apasionante que muestra cómo la IA puede acelerar y apoyar los descubrimientos científicos. (Noticias del MIT)
Sam Altman advierte que OpenAI podría abandonar Europa por las normas sobre la IA
En un acto celebrado en Londres la semana pasada, el CEO afirmó que OpenAI podría "dejar de operar" en la UE si no puede cumplir la inminente Ley sobre IA. Altman aseguró que su empresa encontraba mucho que criticar en la redacción de dicha ley, y que había "límites técnicos a lo que es posible". Puede que se trate de una amenaza vacía. He oído a las grandes tecnológicas decir esto muchas veces antes sobre una norma u otra. La mayoría de las veces, el riesgo de perder ingresos en el segundo mayor bloque comercial del mundo es demasiado grande, y algo se les ocurre. La salvedad obvia aquí es que muchas empresas han decidido no operar, o tener una presencia restringida, en China. Aunque esa es también una situación muy diferente. (Time)
Los depredadores sexuales ya están explotando herramientas de IA para generar material de abuso infantil
El Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) ha advertido que los depredadores están utilizando sistemas generativos de IA para crear y compartir material falso de abuso sexual infantil. Con el despliegue de modelos generativos potentes con guardarraíles inadecuadas y fáciles de piratear, solo era cuestión de tiempo que viéramos casos como estos. (Bloomberg)
Los despidos tecnológicos han devastado los equipos de ética de la IA
Este es un buen resumen de los drásticos recortes que Meta, Amazon, Alphabet y Twitter han realizado en sus equipos centrados en la confianza y la seguridad en Internet, así como en la ética de la IA. Por ejemplo, Meta puso fin a un proyecto de verificación de hechos que había tardado medio año en crearse. Mientras las empresas se apresuran a desplegar potentes modelos de IA en sus productos, a los ejecutivos les gusta presumir de que el desarrollo de su tecnología es seguro y ético. Sin embargo, está claro que las grandes tecnológicas consideran que los equipos dedicados a estas cuestiones son caros y prescindibles. (CNBC)