Sin embargo, los expertos afirman que liberar estos modelos antes de corregir sus defectos podría ser muy arriesgado para el gigante tecnológico
Google está introduciendo nuevas y potentes herramientas de inteligencia artificial en muchos de sus productos actuales. Según ha anunciado el pasado miércoles 10 de mayo en su conferencia anual I/O, ha lanzado varias herramientas nuevas, incluido un asistente de codificación.
Pronto, miles de millones de usuarios verán PaLM 2, el último modelo de lenguaje de IA desarrollado por Google e integrado en más de 25 productos como Maps, Docs, Gmail, Sheets y Bard, el chatbot de la empresa. Por ejemplo, los usuarios podrán escribir una solicitud como "escribir una descripción del empleo" en un cuadro de texto de Google Docs, y el modelo de IA generará una plantilla de texto que los usuarios podrán personalizar.
Por motivos de seguridad y riesgos para su reputación, Google ha tardado más que sus competidores en lanzar productos basados en IA. Sin embargo, la feroz competencia de Microsoft, OpenAI y otras empresas no le ha dejado más remedio que dar el salto, afirma Chirag Shah, profesor de Informática de la Universidad de Washington.
Esta es una estrategia de alto riesgo, ya que los modelos lingüísticos de IA presentan numerosos fallos, aún sin solución conocida. Incorporarlos a sus productos podría ser contraproducente y provocar el rechazo de los reguladores, que se encuentran cada vez más beligerantes, advierten los expertos.
Además, Google está abriendo el acceso a Bard, el rival directo de ChatGPT, de un grupo selecto de EE UU y Reino Unido hacia un público general en más de 180 países. Según Google, "pronto" Bard permitirá a los usuarios utilizar imágenes además de palabras, y el chatbot también podrá responder a las consultas con imágenes. La empresa tecnológica también está lanzando herramientas de IA que permiten generar y depurar código.
Google lleva años utilizando tecnología de IA en varios de sus productos, como en la traducción de textos y el reconocimiento de voz. No obstante, este es el mayor impulso de la empresa para integrar esa última ola de IA en diversas creaciones.
"Las capacidades [de los grandes modelos de lenguaje de IA] son cada vez mejores. Paulatinamente, encontramos más lugares donde podemos integrarlos en nuestros productos actuales, y también encontramos oportunidades reales de aportar valor a las personas de forma atrevida pero responsable", declaró Zoubin Ghahramani, vicepresidente de Google DeepMind, a MIT Technology Review.
"En Google, estamos viendo en este momento el poder de poner la IA en manos del público", aseguró Ghahramani.
Según el vicepresidente, la esperanza es que los usuarios se acostumbren tanto a estas herramientas que las incorporen en su vida diaria.
Una ventana única
El anuncio de Google se produce en un momento donde rivales como Microsoft, OpenAI, Meta y otros grupos de código abierto, como Stability.AI, compiten por lanzar herramientas impresionantes. Es decir, una inteligencia artificial capaz de resumir textos, responder con fluidez a las consultas de los usuarios e incluso generar imágenes y vídeos a partir de textos.
Con este conjunto de productos y funciones actualizadas y basadas en IA, Google se dirige no solo a particulares, sino también a startups, desarrolladores y empresas. Ya que estas podrían estar dispuestas a pagar por el acceso a modelos, asistencia de codificación y software empresarial, explica Shah.
"Para Google, es muy importante ser la única ventana", añade Shah.
El gigante tecnológico está facilitando el acceso a nuevas funciones y modelos que aprovechan su tecnología lingüística como asistente de codificación. Así, permite a los usuarios generar y completar código, o conversar con un chatbot para obtener ayuda con la depuración y las preguntas relacionadas con el código.
El problema es que los grandes modelos lingüísticos que Google está incorporando a sus productos son propensos a inventarse cosas (lo que se denomina “alucinar”). Google lo experimentó de primera mano cuando anunció el lanzamiento de Bard, como prueba en EE UU y Reino Unido. Su propia publicidad sobre el bot contenía un error factual, un bochorno que hizo perder miles de millones al precio de las acciones de la empresa.
Por lo tanto, Google se enfrenta a la disyuntiva de lanzar nuevos e interesantes productos de inteligencia artificial, y realizar una investigación científica que haga reproducible su tecnología para permitir a investigadores externos auditarla y comprobar su seguridad, según afirma Sasha Luccioni, investigador de IA de la startup Hugging Face.
En el pasado, Google ha adoptado un enfoque más libre al compartir el código abierto de sus modelos lingüísticos, como BERT en el año 2018. "Pero, debido a la presión del mercado y OpenAI, están cambiando todo eso", asegura Luccioni.
El riesgo en la generación de código es que los usuarios no sean lo bastante expertos en programación como para detectar los errores introducidos por la IA, explica Luccioni. Esto podría dar lugar a códigos con errores y software defectuoso. También existe el riesgo de que las cosas acaben mal cuando los modelos de IA empiecen a dar consejos sobre la vida en el mundo real, añade el investigador.
Incluso Ghahramani advierte que las empresas deben tener cuidado con el uso que dan a estas herramientas, y les insta a comprobar a fondo los resultados en lugar de confiar ciegamente.
"Estos modelos son muy potentes. Si producen errores, en el caso del software hay que preocuparse por si tomas el resultado generado y lo incorporas al software de misión crítica [El conjunto de software que debe funcionar continuamente para una empresa exitosa]", considera Ghahramani.
No obstante, existen riesgos asociados a los modelos lingüísticos de IA que incluso quienes major conocen la tecnología apenas han empezado a comprender. Es difícil detectar cuándo el texto y, cada vez más las imágenes, está generado por IA. Esto podría permitir el uso de estas herramientas para desinformar o estafar a gran escala.
Los modelos son fáciles de jailbreakear, de modo que pueden violar sus propias políticas contra, por ejemplo, brindar instrucciones para hacer algo ilegal. También son vulnerables a los ataques de piratas informáticos cuando se integran en productos conectados a Internet, y se desconoce la solución a este problema.
Ghahramani afirma que Google realiza pruebas periódicas para mejorar la seguridad de sus modelos y ha incorporado controles para evitar que la gente genere contenidos tóxicos. No obstante, también admite que aún no ha resuelto esa vulnerabilidad, ni el problema de la alucinación, cuando los chatbots generan disparates que consideran veraces.
Un lanzamiento difícil
Apostar por la IA generativa podría ser contraproducente para Google. Las empresas tecnológicas se enfrentan a un mayor escrutinio por parte de los reguladores sobre sus productos de inteligencia artificial. La UE está ultimando su primera normativa sobre este particular, la Ley de IA. Mientras en EE UU, la Casa Blanca convocó recientemente a los líderes de Google, Microsoft y OpenAI para debatir la necesidad de desarrollar la IA de manera responsable. Las agencias federales estadounidenses, como la Comisión Federal de Comercio (FTC, por sus siglas en inglés), han señalado que están prestando más atención al daño que puede causar esta tecnología.
Shah asegura que, si algunos de los temores relacionados con la IA terminan por materializarse, podrían dar a los reguladores o los legisladores buenos motivos para actuar con la contundencia necesaria para exigir responsabilidades a Google.
No obstante, en su lucha por mantener el control del mercado del software empresarial, Google cree que no puede arriesgarse a perder terreno frente a sus rivales, opina Shah. "Esta es la guerra que ellos mismos han creado". Y por el momento, "hay muy poco, o nada, que les detenga".