.

Ms. Tech

Tecnología y Sociedad

Cinco preguntas para saber si una IA es útil, eficaz y ética

1

A medida que la inteligencia artificial penetra en la industria es necesario confirmar que los productos que ofrecen las empresas son válidos y de calidad. Para averiguarlo, le ofrecemos una guía con cinco preguntas

  • por Karen Hao | traducido por Ana Milutinovic
  • 20 Mayo, 2019

Hace dos semanas, los Emiratos Árabes Unidos organizaron Ai Everything, su primera gran conferencia de inteligencia artificial (IA) y una de las mayores del mundo sobre sus aplicaciones. El acontecimiento fue un impresionante testimonio de la amplitud de las industrias en las que ya se usa el aprendizaje automático. También sirvió como importante recordatorio de cómo el mundo de los negocios puede ofuscarse y exagerar las capacidades de la tecnología.

Así que me gustaría resumir brevemente las cinco preguntas que suelo usar para evaluar la calidad y la validez de la tecnología de una empresa:

1. ¿Cuál es el problema que intenta resolver? Siempre empiezo con la definición del problema. ¿Qué intenta hacer la compañía?, y ¿es una misión digna para el aprendizaje automático? Por ejemplo hablamos con Affectiva, que desarrolla la tecnología de reconocimiento de emociones para rastrear y analizar con precisión los estados de ánimo de las personas. Conceptualmente, se trata de un problema de reconocimiento de patrones y, por lo tanto, sería algo que el aprendizaje automático podría abordar (ver  Si quiere saber qué es el aprendizaje automático, mire este gráfico). También sería muy difícil acercarse por otros medios, ya que es demasiado complejo programar un conjunto de reglas.

2. ¿Cuál es el plan de la compañía para resolver el problema con aprendizaje automático? Ahora que tenemos una comprensión conceptual del problema, queremos saber cómo la compañía planea abordarlo. Una empresa de reconocimiento de emociones podría adoptar muchos enfoques para crear su producto. Podría entrenar un sistema de visión artificial para encontrar las expresiones faciales de las personas que coinciden con los patrones o entrenar a un sistema de audio para hacer coincidir el tono de voz de las personas con los patrones. En este punto queremos descubrir cómo la compañía ha reformulado su definición del problema en un problema de aprendizaje automático y determinar qué datos se deberían introducir en sus algoritmos.

3. ¿Cómo obtiene la compañía sus datos para entrenar el sistema? Una vez que sepamos el tipo de datos que necesita la compañía, queremos saber cómo los va a adquirir. La mayoría de las aplicaciones de inteligencia artificial utilizan aprendizaje automático supervisado, que requiere limpios datos etiquetados y de alta calidad. ¿Quién etiquetado los datos? Y si las etiquetas capturan algo subjetivo como las emociones, ¿siguen una norma científica? En el caso de Affectiva, la compañía recopila datos de audio y vídeo de forma voluntaria de los usuarios y contrata a especialistas capacitados para etiquetar los datos de una manera rigurosa y coherente. Conocer los detalles de esta parte del proceso también ayuda a identificar cualquier posible fuente de recopilación de datos o sesgo en el etiquetado (ver Cómo se produce el sesgo algorítmico y por qué es tan difícil detenerlo).

4. ¿Tiene la empresa procesos para auditar sus productos? Lo siguiente que deberíamos averiguar es si la empresa analiza sus productos. ¿Son exactos sus algoritmos? ¿Se controlan por sesgo? ¿Con qué frecuencia reevalúa sus algoritmos para asegurarse de que todavía están funcionando correctamente? Si la empresa aún no cuenta con algoritmos que alcancen la precisión o la imparcialidad deseadas, ¿qué planes tiene para asegurarse de hacerlo antes de la implementación?

5. ¿Debería la empresa utilizar el aprendizaje automático para resolver este problema? Esto es más como una decisión subjetiva. Incluso si un problema puede  resolverse con el aprendizaje automático, es importante preguntarse si debe. El hecho de que se pueda crear una plataforma de reconocimiento de emociones que alcance al menos el 80 % de precisión en diferentes razas y géneros no significa que no se pueda abusar de ella. ¿Los beneficios de tener esta tecnología superan las posibles violaciones de los derechos humanos de la vigilancia emocional? Y, ¿tiene la empresa mecanismos para mitigar cualquier posible impacto negativo?

En mi opinión, una empresa con un producto de aprendizaje automático de calidad debería cubrir todas estas cuestiones: debería abordar un problema adecuado para el aprendizaje automático, contar con procesos sólidos de adquisición de datos y con sistemas de auditoría, tener algoritmos muy precisos o n plan para mejorarlos y enfrentarse de forma directa con cuestiones éticas. A menudo, las empresas tienen respuestas para las cuatro primeras preguntas, pero no para la última. Para mí, esa es una gran línea roja. Demuestra que la compañía no está pensando de manera holística en cómo su tecnología puede afectar la vida de las personas y tiene una alta probabilidad de hacer lo mismo que Facebook en algún momento más adelante. Si usted es un ejecutivo que busca soluciones de aprendizaje automático para su empresa, esto debería advertirle de no asociarse con algún proveedor en particular.

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. La nueva baza de China para presionar a EE UU pasa por restringir la exportación de litio

    China es una potencia en energías limpias, especialmente en las cadenas de suministro de baterías. Por ello, las tensiones y restricciones comerciales entre China y EE UU podrían poner en riesgo el avance en tecnologías climáticas y el desarrollo de vehículos eléctricos

  2. La suplantación de identidad amenaza la credibilidad de Bluesky

    Varios usuarios han sido víctimas de suplantación de identidad en Bluesky, una situación que pone de manifiesto un problema relacionado con el auge de cuentas falsas que, si no se aborda, podría dañar la reputación y credibilidad de la plataforma

    La suplantación de identidad amenaza la credibilidad de Bluesky
  3. Arati Prabhakar, directora saliente de Ciencia y Tecnología de EE UU: "Queremos entender si la IA es segura, pero aún no sabemos cómo"

    La directora de la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca, que probablemente dejará su cargo al finalizar la administración Biden, reflexiona sobre aspectos como los riesgos de la IA, las políticas migratorias y la Ley de Chips

    Arati Prabhakar, directora de Ciencia y Tecnología de EE UU