.

Inteligencia Artificial

Drones prueban un sistema para volar sin tener que ser vistos por sus pilotos

1

Si queremos que entreguen paquetes y supervisen grandes zonas de cultivo necesitamos que sean autónomos en situaciones peligrosas

  • por Tom Simonite | traducido por Teresa Woods
  • 17 Noviembre, 2015

Foto: Este dron utiliza el software de Precision Hawk. La empresa ayuda a la Administración Federal de Aviación de Estados Unidos a determinar cómo las aeronaves no tripuladas podrían volar de forma segura más allá de la línea visual de sus pilotos.

Grandes empresas como Amazon e Intel, además de otras muchas start-ups más pequeñas, apuestan fuerte por la idea de extender el uso de los drones para todo desde la agricultura hasta las entregas de mensajería. Una serie de vuelos de pruebas programadas para empezar esta semana en Butner, Carolina del Norte (EEUU) ayudará a determinar si la Administración Federal de Aviación estadounidense (FAA, por sus siglas en inglés) permitirá que ese sueño se realice dentro del espacio aéreo estadounidense.

Los vuelos forman parte de un programa de la FAA diseñado para probar cómo se podrían operar los drones de forma segura más allá de la línea visual de sus pilotos y para lidiar con problemas como cruzarse con aeronaves convencionales y tripuladas. Las pruebas serán ejecutadas por la empresa de seguridad y software de drones Precision Hawk.

El proyecto de normas de seguridad para drones de menos de 25 kilos publicado por la FAA en febrero prohíbe los vuelos que sobrepasen la línea visual del piloto. Esto representa un obstáculo para la aspiración de la industria de emplear los drones para la agrimensura a gran escala o para la entrega de paquetes (ver Las nuevas reglas para drones anulan el sueño de reparto de Amazon). Algunos países, como Francia, permiten que los drones pequeños operen más allá de la línea visual bajo unas condiciones específicas en las que el riesgo de accidentes se considera bajo, como la inspección de vías de ferrocarril. Pero el enfoque de la FAA quiere restringir tales vuelos hasta disponer de una tecnología que pueda garantizar la seguridad más activamente.

Precision Hawk fue elegida por la FAA porque justo está desarrollando este tipo de tecnología. Puede hacer que un dron ejecute automáticamente una acción como el aterrizaje o un cambio de sentido si se acerca demasiado a una zona prohibida como un aeropuerto, o al aproximarse una aeronave convencional. El sistema de la empresa, llamado LATAS, siglas que proceden del nombre completo en inglés del sistema de rastreo a bajas altitudes y de anticolisión, puede emplear la red móvil de Verizon, los enlaces de satélite o las balizas de localización estándar de los aviones para monitorizar y comunicarse con los drones.

Las pruebas incluirán la aproximación de unos aviones convencionales a los drones para probar la seguridad de sus respuestas. En la primera prueba, un "avión intruso" – un papel que será desempeñado por un parapente con motor – se acercará a un dron que vuela dentro de la línea visual de su piloto para probar la distancia a la que él o ella puede detectar otras aeronaves y reaccionar.

Otras pruebas posteriores repetirán ese escenario pero dejarán que LATAS se ocupe de la situación. Finalmente, las pruebas incluirán drones que operen más allá de la línea visual de sus pilotos.

"Queremos medir la capacidad de una persona que opera un dron a la hora de buscar peligros del espacio aéreo visualmente y también dejar que los drones tomen algunas decisiones", dice Tyler Collins, que lidera el proyecto LATAS en Precision Hawk. "Esperamos demostrar a la FAA que la introducción de esta tecnología nos permite crear un espacio aéreo más seguro".

Marty Rogers, el director del Centro Alaska para la Integración de Aeronaves no Tripuladas de la Universidad de Alaska en Fairbanks (EEUU), dice que demostrar que tecnologías de este tipo funcionan de forma adecuada es crucial para la industria comercial de los drones en Estados Unidos.

Resulta viable mantener el dron dentro de la línea visual del piloto mientras se realizan trabajos como inspeccionar puentes o turbinas eólicas y sacar fotos. Pero para que la inspección de grandes instalaciones eólicas o de largas distancias de cableado eléctrico o canalizaciones resulte eficiente, será necesario aflojar la correa. "Realmente no hay mercado para las operaciones que se ejecutan dentro de la línea visual", dice. "Hay mucho en juego".

Precision Hawk es una de cuatro empresas que colabora con la FAA en un programa llamado Pathfinder (Explorador), diseñado para probar tecnologías que podrían permitir un uso más amplio de los drones en Estados Unidos. Las otras son CNN, que investiga la operación de drones en zonas urbanas para operaciones de recopilación de noticias; BNSF, que realiza pruebas de vuelos fuera de la línea visual para la inspección de ferrocarriles; y el contratista federal CACI, que prueba una tecnología para detectar drones que se acerquen demasiado a los aeropuertos.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  2. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  3. Qué es el 'red-teaming' automatizado, el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos