Dile adiós al ratón y saluda a la realidad aumentada, al reconocimiento de voz y al seguimiento geoespacial.
Científicos informáticos de todo el mundo se reunirán en Boston esta semana dentro del evento Computer-Human Interaction 2009, para discutir los últimos avances dentro de las interfaces de ordenador. Coincidiendo con la celebración de este evento, presentamos un recorrido a través de las interfaces pasadas, presentes y futuras más atractivas.
La línea de comandos
La abuelita de todas las interfaces de ordenador es la línea de comandos, que surgió en 1950 como método para controlar los ordenadores de forma más efectiva. Antes de su aparición, los comandos se tenían que introducir en los ordenadores por lotes, normalmente a través de tarjetas perforadas o cintas de papel. Las máquinas de teletipo, que normalmente se usaban para transmitir telegramas, fueron adaptadas para que los usuarios pudieran cambiar los comandos a mitad de un proceso, y recibir una respuesta por parte del ordenador en prácticamente tiempo real.
Los monitores de video permitieron que la información de la línea de comandos se pudiera mostrar más rápidamente. El VT100, una terminal de video creada por Digital Equipment Corporation (DEC) en 1978, aún hoy día es emulado por algunos sistemas operativos modernos como forma de mostrar la línea de comandos.
Las interfaces de usuario gráficas, que surgieron a nivel comercial en los años 80, hicieron que los ordenadores fueran mucho más fáciles de usar, pero la línea de comandos aún ofrece bastante nivel de control y flexibilidad para muchos usuarios expertos.
El ratón
Hoy día es difícil imaginar un ordenador de sobremesa que no tenga al lado a su famoso acompañante: el ratón.
El ratón, desarrollado hace 41 años por Douglas Engelbart en el Instituto de Investigación de Stanford, en California, está unido de manera inseparable al desarrollo de la informática moderna, y también jugó un papel importante en el crecimiento de las interfaces de usuario gráficas. Engelbart hizo una demostración del ratón, así como de otras innovaciones clave como el hipertexto y la colaboración en pantallas compartidas, durante un evento en San Francisco en 1968.
Los primeros ratones para ordenador venían con formas muy diversas, muchas de las cuales no seríamos capaces de reconocer hoy día. Sin embargo, en cuanto los ratones estuvieron disponibles a nivel comercial en los años 80, acabaron por tomar una forma fija. Tres décadas después, y a pesar de unas cuantas modificaciones (incluyendo la pérdida de la cola), el ratón ha sufrido relativamente pocos cambios. Eso no quiere decir que las compañías no hayan querido intentar añadir todo tipo de mejoras, incluyendo un mini joystick y un ventilador de aire para hacer que la mano no sude.
Logitech, por poner un ejemplo, ha vendido más de mil millones de este tipo de dispositivos, pero hay quienes piensan que este dispositivo está a punto de acabar sus días. El auge de otro tipo de interfaces más intuitivas puede que finalmente nos libere de la dependencia hacia el ratón.
La almohadilla táctil
A pesar de la dura competencia por parte de los ratones de bola y joysticks de botón, la almohadilla táctil se ha erigido como la interfaz más popular para los ordenadores portátiles.
En la mayoría de las alfombrillas, el dedo del usuario es detectado mediante las interrupciones del campo eléctrico provocadas por la propia capacitancia del dedo. Este principio ya fue empleado en 1953 por el pionero canadiense de la música electrónica, Hugh Le Caine, para controlar el timbre de los sonidos producidos por uno de sus primeros sintetizadores, apodado el Sackbut.
La almohadilla táctil tiene también importancia como precursora de las pantallas táctiles. Y muchas de las almohadillas que se fabrican hoy día tienen capacidad multi-touch, lo que hace que se amplíe el rango de posibles usos. La primera demostración de una almohadilla multi-touch para un ordenador data de 1984, y fue llevada a cabo por Bill Buxton, que por ese entonces era profesor de diseño e interacción informática en la Universidad de Toronto y ahora también es uno de los principales investigadores en Microsoft.
La pantalla multi-touch
Al hablar de ordenadores con pantalla táctil, la mayoría de la gente piensa en el iPhone de Apple o en el Surface de Microsoft. En realidad, este tipo de tecnología ya tiene un cuarto de siglo de antigüedad, e hizo su debut en los ordenadores HP-150 en 1983. Mucho antes de que los ordenadores de sobremesa pasaran a ser un objeto común en nuestras vidas, los cajeros automáticos usaban pantallas táctiles para permitir que sus clientes, la mayoría sin conocimientos de informática, pudieran usar los ordenadores fácilmente.
Sin embargo, ha sido el iPhone de Apple y su pantalla multi-touch el encargado de hacer que este tipo de interfaz haya visto su potencial renovado. Varios fabricantes de teléfonos móviles ofrecen dispositivos multi-touch en la actualidad, y tanto Windows 7 como las futuras versiones del Macbook de Apple se espera que hagan lo mismo. Las pantallas multi-touch se basan en varias técnicas: detección de la capacitancia, infrarrojos, ondas acústicas de superficie y, más recientemente, detección de presión.
Gracias a este renacer, pronto empezaremos a usar un nuevo léxico de gestos diseñados para que la manipulación de datos y la ejecución de comandos sea más sencilla. De hecho, uno de los retos será encontrar la forma de reproducir alguno de los comandos existentes de forma intuitiva, comenta August de los Reyes, un investigador de experiencias de usuario que trabaja para el Surface de Microsoft.
Reconocimiento de Gestos
Los magnetómetros compactos, los acelerómetros y los giroscopios hacen que sea posible detectar el movimiento de un dispositivo. A usar tanto la Wii de Nintendo como el iPhone, los usuarios pueden controlar los juegos y aplicaciones maniobrando cada uno de estos aparatos en el aire. De forma similar, es posible detener y reproducir música en el móvil Nokia 6600 simplemente dando dos toques con el dedo en el aparato.
Las nuevas aplicaciones para móviles también están empezando a hacerse eco de esta tendencia. Shut Up, por ejemplo, permite a los usuarios de Nokia silenciar sus teléfonos con sólo ponerlos boca abajo. Otra aplicación, llamada nAlertMe, utiliza una palabra clave basada en gestos 3-D para prevenir que el aparato sea robado. El aparato hace sonar una alarma si el usuario no mueve el dispositivo de una forma predeterminada en el aire al encenderlo.
El siguiente paso dentro del reconocimiento de gestos es permitir a los ordenadores que, visualmente, reconozcan mejor los movimientos de la mano y el cuerpo. El Eye de Sony demostró que los movimientos simples se pueden reconocer de forma relativamente fácil. Sin embargo, seguir movimientos en 3-D más complicados y con luz irregular es más difícil. Algunas startup como Xtr3D, con sede en Israel, y Soft Kinetic, en Bélgica, están desarrollando software para dotar de visión a los ordenadores mediante el uso de rayos infrarrojos en juegos que puedan leer el cuerpo entero.
Oblong, una startup localizada en Los Angeles, ha desarrollado un “sistema operativo espacial” que reconoce los comandos hechos a partir de gestos, siempre y cuando el usuario lleve puestos un par de guantes especiales.
Interpretación de resultados basados en la fuerza
Un tipo de investigación conocido como la háptica explora las formas en que la tecnología puede manipular nuestro sentido del tacto. Algunos controladores de videojuegos ya vibran cuando recibimos un impacto en pantalla y, de forma similar, algunos teléfonos celulares también lo hacen cuando los ponemos en modo silencio.
Entre los controladores hápticos más avanzados está el PHANTOM, fabricado por SensAble, con sede en Woburn, Massachussets. Estos dispositivos ya se usan para el diseño 3-D y los entrenamientos médicos—por ejemplo, para permitir que un cirujano lleve a cabo un procedimiento complejo usando un método de simulación que no sólo se vea real, sino que se sienta como real también.
La tecnología háptica también podría añadir próximamente una nueva dimensión a las pantallas táctiles: ayudando a una mejor simulación del acto de hacer clic en un botón cuando se toca un icono. Vincent Hayward, un experto líder en el sector, perteneciente a la Universidad McGill de Montreal, Canadá, ha demostrado cómo generar distintas sensaciones asociadas con iconos distintos en un “botón háptico”. A largo plazo, Hayward cree que incluso será posible usar la háptica para simular la sensación de las texturas en la pantalla.
Reconocimiento de voz
El reconocimiento se voz siempre se ha caracterizado por ser lento, torpe y, la mayoría de las veces, poco preciso. Este tipo de tecnología sólo ha despuntado en aquellas áreas de especialización donde se utilizan subconjuntos del lenguaje restringidos, o en los casos en los que los usuarios están dispuestos a invertir el tiempo necesario para que el sistema reconozca sus voces.
Todo esto está cambiando. A medida que los ordenadores se hacen más potentes y el análisis de algoritmos se hace más inteligente, el reconocimiento de voz sigue mejorando, señala Robert Weidmen, vicepresidente de marketing de Nuance, la firma responsable de Dragon Naturally Speaking.
El año pasado, Google lanzó una aplicación para la búsqueda de voz en el iPhone, mediante la que se permite que los usuarios hagan búsquedas sin necesidad de apretar ningún botón. Otra aplicación para el iPhone llamada Vlingo se puede usar para controlar el aparato de otra forma: además de hacer búsquedas, el usuario puede dictar mensajes y correos electrónicos, o actualizar su estatus en Facebook con sólo un par de comandos. En el pasado el reto consistía en la falta de potencia de proceso que tenían los teléfonos móviles. Con las altas velocidades de transferencia de datos que tienen estos teléfonos hoy día, es posible usar servidores remotos para que sean ellos los que lleven a cabo dichos procesos.
Realidad aumentada
Una de las interfaces de reciente aparición y más atractivas es la de realidad aumentada, un método que fusiona la información virtual con la del mundo real.
Las interfaces de realidad aumentada más recientes requerían instalar aparatosos equipos para el reconocimiento del movimiento y los gráficos generados por ordenador. Hoy día, los teléfonos con procesadores y sensores de alta capacidad y rendimiento son capaces de acercar esta tecnología al alcance de los usuarios de a pie.
Algunos ejemplos de realidad aumentada son la Aplicación Móvil para Realidad Aumentada de Nokia (MARA en sus siglas en inglés) y Wikitude, una aplicación desarrollada para el sistema operativo para móviles Android de Google. Ambas permiten que el usuario vea el mundo real a través de la pantalla de la cámara pero añadiendo anotaciones virtuales y pestañas en la parte superior. Con MARA, estos datos virtuales son generados en unos puntos de interés almacenados en la aplicación para navegación por satélite NavTeq. Wikitude, como su propio nombre indica, recibe la información desde Wikipedia.
Estas aplicaciones funcionan con los datos que les llegan desde una multitud de sensores: los receptores de GPS se encargan de localizar la posición exacta de la información, los compases digitales determinan en qué dirección apunta el aparato, y los magnetómetros o acelerómetros calculan su orientación. Un proyecto llamado Nokia Image Space lleva toda esta tecnología un paso más allá y permite a los usuarios grabar sus experiencias—imágenes, video, sonidos—en un lugar determinado, para que otros usuarios puedan reproducir dichas experiencias más tarde en el mismo lugar.
Interfaces espaciales
Además de formar parte de la realidad aumentada, los receptores de GPS que muchos teléfonos llevan incorporados en la actualidad pueden seguir el rastro de las personas a nivel geográfico. Esto está generando una serie de nuevos juegos y aplicaciones que te permiten usar tu localización como un dato de entrada más.
La aplicación Latitude de Google, por ejemplo, permite a los usuarios mostrar sus posiciones en un mapa mediante la instalación de un tipo de software en un teléfono con GPS incorporado. Hasta octubre de 2008, más de 3.000 aplicaciones de iPhone tenían incorporada esta capacidad de localización. Una de estas aplicaciones para el iPhone es iNap, que está diseñada para supervisar la posición de una persona y despertarla antes de que pierda el tren o su parada de autobús. La idea para esta aplicación le vino a Jelle Prins, de la firma holandesa de software Moop, a partir de su preocupación por que se pasase de parada en el autobús de camino al aeropuerto. La aplicación se puede conectar a un programa muy popular en Holanda que contiene los horarios de los trenes y automáticamente identifica las paradas del usuario basándose en los trayectos que hayan realizado con anterioridad.
SafetyNet, una aplicación basada en localización y desarrollada para la plataforma Android de Google, permite al usuario definir partes de su ciudad que ellos consideren poco seguras. Si se adentran en una de estas áreas por error, el programa se activa y sonará una alarma y, al agitar rápidamente el teléfono, inmediatamente llamará al teléfono de asistencia local en búsqueda de ayuda.
Interfaces cerebrales
Quizá la interfaz de ordenador definitiva, y de la que aún queda bastante por explorar, sea el control a través de la mente.
En las personas con tipos de parálisis grave se pueden utilizar implantes quirúrgicos con sensores de electroencefalogramas (EEG) que ayudan a detectar la actividad cerebral. A través de terapias de entrenamiento, esta tecnología podría permitir que los pacientes con síndrome de encierro mental (locked-in) pudieran controlar un cursor de ordenador para deletrear mensajes o manejar una silla de ruedas.
Algunas compañías esperan poder usar este mismo tipo de interfaz informática basada en el cerebro (BCI, o brain-computer interface en inglés) en aplicaciones de alcance más generalizado. El mes pasado, la compañía Neurosky, con sede en San José, California, anunció el lanzamiento de unos auriculares para juegos con Bluetooth diseñados para monitorizar la actividad de EEG simple. La idea es que los jugadores puedan conseguir poderes especiales en función de lo tranquilos que se encuentren.
Más allá de los juegos, la tecnología BCI podría quizá usarse para reducir el estrés y la sobrecarga de información. Un proyecto de BCI denominado Cognitive Cockpit (CogPit) usa la información proveniente de los EEG para intentar reducir la sobrecarga de información que experimentan los pilotos de avión.
Este proyecto, que en principio estaba subvencionado por la Agencia para los Proyectos de Investigación Avanzada en Defensa del gobierno de los Estados Unidos (DARPA en sus siglas en inglés), está diseñado para discernir cuando un piloto está siendo sobrecargado con información y administrar el modo en que dicha información es suministrada al piloto. Por ejemplo, si se está comunicando de forma verbal con la base, quizá sea más apropiado avisarle de una amenaza inminente mediante el uso de una alarma visual en vez de sonora. “Al hacer una estimación de su estado cognitivo de un momento a otro, deberíamos ser capaces de optimizar el flujo de información que les llega,” señala Blair Dickinson, un investigador que participa en el proyecto con la compañía inglesa de tecnología orientada a la defensa Qinetiq.