viernes, 24 de febrero de 2012

Interfaces basadas en agentes


Conforme el tiempo pasa la tecnología avanza y crece de manera exponencial, es por eso que cada día y conforme pasa el tiempo nuevos paradigmas tecnológicos surgen, se desarrollan y se investigan hasta el punto de tratar de entender el nivel de impacto ya sea benéfico y/ o perjudicial que podría tener en nuestra sociedad.

Cada invención o investigación hecha en el campo de la tecnología se encamina hacia facilitar nuestra vida diaria, dando soluciones o respuestas a problemas que surgen conforme el avance tecnológico se incrementa.

 Uno de los cuestionamientos mas importante en el área de la tecnología ha sido siempre el tratar de encontrar la mejor manera para que el hombre y la maquina interactúen, es decir de que manera el hombre se puede beneficiar de la maquina y de que manera la maquina puede ayudar al hombre a realizar cierta actividad.

Pero que pasaría si la maquina no dependiera del hombre para realizar ciertas actividades, es decir que el usuario le delegara responsabilidades a la maquina, y que esta con un carácter autónomo las realizara, tomando decisiones y teniendo un cierto sentido de inteligencia.

La idea antes mencionada no esta lejos de querer lograrse ya que por varios años se han dedicado investigaciones para tratar de incorporar inteligencia  a las maquinas, es decir proporcionándoles con una inteligencia artificial.

El termino inteligencia artificial en el área de ciencias de la computación se define como la inteligencia no natural en agentes racionales no vivos.  John McCarthy ganador del premio Turing en 1971, acuño el termino de Inteligencia Artificial en el año 1956, y definió el concepto de IA como: "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.".

En base a estas dos definiciones podemos introducir el concepto de interfaces basadas en agentes, que es un paradigma que se ha cuestionado mucho conforme ha pasado el tiempo, la idea esencial de utilizar agentes como medio de interacción, es la capacidad de contar con  entidades no vivas autónomas dotadas con inteligencia artificial para la realización de tareas.

Estas tareas pueden ser de diferentes naturalezas, es decir los agentes no se limitan a una tarea en específico, un usuario puede hacer uso de estos agentes de acuerdo a su conveniencia, ya que es posible generar agentes para casi cualquier tarea.

Existe una taxonomía de agentes propuesta por Alfredo Sánchez en 1997 en un documento titulado “A taxonomy of Agents”[1], donde presenta un amplia variedad de agentes con propósitos específicos, que van desde los agentes dirigidos a tareas de control de redes en ambientes distribuidos, hasta agentes encargados de recopilación de información, en dicho documento se presenta una clasificación clara sobre los diferentes agentes que existen y del propósito que tiene cada agente.

En base a esta breve introducción  podemos empezar una breve discusión en base a que tan benéfico o perjudicial es delegar tareas a un agente, cabe recalcar el hecho de que no porque se diga que un agente posee un cierta grado de inteligencia artificial quiere decir que dicha IA se asemeje o si quiera se acerca a la inteligencia humana.

La raza humana siempre se ha caracterizado por cometer errores, cada aprendizaje nuevo que obtenemos es producto de un error, es decir cada error que cometemos nos deja un aprendizaje de como es o no es la manera correcta de hacer las cosas, algo que seguramente las maquinas pueden replicar pero nunca imitar.

Por otro lado como se menciono antes, el avance tecnológico que se ha dado a través de los años, a manipulado de una manera dramática como los usuarios ven y perciben la inteligencia en las cosas [2], es decir de como los usuarios percibimos y catalogamos a una entidad como inteligente o no inteligente.

Sin embargo las tecnologías de información y comunicación pueden ser desarrolladas para que los usuarios actuemos de forma inteligente [2], es decir la manera en la cual ellas interactúan con nosotros pueden propiciar que no cometamos tantos errores.

De igual manera dichos agentes nos pueden sugerir cursos de acción en base a la toma de decisiones en distintas situaciones, de las cuales podemos hacer caso o no, sin embargo existe un estudio de Lila Tkayama[3], en donde se exponen ciertos aspectos de la interacción entre agentes y usuarios, en donde podemos observar que la toma de decisiones y el juicio de una persona se ven afectados por la intervención de un agente.

Lo cual desde mi punto de vista genera una critica al uso de agentes para la toma de decisiones, ya que si existe un impacto directo al juicio de una persona en una situación de decisión, dicho impacto generaría un punto negativo en el concepto de ser humano racional y pensate, lo que debilita la capacidad y la confianza de un individuo en el proceso de la toma de decisiones.

Si en cambio algo en lo que me encuentro a favor es la justificación que da Pattie Maes en el debate llevado acabo con Ben Shneiderman, en el cual la investigadora justifica el uso de agentes con el propósito de obtener “extra manos”, ”extra oídos”, ”extra cerebros”[4], ya que desde su punto de vista el uso de agentes se limita a delegar tareas que no tienen un gran impacto, y que seguramente no perjudicaran al usuario en su termino racional y pensante.

En conclusión puedo decir que el uso de agentes como método de interacción entre humano computadora representa un gran avance en el campo de las ciencias de la computación, el cual posee mucho potencial, pero a la vez creo que representa un tema delicado en cuanto al propósito que se le quiera dar al agente.

Creo que un agente como método de apoyo para la delegación de tareas es algo eficiente que puede generar un impacto muy positivo en la manera en la cual interactuamos con la tecnología, por otro lado creo que la integración de agentes al proceso de toma de decisiones de una persona es algo para lo cual aun no estamos preparados, ya que como seres humanos creo que todavía nos falta aprender mucho mas, ya que desde mi punto de vista creo que será muy difícil crear agentes que siempre tengan la respuesta correcta o que hagan las cosas a la perfección

Bibliografía


  1. Sánchez, J. A. 1997. A taxonomy of agents. Tech. Rep. ICT-97-1. Laboratory of Interactive and Cooperative Technologies. Universidad de las Américas-Puebla, Cholula, Pue. 72820 México.
  2. Taylor, A. 2009. Machine intelligence. In Proceedings of the 27th international Conference on Human Factors in Computing Systems (Boston, MA, USA, April 04 - 09, 2009). CHI '09. ACM, New York, NY, 2109-2118.
  3. Takayama, L., Groom, V., and Nass, C. 2009. I'm sorry, Dave: i'm afraid i won't do that: social aspects of human-agent conflict. In Proceedings of the 27th international Conference on Human Factors in Computing Systems (Boston, MA, USA, April 04 - 09, 2009). CHI '09. ACM, New York, NY, 2099-2108.
  4. Shneiderman, B., Maes, P.  1997. Debate: Direct manipulation vs. interface agents. Interactions 4(6):42-61, November/December.
  5. Lanier, J. 1995. Agents of alienation. Interactions 2(3), 66-72.

lunes, 16 de enero de 2012

Medios de Entrada: Historia del Mouse


El ratón o mouse  es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en una computadora. Aunque cuando se patentó recibió el nombre de “X-Y Position Indicator for a Display System” o Indicador de posición X-Y para un sistema con pantalla, el más usado nombre de ratón se lo dio el equipo de la Universidad de Stanford durante su desarrollo, ya que su forma y su cable recuerdan a un ratón.
Fue inventado por Douglas Engelbart en el Stanford Research center en 1963, e impulsado por Xerox en 1970, es uno de los más grandes inventos en la ergonomía de computadoras porque libera a los usuarios de la gran proporción de uso de teclado.

Particularmente, el mouse es importante para la interfaz gráfica de usuario porque uno puede simplemente apuntar hacia opciones y objetos y hacer clic en el botón del mouse. Tales aplicaciones se las llama programas point-and-click. El mouse es también útil para programas gráficos que permiten hacer dibujos usándolo como una pluma, lápiz o pincel.

A inicios de los años 60, la Oficina de Investigación Científica de la Fuerza Aérea (AFOSR por sus siglas en inglés) adjudica la contratación del Dr. Doug Engelbart del Instituto de Investigación de Stanford (SRI Stanford Research Institute) por sus investigaciones sobre cómo aumentar el intelecto humano y el potencial de las computadoras para asistir a las personas en la toma de decisiones complejas.

Con la combinación de soporte económico de AFOSR y SRI, el Dr. Engelbart tuvo la posibilidad de desarrollar su investigación a tiempo completo y produjo un reporte titulado: "Augmenting Human Intellect: A Conceptual Framework.". El reporte, publicado en 1962, sirvió como guía en el desarrollo de tecnologías de computación.

El Dr. Engelbart consideraba que la complejidad de los problemas enfrentados por el ser humano había crecido más rápido que la habilidad para resolverlos. Él visualizó la resolución de los problemas utilizando estaciones de trabajo asistidas por computadores para aumentar la toma de decisiones. Los seres humanos incluso deberían adquirir la habilidad de interactuar con la información proyectada usando algún dispositivo para mover un cursor o apuntador en la pantalla.

El mouse que ha quedado como estándar en la industria ha sido el de dos botones principalmente, el izquierdo para ejecutar o seleccionar opciones y el derecho que sirve como acceso directo a un menú dependiendo de la aplicación en que se encuentre. El botón derecho se creó para mejorar la velocidad de los accesos a opciones de la computadora.

El más reciente avance en este tipo de periférico lo ha hecho la compañía Apple con el lanzamiento de su nuevo mouse llamado “Magic Mouse”, el cual se consolida como una superficie multitáctil para el manejo y la interacción del cursor con la interfaz.

En conclusión podemos decir que la invención del mouse revoluciono totalmente la manera en la cual interactuamos con una computadora, estableció la pauta para la creación de la interfaz grafica, así como del inicio de la era del desarrollo tecnológico en el área de IHC y trabajo colaborativo.

Referencias


miércoles, 11 de enero de 2012

Retomando el Blog

he empezado a estudiar la maestría en ciencias de la computación y en breve empezare a postear sobre los diferentes avances e investigaciones en el area de interacción Humano-Computadora (IHC) y Trabajo Cooperativo Asistido por Computadora (CSCW), saludos.

viernes, 29 de abril de 2011

Homunculus: the Vehicle as Augmented Clothes


1. HOMUNCULUS

Homunculus es un proyecto realizado por Yoichi Ochiai y Keisuke Toyoshimasobre de la universidad de Tsukuba, en el cual generar una interacción entre un vehículo automotor y un individuo basado en una comunicación no verbal, es decir en base a las acciones del individuo ya sea gestos, expresiones o movimiento ocular se pretende generar una interacción entre el vehículo y el individuo.

El sistema desarrollado por los autores, se divide en tres etapas de entendimiento las cuales se correlacionan para generar la interacción humano-vehículo. La primera etapa del sistema se denomina sistema de ojos robóticos, la cual reconoce los movimientos oculares del conductor así como el movimiento de la cabeza, la segunda etapa es el sistema de proyección, la cual proyecta el movimiento de la mano del conductor en el camino y la tercera etapa es el sistema de comunicación háptica, la cual le brinda al conductor un sensor háptico sobre objetos que tengan proximidad con el vehículo.

La razón por la cual los autores decidieron desarrollar el sistema, fue dada la difícil y poca comunicación que se logra tener cuando uno se encuentra dentro de un vehículo, ya que como los autores destacan que el intento de un individuo a tener comunicación dentro de un vehículo con otra persona u otro vehículo puede generar situaciones de estrés o en casos extremos generar un accidente, dada la dificultad de obtener dicha comunicación.

2. TRABAJOS RELACIONADOS

Existen una serie de trabajos relacionados con el campo de estudio de este proyecto, algunos de los trabajos más representativos son los de Matsumaru, en el cual el autor presenta una interacción maquina-humano mas no humano maquina, en la cual el sistema es el que indica al individuo que realizar, dichos trabajos se encuentran distribuidos en fases de movimiento ocular, dirección de proyección y proyección.

Otro trabajo representativo en el área, es un proyecto realizado por TOYOTA, en el cual se le indica al auto qué dirección tomar, tomando como referencia las luces emitidas por el vehículo en el camino, es una especie de sustitución de luces direccionales.


3. SISTEMA DE OJOS ROBÓTICOS

El sistema de ojos robóticos, utiliza una serie de cámaras instaladas dentro del vehículo para reconocer el movimiento ocular del conductor y la rotación de la cara para que de esta manera el sistema tenga conocimiento de hacia qué dirección el conductor está dirigiendo su mirada.

Mediante este sistema se pretende que el automóvil reconozca la dirección de la mirada del conductor y mediante unos peculiares ojos instalados en la parte exterior del vehículo estos puedan replicar el movimiento de los ojos del conductor en el exterior.

4. SISTEMA DE PROYECCIÓN

Este sistema está diseñado para que el conductor tenga la habilidad de proyectar el movimiento de su mano en el camino, mediante el uso de una cámara de reconocimiento que reconoce la geometría de la mano y la profundidad del espacio donde se encuentra dicha mano, es posible eliminar de la proyección los objetos que se encuentran dentro del habitáculo para que de este manera la proyección de la imagen en el camino sea únicamente la mano del individuo.

Mediante esta característica  el sistema  pretende generar una interacción con el exterior, ya sea con otro individuo o con otro vehículo mediante la proyección de los gestos realizados por la mano, ya sea un saludo o algún otro gesto que exprese una necesidad de comunicación con el exterior.

5. SISTEMA HÁPTICO

El sistema háptico está diseñado para determinar la distancia a la cual se encuentra un objeto del vehículo, este sistema se encuentra integrado a un conjunto de sensores IR de distancia que permiten mediar la distancia entre el vehículo y los objetos que lo rodena, este sistema interactúa con el conductor mediante unos motores vibradores conectados a la ropa o a la piel del individuo, los cuales generan una vibración cuando un objeto o persona se encuentra en proximidad al vehículo, la vibración de los motores se intensifica cuando la proximidad de los objetos hacia el vehículo aumenta.

Mediante esta característica el sistema pretende generar una interacción con el exterior y los objetos que se encuentran en proximidad con el vehículo para que el individuo este alerta sobre lo que ocurre alrededor del vehículo, lo que provee al conductor una comunicación háptica con su exterior.

6. OTROS TRABAJOS DE LOS AUTORES

Los autores antes mencionados poseen un trabajo similar al expuesto en este resumen, el cual se titula “Indicatable Road: Mixed Reality Navigation System”, en el cual se pretende mediante el uso de un sistema de navegación y un proyector integrado en el vehículo que el sistema mediante una proyección en el camino, te indique la dirección a seguir para llegar a un punto de destino.

7. CONCLUSIÓN

Como se puede apreciar, la interacción propuesta por estos autores es la de facilitar la comunicación y la integración del conductor de un vehículo con su entorno mediante el uso de la comunicación no verbal, la cual es my usada en este tipo de ambientes.
Para concluir podemos decir que el trabajo realizado por Yoichi Ochiai y Keisuke Toyoshimasobre presenta un modelo de interacción nunca antes explorado, es tan solo lo que nos podría deparar en un futuro, creo que el sistema diseñado por estos autores puede tener muchas aplicaciones en un futuro, las cuales pueden traer grandes beneficios para la generación de nuevos paradigmas de interacción o el refinamiento de los ya existentes.

 ENLACES DE INTERES Y VIDEOS