Con algunos cambios de hardware, como un anillo de LED infrarrojo cercano, una Microsoft LifeCam está adaptada para funcionar como una cámara de profundidad. |
Las cámaras de profundidad están ganando rápidamente importancia por su potencial en dispositivos de bolsillo, donde la idea es que si nuestros teléfonos captan todo de los contornos, desde las esquinas a la disposición de su sala de estar, los desarrolladores pueden crear aplicaciones que van desde mejores juegos interactivos a útiles guías para los discapacitados visuales.
Sin embargo, mientras que los esfuerzos como el de Google Proyecto Tango están añadiendo cámaras de profundidad en dispositivos móviles, una nueva investigación de Microsoft muestra que con algunas modificaciones sencillas y técnicas de aprendizaje automático de una cámara del smartphone ordinario o webcam se puede utilizar como una cámara de profundidad 3-D. La idea es hacer que el acceso al desarrollo de aplicaciones en 3D más fácil mediante la reducción de los costos y las barreras técnicas de entrada para este tipo de dispositivos, y para hacer las propias cámaras de profundidad 3-D sin fines de lucro potencial.
Con algunas modificaciones, los investigadores de Microsoft pueden usar cámaras regulares para trazar la profundidad de las manos y los rostros. |
"Es como que giramos la cámara sobre su cabeza", señala Izadi.
El equipo de Microsoft dice que quería usar la intensidad de reflexión de luz infrarroja, algo así como un cruce entre una señal de sonda y una antorcha en una habitación oscura. La luz iría a rebotar en el objeto cercano y volver al sensor con una intensidad correspondiente. Los objetos son brillantes cuando están cerca y se apagan cuando están lejos, intuitivo para nosotros cuando se trata de la luz visible. Pero para el grupo, es necesario entrenar las máquinas (en este caso un smartphone Samsung Galaxy Nexus y una cámara Web Microsoft LifeCam) en esa relación, por lo que la cámara podía determinar que estaba viendo, por ejemplo, una mano grande en la distancia, o un pequeño mano de cerca.
Para este proyecto, los investigadores decidieron centrarse en un solo reto: el modelado de las manos y los rostros humanos, no todos los tipos de objetos y ambientes. Después de la construcción de un conjunto de datos de entrenamiento, que incluyó imágenes de manos, el grupo descubrió que podía medir los movimientos de una persona a una velocidad de 220 cuadros por segundo. En una demostración del grupo se mostró cómo dicho seguimiento se podría utilizar para navegar por un mapa, como por ejemplo al hacer movimientos de agarrar o propagar las manos separadas, o jugar un juego simple, como por ejemplo cortar un plátano volando en el aire.
Si bien los datos de entrenamiento centrados en las caras y las manos son excelentes, el grupo no estaba entrenando las máquinas para reconocer manos o caras, aunque nos gustaría pensar en ello, pero sólo buscan las propiedades de reflexión de la piel. La enorme cantidad de datos de entrenamiento permite a la máquina construir suficientes asociaciones con los puntos de datos en los cuadros para que luego pueda utilizar las propiedades adicionales de la imagen para calcular la profundidad. Microsoft eligió piel ya que tiene tantas implicaciones para navegar en entornos de Xbox y Windows, pero Kohli señala que las técnicas de aprendizaje automático se podrían transferir en cualquier lugar(aplicación).
"La única limitación es el tipo de datos de entrenamiento que se le da", dice. “El enfoque en sí mismo puede ser adaptado para trabajar en cualquier otro escenario."
0 comentarios:
Publicar un comentario
Gracias por tu visita!!