natural user interface
Recently Published Documents


TOTAL DOCUMENTS

146
(FIVE YEARS 24)

H-INDEX

10
(FIVE YEARS 1)

2021 ◽  
Author(s):  
Yi Gao ◽  
Cheng Chang ◽  
Xiaxia Yu ◽  
Pengjin Pang ◽  
Nian Xiong ◽  
...  

AbstractVolume rendering produces informative two-dimensional (2D) images from a 3-dimensional (3D) volume. It highlights the region of interest and facilitates a good comprehension of the entire data set. However, volume rendering faces a few challenges. First, a high-dimensional transfer function is usually required to differentiate the target from its neighboring objects with subtle variance. Unfortunately, designing such a transfer function is a strenuously trial-and-error process. Second, manipulating/visualizing a 3D volume with a traditional 2D input/output device suffers dimensional limitations. To address all the challenges, we design NUI-VR$$^2$$ 2 , a natural user interface-enabled volume rendering system in the virtual reality space. NUI-VR$$^2$$ 2 marries volume rendering and interactive image segmentation. It transforms the original volume into a probability map with image segmentation. A simple linear transfer function will highlight the target well in the probability map. More importantly, we set the entire image segmentation and volume rendering pipeline in an immersive virtual reality environment with a natural user interface. NUI-VR$$^2$$ 2 eliminates the dimensional limitations in manipulating and perceiving 3D volumes and dramatically improves the user experience.


2021 ◽  
Vol 1 ◽  
pp. 761-770
Author(s):  
Nicolas Gio ◽  
Ross Brisco ◽  
Tijana Vuletic

AbstractDrones are becoming more popular within military applications and civil aviation by hobbyists and business. Achieving a natural Human-Drone Interaction (HDI) would enable unskilled drone pilots to take part in the flying of these devices and more generally easy the use of drones. The research within this paper focuses on the design and development of a Natural User Interface (NUI) allowing a user to pilot a drone with body gestures. A Microsoft Kinect was used to capture the user’s body information which was processed by a motion recognition algorithm and converted into commands for the drone. The implementation of a Graphical User Interface (GUI) gives feedback to the user. Visual feedback from the drone’s onboard camera is provided on a screen and an interactive menu controlled by body gestures and allowing the choice of functionalities such as photo and video capture or take-off and landing has been implemented. This research resulted in an efficient and functional system, more instinctive, natural, immersive and fun than piloting using a physical controller, including innovative aspects such as the implementation of additional functionalities to the drone's piloting and control of the flight speed.


2021 ◽  
Author(s):  
Hilary Julien

This project explored the “fun” of youth digital play through a custom built interactive playtool. This research is based in the developmental value of play for children, the changes to youth play that have taken place as interactions have become increasingly digital, and the design benefits of unobtrusive interfaces. Using academic research sources from both paediatric occupational therapists and Human Computer Interaction (HCI) specialists, a variety of parameters were developed to maximize the developmental value and fun of digital play. These parameters created a guideline of design considerations for the target users of children six to nine years old. An open-ended Natural User Interface (NUI) was designed and built that encourages explorative interactions as a method of understanding its use. User testing was then used to establish if the open-ended play was evaluated as more “fun” than more traditional collaborative or competitive gaming.


2021 ◽  
Author(s):  
Hilary Julien

This project explored the “fun” of youth digital play through a custom built interactive playtool. This research is based in the developmental value of play for children, the changes to youth play that have taken place as interactions have become increasingly digital, and the design benefits of unobtrusive interfaces. Using academic research sources from both paediatric occupational therapists and Human Computer Interaction (HCI) specialists, a variety of parameters were developed to maximize the developmental value and fun of digital play. These parameters created a guideline of design considerations for the target users of children six to nine years old. An open-ended Natural User Interface (NUI) was designed and built that encourages explorative interactions as a method of understanding its use. User testing was then used to establish if the open-ended play was evaluated as more “fun” than more traditional collaborative or competitive gaming.


Author(s):  
Tomás Serrano-Ramírez ◽  
Diana Guadalupe Gutiérrez-León ◽  
Arturo Mandujano-Nava ◽  
Yosafat Jetsemaní Sámano-Flores

In this work, an experimental prototype of natural user interface based on Kinect for the tele-operation of a robotic arm, was developed as a technological support to contribute in facing the global crisis of health generated by COVID-19, a dangerous and highly transmissible virus. Until now, it is causing thousands of deaths and growing of contagion rates around the world, involving a serious situation for healthcare personnel that works in hospitals attending infected population. This system was proposed with the aim to control a robotic arm for medical purposes to achieve a quality medical care to COVID-19 patients without risk implications for healthcare workers associated to nosocomial infections due to direct contact with infected patients, contaminated medical equipment, surgical objects and surfaces. The developed prototype is able of being manipulated in real time requiring neither physical controller nor any contact device to carry out its functions, but simply motion or gesture from the user’s arm. It can be applied in areas such as teleoperation, tele-rehabilitation, telehealth nursing, assistive and therapeutic robotic devices, elderly care which are the last tendency in medicine at this time. Kinect V2, the Software Development kit SDK 2.0, Microsoft visual C# and Arduino were used for this purpose.


10.52278/2415 ◽  
2020 ◽  
Author(s):  
Diego Gabriel Alonso

En los últimos años, en combinación con los avances tecnológicos han surgido nuevos paradigmas de interacción con el usuario. Esto ha motivado a la industria a la creación de dispositivos de Interfaz Natural de Usuario (NUI, del inglés Natural User Interface) cada vez más potentes y accesibles. En particular, las cámaras de profundidad han alcanzado grandes niveles de adopción por parte de los usuarios. Entre estos dispositivos se destacan la Microsoft Kinect, la Intel RealSense y el Leap Motion Controller. Este tipo de dispositivos facilitan la adquisición de datos en el Reconocimiento de Actividades Humanas (HAR, del inglés Human Activity Recognition). HAR es un área que tiene por objetivo la identificación automática, dentro de secuencias de imágenes, de actividades realizadas por seres humanos. Entre los diferentes tipos de actividades humanas se encuentran los gestos manuales, es decir, aquellos realizados con las manos. Los gestos manuales pueden ser estáticos o dinámicos, según si presentan movimiento en las secuencias de imágenes. El reconocimiento de gestos manuales permite a los desarrolladores de sistemas de Interacción Humano-Computadora (HCI, del inglés Human-Computer Interaction) crear experiencias e interacciones más inmersivas, naturales e intuitivas. Sin embargo, esta tarea no resulta sencilla. Es por ello que, en la academia se ha abordado esta problemática con el uso de técnicas de aprendizaje de máquina. Tras el análisis del estado del arte actual, se ha identificado que la gran mayoría de los enfoques propuestos no contemplan el reconocimiento de los gestos estáticos y los dinámicos en forma simultánea (enfoques híbridos). Es decir, los enfoques están destinados a reconocer un solo tipo de gestos. Además, dado el contexto de sistemas HCI reales debe tenerse en cuenta también el costo computacional y el consumo de recursos de estos enfoques, con lo cual los enfoques deberían ser livianos. Por otra parte, casi la totalidad de los enfoques presentes en el estado del arte abordan la problemática ubicando las cámaras frente a los usuarios (perspectiva de segunda persona) y no desde la perspectiva de primera persona (FPV, del inglés First-Person View), en la que el usuario posee un dispositivo colocado sobre sí mismo. Esto puede asociarse con que recién en los últimos años han surgido dispositivos relativamente ergonómicos (pequeños, de peso ligero) que permitan considerar una perspectiva FPV viable. En este contexto, en la presente tesis se propone un enfoque liviano para el reconocimiento de gestos híbridos con cámaras de profundidad teniendo en cuenta la perspectiva FPV. El enfoque propuesto consta de 3 grandes componentes. En primer lugar, el de Adquisición de Datos, en el cual se define el dispositivo a utilizar y se recopilan las imágenes y la información de profundidad que es normalizada al rango de valores de 0 a 255 (escala de los canales RGB). En segundo lugar, el de Preprocesamiento, el cual tiene por objetivo hacer que dos secuencias de imágenes con variaciones temporales sean comparables. Para ello, se aplican técnicas de remuestreo y reducción de resolución. Además, en este componente se computa el flujo óptico determinado por las secuencias de imágenes a color que se poseen. En particular, se utiliza el flujo óptico como un nuevo canal de información dadas sus ventajas en lo que respecta a un análisis espacio-temporal de los videos. En tercer lugar, con las secuencias muestreadas y con la información de flujo óptico, se procede al componente Modelo de Aprendizaje Profundo, donde se aplican técnicas de aprendizaje profundo que permiten abordar las etapas de extracción de características y de clasificación. Particularmente, se propone una arquitectura de red convolucional densamente conectada con soporte multi-modal. Cabe destacar que, la fusión de las modalidades no es en etapa temprana ni tardía sino dentro del mismo modelo. De esta manera, se obtiene un modelo end-to-end que obtiene beneficios de los canales de información en forma separada y también conjunta. Los experimentos realizados han mostrado resultados muy alentadores (alcanzando un 90% de exactitud) indicando que la elección de este tipo de arquitecturas permite obtener una gran eficiencia de parámetros así como también de tiempos de predicción. Cabe resaltar que, las pruebas son realizadas sobre un conjunto de datos relevante del área. En base a ello, se analiza el desempeño de la presente propuesta en relación a diferentes escenarios como con variación de iluminación o movimiento de cámara, diferentes tipos de gestos, sensibilidad o sesgo por personas, entre otros.


Sign in / Sign up

Export Citation Format

Share Document