Hand Mesh Generation from RGB Captures of Hand Gestures for XR Applications in Neurosurgical Education
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE credits
Student thesisAlternative title
Generering av Handmodeller från RGB-bilder av Handgester för XR-applikationer i Neurokirurgisk Utbildning (Swedish)
Abstract [en]
The recent growth of Extended Reality (XR) technologies has led to their adoption in various fields, including medicine. Specifically, in the context of neurosurgery, virtual applications can be used to simulate surgical procedures and to provide training environments for residents. In such simulations, the user’s hands are often represented by virtual models to offer guidance and feedback during interaction with virtual surgical tools. The hypothesis that a realistic representation of the user’s hands can contribute to the user’s sense of embodiment and performance in an application for neurosurgical education is explored in this thesis. Starting from pictures of hand gestures performed by nine different subjects, a pipeline was developed to generate hand meshes for both the right and left hand using a statistical approach. Accuracy of the generated hand meshes is evaluated against a state-of-the-art hand model, comparing the vertex positions of both hands. A Mean Per Vertex Position Error of 29.2 mm and 24.9 mm are obtained for the right and left hand, respectively. A user study was also conducted to assess the impact of hand realism on the user’s sense of embodiment and performance when interacting with a virtual surgical tool in a high-precision task. Results suggest that a highly realistic hand representation might not be essential for the user’s sense of embodiment in a virtual environment for neurosurgical education, and that precision in the hand model’s movements might have more priority for the user’s performance. However, the study does not provide sufficient statistical evidence to draw definitive conclusions, highlighting the need for further research in this area.
Abstract [sv]
Den nyligen växande tillväxten av Extended Reality (XR)-teknologier har lett till ökad användning i olika fält, inklusive medicin. Specifikt, inom området för neurokirurgi kan virtuella applikationer användas för att simulera kirurgiska ingrepp och fungera som träningsmiljöer för läkare. I sådana simulationer representeras användarens händer ofta av virtuella modeller för att erbjuda vägledning och feedback under interaktion med virtuella kirurgiska verktyg. Hypotesen att en realistisk representation av användarens händer kan bidra till användarens kroppskännedom och prestanda i ett program för neurokirurgisk utbildning utforskas i denna avhandling. Från bilder av handgesturer utförda av nio olika ämnen utvecklades en process för att generera handmodeller för både höger och vänster hand med hjälp av en statistisk metod. Noggrannheten hos de genererade handmodellerna bedöms mot en state-of-the-art handmodell, genom att jämföra vertikalpositionerna av båda händerna. En Mean Per Vertex Position Error på 29,2 mm respektive 24,9 mm erhålls för höger och vänster hand. En användarstudie genomfördes också för att bedöma inverkan av handens realism på användarens kroppskännedom och prestanda när den interagerar med ett virtuellt kirurgiskt verktyg under en uppgift som kräver hög precision. Resultaten tyder på att en mycket realistisk handrepresentation kanske inte är avgörande för användarens kroppskännedom i ett virtuellt miljö för neurokirurgisk utbildning, och att precisionen i handmodellens rörelser kanske har större prioritet för användarens prestanda. Dock ger studien inte tillräckligt statistiskt bevis för att dra definitiva slutsatser, vilket understryker behovet av ytterligare forskning inom detta område.
Place, publisher, year, edition, pages
2024. , p. 67
Series
TRITA-EECS-EX ; 2024:729
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-359782OAI: oai:DiVA.org:kth-359782DiVA, id: diva2:1936758
External cooperation
ManoMotion
Supervisors
Examiners
2025-02-172025-02-112025-02-17Bibliographically approved