DanXeReflect: Interacting with the Spatio-Temporal Past Movements for Embodied, Reflective Choreographic Collaboration
ACM CHI Conference on Human Factors in Computing Systems (2026)

Summary
DanXeReflect is an XR system that reconstructs rehearsal videos as interactive 3D avatars, allowing dancers and choreographers to reflect on choreography through embodied interaction. The system supports pose-based searching, embodied revision, and body-anchored annotations. A user study with dancers demonstrates how embodied XR interaction enables richer asynchronous reflection and collaboration beyond traditional video-based review.
Project Team
Hyunju Kim, François Guimbretière, Bokyung Lee

DanXeReflect는 리허설 영상을 XR 기반 3D 아바타로 재구성하여 안무가와 무용수가 **몸 기반 상호작용으로 안무를 반성(reflection)**할 수 있도록 지원하는 시스템이다. 사용자는 포즈 재현을 통해 특정 동작을 검색하고, 자신의 몸으로 수정안을 시연하며, 신체 부위에 직접 연결된 annotation을 남길 수 있다. 사용자 연구 결과 이러한 embodied interaction은 기존 2D 영상 리뷰보다 비동기 협업과 창의적 피드백 교환을 더 효과적으로 지원하는 것으로 나타났다.