Trend AnalysisArts & Design
Dance Notation and Motion Capture Technology: Digitizing the Ephemeral Art
Dance is the most ephemeral of art formsโit exists only in the moment of performance. Motion capture and AI are now creating precise digital records of dance movement, enabling analysis, preservation, and new forms of choreographic creation that were previously impossible.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
Why It Matters
Dance has a notation problem. Unlike music, which has had precise written notation for centuries, dance lacks a universally adopted system for recording movement. Labanotation and Benesh Movement Notation exist but are used by a tiny fraction of dance practitioners, requiring years of specialized training to read and write. The consequence is that the vast majority of choreographic work exists only in the bodies and memories of dancersโwhen they retire or die, that knowledge is lost.
Motion capture technology offers a fundamentally different solution: recording the three-dimensional kinematics of dance movement with millimeter precision. Combined with AI-powered analysis, motion capture can not only record dances but analyze their structural properties, compare movement styles across traditions, identify technical errors in training, and even generate new choreography. For an art form that has always been defined by its transience, this represents a paradigm shift.
The Science / The Practice
AI-Enhanced Motion Capture Analysis
Setia et al. (2025) provide a comprehensive review of how AI combined with motion capture is transforming dance performance analysis. The paper surveys both marker-based optical systems (high precision, expensive, studio-bound) and markerless systems (lower precision, portable, real-world applicable). The integration of AI adds a layer that raw motion capture data lacks: semantic understanding. AI can classify movement types, detect stylistic characteristics, identify deviations from a reference performance, and assess biomechanical risk. This transforms motion capture from a recording tool into an analytical instrument.
Agata and Kirui (2025) examine the evolution of digital dance in Kenya, exploring how motion capture and avatar technology intersect with cultural dance preservation and social media choreography. Their study reveals a bidirectional influence: digital technologies enable the preservation of traditional Kenyan dances, while viral social media choreography creates new dance forms that are natively digital. The avatar dimension is particularly interestingโwhen a dancer's movements drive a digital character, the performance becomes detached from the dancer's physical appearance, creating new possibilities for expression and identity.
Real-Time Analysis for Dance Training
Zeng and Zhao (2024), with 1 citation, develop a street dance movement analysis and optimization system using real-time motion capture. The practical application is dance training: the system captures a student's movements in real-time, compares them to reference performances, and provides immediate feedback on timing, positioning, and body mechanics. This approach addresses a persistent challenge in dance educationโthe difficulty of providing precise, objective movement feedback when an instructor can only observe from one angle at normal speed.
Mathematical Modeling of Dance Movement
Liu (2024) takes the most technically ambitious approach, applying vector space modeling to classical Chinese dance movements captured through motion capture. By representing dance movements as vectors in a mathematical space, the system enables quantitative comparison of movement characteristics across performers, styles, and historical periods. The TrignoIM sensor system used in the study captures joint angles, velocities, and accelerations, creating a rich mathematical description of movement that can be analyzed computationally. This approach bridges the gap between dance scholarship (traditionally qualitative) and computational analysis (quantitative).
Motion Capture Technologies for Dance
<
| Technology | Precision | Portability | Cost | Best For |
|---|
| Optical marker-based | Very high (sub-mm) | Low (studio only) | High | Research, archival |
| Markerless vision (AI) | Moderate | High | Low | Training, field recording |
| IMU sensors (Liu) | High (joint-level) | High | Moderate | Detailed biomechanical analysis |
| Real-time systems (Zeng & Zhao) | Moderate-high | Moderate | Moderate | Live feedback, training |
| Depth cameras | Moderate | High | Low | Quick capture, social media |
What To Watch
The democratization of motion capture through smartphone-based body tracking (enabled by Apple ARKit, Google MediaPipe, and similar frameworks) will make dance recording accessible to anyone with a phone. Watch for the development of standardized dance movement databases that enable cross-cultural comparison of movement vocabularies, and for the integration of generative AI with motion capture to create AI choreography systems that can generate new dances in specified styles. The ethical dimensionโwho owns a digitized dance, especially when it captures indigenous or traditional movementโwill become increasingly important as motion capture archives grow.
Explore related work through ORAA ResearchBrain.
์ ์ค์ํ๊ฐ
๋ฌด์ฉ์ ๊ธฐ๋ณด(notation) ๋ฌธ์ ๋ฅผ ์๊ณ ์๋ค. ์๋ฐฑ ๋
์ ๋ถํฐ ์ ๋ฐํ ๊ธฐ๋ณด ์ฒด๊ณ๋ฅผ ๊ฐ์ถฐ์จ ์์
๊ณผ ๋ฌ๋ฆฌ, ๋ฌด์ฉ์๋ ๋ณดํธ์ ์ผ๋ก ์ฑํ๋ ๋์ ๊ธฐ๋ก ๋ฐฉ์์ด ์๋ค. Labanotation๊ณผ Benesh Movement Notation์ด ์กด์ฌํ์ง๋ง, ์ด๋ฅผ ์ฝ๊ณ ์ฐ๋ ๋ฐ ์๋
๊ฐ์ ์ ๋ฌธ ๊ต์ก์ด ํ์ํ์ฌ ๊ทน์์์ ๋ฌด์ฉ ์ ๋ฌธ๊ฐ๋ง์ด ํ์ฉํ๊ณ ์๋ค. ๊ทธ ๊ฒฐ๊ณผ ๋๋ถ๋ถ์ ์๋ฌด ์์
์ ์ค์ง ๋ฌด์ฉ์์ ๋ชธ๊ณผ ๊ธฐ์ต ์์๋ง ์กด์ฌํ๋ฉฐ, ๊ทธ๋ค์ด ์ํดํ๊ฑฐ๋ ์ธ์์ ๋ ๋๋ฉด ๊ทธ ์ง์๋ ํจ๊ป ์ฌ๋ผ์ง๋ค.
๋ชจ์
์บก์ฒ ๊ธฐ์ ์ ๊ทผ๋ณธ์ ์ผ๋ก ๋ค๋ฅธ ํด๊ฒฐ์ฑ
์ ์ ์ํ๋ค. ๋ฌด์ฉ ๋์์ 3์ฐจ์ ์ด๋ํ(kinematics)์ ๋ฐ๋ฆฌ๋ฏธํฐ ๋จ์์ ์ ๋ฐ๋๋ก ๊ธฐ๋กํ๋ ๊ฒ์ด๋ค. AI ๊ธฐ๋ฐ ๋ถ์๊ณผ ๊ฒฐํฉํ๋ฉด, ๋ชจ์
์บก์ฒ๋ ๋จ์ํ ๋ฌด์ฉ์ ๊ธฐ๋กํ๋ ๊ฒ์ ๋์ด ๋์์ ๊ตฌ์กฐ์ ํน์ฑ์ ๋ถ์ํ๊ณ , ์ ํต ๊ฐ ๋์ ์์์ ๋น๊ตํ๋ฉฐ, ํ๋ จ ์ค ๊ธฐ์ ์ ์ค๋ฅ๋ฅผ ์๋ณํ๊ณ , ์๋ก์ด ์๋ฌด๋ฅผ ์์ฑํ๋ ๊ฒ๊น์ง ๊ฐ๋ฅํ๊ฒ ํ๋ค. ์ธ์ ๋ ์ฐฐ๋์ฑ์ผ๋ก ์ ์๋์ด ์จ ์์ ํ์์ ์์ด, ์ด๋ ํจ๋ฌ๋ค์์ ์ ํ์ ์๋ฏธํ๋ค.
์ฐ๊ตฌ ๋ด์ฉ
AI ๊ฐํ ๋ชจ์
์บก์ฒ ๋ถ์
Setia et al. (2025)์ AI์ ๋ชจ์
์บก์ฒ์ ๊ฒฐํฉ์ด ๋ฌด์ฉ ๊ณต์ฐ ๋ถ์์ ์ด๋ป๊ฒ ๋ณํ์ํค๋์ง์ ๋ํ ํฌ๊ด์ ์ธ ๋ฆฌ๋ทฐ๋ฅผ ์ ๊ณตํ๋ค. ์ด ๋
ผ๋ฌธ์ ๋ง์ปค ๊ธฐ๋ฐ ๊ดํ ์์คํ
(๊ณ ์ ๋ฐ, ๊ณ ๋น์ฉ, ์คํ๋์ค ํ์ )๊ณผ ๋ง์ปค๋ฆฌ์ค ์์คํ
(์๋์ ์ผ๋ก ๋ฎ์ ์ ๋ฐ๋, ํด๋ ๊ฐ๋ฅ, ์ค์ธ๊ณ ์ ์ฉ ๊ฐ๋ฅ) ๋ชจ๋๋ฅผ ๋ค๋ฃจ๊ณ ์๋ค. AI์ ํตํฉ์ ์์ ๋ชจ์
์บก์ฒ ๋ฐ์ดํฐ๊ฐ ๊ฒฐ์ฌํ๊ณ ์๋ ์ธต์, ์ฆ ์๋ฏธ๋ก ์ ์ดํด๋ฅผ ์ถ๊ฐํ๋ค. AI๋ ๋์ ์ ํ์ ๋ถ๋ฅํ๊ณ , ์์์ ํน์ฑ์ ๊ฐ์งํ๋ฉฐ, ๊ธฐ์ค ๊ณต์ฐ์ผ๋ก๋ถํฐ์ ํธ์ฐจ๋ฅผ ์๋ณํ๊ณ , ์์ฒด์ญํ์ ์ํ์ ํ๊ฐํ ์ ์๋ค. ์ด๋ฅผ ํตํด ๋ชจ์
์บก์ฒ๋ ๋จ์ํ ๊ธฐ๋ก ๋๊ตฌ์์ ๋ถ์ ๋๊ตฌ๋ก ๋ณ๋ชจํ๋ค.
๋์งํธ ๋์ค์ ์๋ฐํ ๊ณต์ฐ
Agata and Kirui (2025)๋ ์ผ๋์์์ ๋์งํธ ๋์ค ๋ฐ์ ์์์ ํ๊ตฌํ๋ฉฐ, ๋ชจ์
์บก์ฒ ๋ฐ ์๋ฐํ ๊ธฐ์ ์ด ๋ฌธํ์ ๋ฌด์ฉ ๋ณด์กด ๋ฐ ์์
๋ฏธ๋์ด ์๋ฌด์ ์ด๋ป๊ฒ ๊ต์ฐจํ๋์ง๋ฅผ ์ดํด๋ณธ๋ค. ์ฐ๊ตฌ๋ ์๋ฐฉํฅ ์ํฅ ๊ด๊ณ๋ฅผ ๋ฐํ๋ธ๋ค. ๋์งํธ ๊ธฐ์ ์ ์ผ๋ ์ ํต ๋ฌด์ฉ์ ๋ณด์กด์ ๊ฐ๋ฅํ๊ฒ ํ๋ ๋์์, ์์
๋ฏธ๋์ด์์ ๋ฐ์ด๋ด๋ ์๋ฌด๋ ํ์๋ถํฐ ๋์งํธ์ธ ์๋ก์ด ๋ฌด์ฉ ํ์์ ์ฐฝ์ถํ๋ค. ์๋ฐํ ์ฐจ์์ ํนํ ์ฃผ๋ชฉํ ๋งํ๋ค. ๋ฌด์ฉ์์ ๋์์ด ๋์งํธ ์บ๋ฆญํฐ๋ฅผ ๊ตฌ๋ํ ๋, ๊ณต์ฐ์ ๋ฌด์ฉ์์ ์ ์ฒด์ ์ธํ์ผ๋ก๋ถํฐ ๋ถ๋ฆฌ๋์ด ํํ๊ณผ ์ ์ฒด์ฑ์ ์์ด ์๋ก์ด ๊ฐ๋ฅ์ฑ์ ์ด์ด์ค๋ค.
๋ฌด์ฉ ํ๋ จ์ ์ํ ์ค์๊ฐ ๋ถ์
Zeng and Zhao (2024)๋ ํผ์ธ์ฉ 1ํ๋ก, ์ค์๊ฐ ๋ชจ์
์บก์ฒ๋ฅผ ํ์ฉํ ์คํธ๋ฆฌํธ ๋์ค ๋์ ๋ถ์ ๋ฐ ์ต์ ํ ์์คํ
์ ๊ฐ๋ฐํ์๋ค. ์ค์ง์ ์ธ ์ ์ฉ ๋ถ์ผ๋ ๋ฌด์ฉ ํ๋ จ์ด๋ค. ์ด ์์คํ
์ ํ์์ ๋์์ ์ค์๊ฐ์ผ๋ก ์บก์ฒํ๊ณ ๊ธฐ์ค ๊ณต์ฐ๊ณผ ๋น๊ตํ์ฌ ํ์ด๋ฐ, ์์ธ, ์ ์ฒด ์ญํ์ ๊ดํ ์ฆ๊ฐ์ ์ธ ํผ๋๋ฐฑ์ ์ ๊ณตํ๋ค. ์ด ์ ๊ทผ๋ฒ์ ๋ฌด์ฉ ๊ต์ก์์ ์ง์์ ์ผ๋ก ์ ๊ธฐ๋์ด ์จ ๊ณผ์ , ์ฆ ์ง๋์๊ฐ ์ ์ ์๋์์ ํ ๊ฐ๋๋ก๋ง ๊ด์ฐฐํ ์ ์๋ ํ๊ฒฝ์์ ์ ๋ฐํ๊ณ ๊ฐ๊ด์ ์ธ ๋์ ํผ๋๋ฐฑ์ ์ ๊ณตํ๊ธฐ ์ด๋ ต๋ค๋ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๋ค.
๋ฌด์ฉ ๋์์ ์ํ์ ๋ชจ๋ธ๋ง
Liu (2024)๋ ๊ฐ์ฅ ๊ธฐ์ ์ ์ผ๋ก ์ผ์ฌ ์ฐฌ ์ ๊ทผ๋ฒ์ ์ทจํ๋ฉฐ, ๋ชจ์
์บก์ฒ๋ก ํฌ์ฐฉํ ์ค๊ตญ ๊ณ ์ ๋ฌด์ฉ ๋์์ ๋ฒกํฐ ๊ณต๊ฐ ๋ชจ๋ธ๋ง์ ์ ์ฉํ๋ค. ๋ฌด์ฉ ๋์์ ์ํ์ ๊ณต๊ฐ์์์ ๋ฒกํฐ๋ก ํํํจ์ผ๋ก์จ, ์ด ์์คํ
์ ๊ณต์ฐ์, ์์, ์ญ์ฌ์ ์๊ธฐ์ ๊ฑธ์ณ ๋์ ํน์ฑ์ ์ ๋์ ๋น๊ต๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ๋ค. ์ฐ๊ตฌ์์ ์ฌ์ฉ๋ TrignoIM ์ผ์ ์์คํ
์ ๊ด์ ๊ฐ๋, ์๋, ๊ฐ์๋๋ฅผ ์บก์ฒํ์ฌ ๊ณ์ฐ์ ์ผ๋ก ๋ถ์ ๊ฐ๋ฅํ ํ๋ถํ ์ํ์ ๋์ ๊ธฐ์ (่จ่ฟฐ)์ ์์ฑํ๋ค. ์ด ์ ๊ทผ๋ฒ์ ์ ํต์ ์ผ๋ก ์ ์ฑ์ ์ด์๋ ๋ฌด์ฉ ์ฐ๊ตฌ์ ์ ๋์ ์ธ ๊ณ์ฐ ๋ถ์ ์ฌ์ด์ ๊ฐ๊ทน์ ๋ฉ์ด๋ค.
๋ฌด์ฉ์ ์ํ ๋ชจ์
์บก์ฒ ๊ธฐ์ ๋น๊ต
<
| ๊ธฐ์ | ์ ๋ฐ๋ | ํด๋์ฑ | ๋น์ฉ | ์ต์ ์ฉ๋ |
|---|
| ๊ดํ ๋ง์ปค ๊ธฐ๋ฐ | ๋งค์ฐ ๋์ (์๋ธ๋ฐ๋ฆฌ๋ฏธํฐ) | ๋ฎ์ (์คํ๋์ค ์ ์ฉ) | ๋์ | ์ฐ๊ตฌ, ๊ธฐ๋ก ๋ณด์กด |
| ๋ง์ปค๋ฆฌ์ค ๋น์ (AI) | ์ค๊ฐ | ๋์ | ๋ฎ์ | ํ๋ จ, ํ์ฅ ๊ธฐ๋ก |
| IMU ์ผ์ (Liu) | ๋์ (๊ด์ ์์ค) | ๋์ | ์ค๊ฐ | ์ ๋ฐ ์์ฒด์ญํ ๋ถ์ |
| ์ค์๊ฐ ์์คํ
(Zeng & Zhao) | ์ค๊ฐ~๋์ | ์ค๊ฐ | ์ค๊ฐ | ์ค์๊ฐ ํผ๋๋ฐฑ, ํ๋ จ |
| ๋์ค ์นด๋ฉ๋ผ | ์ค๊ฐ | ๋์ | ๋ฎ์ | ๋น ๋ฅธ ์บก์ฒ, ์์
๋ฏธ๋์ด |
์ฃผ๋ชฉํ ๋ํฅ
Apple ARKit, Google MediaPipe ๋ฑ์ ํ๋ ์์ํฌ๋ฅผ ํตํด ๊ฐ๋ฅํด์ง ์ค๋งํธํฐ ๊ธฐ๋ฐ ์ ์ฒด ์ถ์ ์ผ๋ก ๋ชจ์
์บก์ฒ๊ฐ ๋์คํ๋จ์ ๋ฐ๋ผ, ๋ฌด์ฉ ๊ธฐ๋ก์ ์ค๋งํธํฐ์ ๊ฐ์ง ๋๊ตฌ์๊ฒ๋ ์ ๊ทผ ๊ฐ๋ฅํด์ง ๊ฒ์ด๋ค. ๋์ ์ดํ์ ๊ต์ฐจ ๋ฌธํ์ ๋น๊ต๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ๋ ํ์คํ๋ ๋ฌด์ฉ ๋์ ๋ฐ์ดํฐ๋ฒ ์ด์ค์ ๊ฐ๋ฐ, ๊ทธ๋ฆฌ๊ณ ์ง์ ๋ ์์์ผ๋ก ์๋ก์ด ๋ฌด์ฉ์ ์์ฑํ๋ AI ์๋ฌด ์์คํ
์ ๋ง๋ค๊ธฐ ์ํ ์์ฑํ AI์ ๋ชจ์
์บก์ฒ์ ํตํฉ์ ์ฃผ๋ชฉํ ํ์๊ฐ ์๋ค. ๋ชจ์
์บก์ฒ ์์นด์ด๋ธ๊ฐ ์ฑ์ฅํจ์ ๋ฐ๋ผ, ํนํ ํ ์ฐฉ ๋๋ ์ ํต ๋์์ ์บก์ฒํ๋ ๊ฒฝ์ฐ ๋์งํธํ๋ ๋ฌด์ฉ์ ์ ์๊ถ ๊ท์ ๋ฌธ์ ๋ผ๋ ์ค๋ฆฌ์ ์ฐจ์์ด ์ ์ ๋ ์ค์ํด์ง ๊ฒ์ด๋ค.
๊ด๋ จ ์ฐ๊ตฌ๋ ORAA ResearchBrain์ ํตํด ํ์ํ ์ ์๋ค.
References (4)
[1] Setia, N., Singh, A., & Dhingra, L. (2025). Motion Capture and AI in Dance Performance Analysis. ShodhKosh.
[2] Agata, F., & Kirui, A. K. (2025). The Evolution of Digital Dance: Choreography in the Age of Motion Capture and Avatars, a case of Nairobi City County. Journal of Visual and Performing Arts, 3(1).
[3] Zeng, Y., & Zhao, S. (2024). Application of Real-time Motion Capture Technology in Street Dance Movement Analysis and Optimization. Applied Mathematics and Nonlinear Sciences.
[4] Liu, M. (2024). Vector Space Modeling of Classical Chinese Dance Movements Based on Motion Capture Technology. Applied Mathematics and Nonlinear Sciences.