Trend AnalysisLaw & Policy
Deepfake Legislation and Digital Identity Protection: Law Catches Up with Synthetic Media
Deepfake technology can generate hyper-realistic synthetic media of any person without their consentโfor fraud, pornography, political manipulation, or entertainment. Legal frameworks are racing to address harms that existing laws on defamation, copyright, and privacy were not designed for.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
A deepfake video of a CEO announcing false earnings can move stock prices. A deepfake pornographic image of a high school student can destroy a life. A deepfake audio recording of a political leader can incite violence. The technology to produce these artifacts is now accessible to anyone with a consumer-grade computer and free software. The legal frameworks to address the resulting harms are fragmented, inconsistent, and in many jurisdictions, nonexistent.
DeepfakesโAI-generated synthetic media that convincingly replicate a real person's appearance, voice, or mannerismsโrepresent a category of harm that cross-cuts traditional legal domains. They implicate privacy law (unauthorized use of personal data), intellectual property law (unauthorized reproduction of protected works), criminal law (fraud, defamation, harassment), and constitutional law (free expression, political speech). No single legal framework adequately addresses all dimensions.
Why It Matters
The scale of the deepfake problem is accelerating. Detection tools consistently lag behind generation capabilities, meaning that technical solutions alone are insufficient. Legal frameworks must create deterrence, provide remedies for victims, and establish liability for platforms that host and distribute synthetic mediaโwhile preserving legitimate uses of the technology in entertainment, education, satire, and art.
The challenge is particularly acute for non-consensual intimate imagery (NCII), where deepfake pornography disproportionately targets women and girls. Several jurisdictions have enacted specific legislation (the UK's Online Safety Act, various US state laws, South Korea's deepfake sex crime amendments), but enforcement against anonymous online distributors remains difficult.
Civil Liability for Deepfakes
Rezvorovych (2025) analyzes the civil-law dimensions of deepfake content, focusing on two intersecting domains: copyright and personal data protection. The paper argues that existing civil law frameworks contain tools that can be applied to deepfake harms, but that these tools are imperfect and require adaptation.
On copyright: when a deepfake is created using a person's copyrighted image or video (e.g., an actor's performance), copyright infringement claims may apply. However, when the deepfake is generated entirely by AI from training data, the authorship and infringement analysis becomes complex. The AI system is not a legal person capable of infringement, and the user who prompts the generation may not have directly copied any specific copyrighted work.
On personal data: deepfake generation necessarily involves processing biometric data (facial geometry, voice patterns), which under the GDPR and similar frameworks constitutes sensitive personal data requiring explicit consent. The paper argues that this provides a more robust legal basis for civil claims than copyright, because the data protection violation occurs at the moment of generation, regardless of whether the resulting deepfake is distributed.
The paper proposes a combined approach: using data protection law to address unauthorized generation and copyright/personality rights law to address unauthorized distribution.
Child Protection in Virtual Environments
Gunawardana, Ranasinghe, and Fonseka (2025) address a particularly alarming application: the use of deepfake technology and virtual identity theft to target children in the metaverse. The paper examines Sri Lanka's legal framework and finds it severely inadequate for addressing these emerging threats.
Key concerns include:
- Deepfake child sexual abuse material (CSAM): AI-generated imagery of children in sexual situations is not clearly covered by existing CSAM laws in many jurisdictions, which were drafted with reference to images of real children.
- Virtual grooming: Deepfake technology enables perpetrators to assume trusted identities (parents, teachers, peers) in virtual environments, facilitating grooming that existing online safety laws do not specifically address.
- Identity theft of minors: Children's digital identities can be replicated to create fraudulent accounts, access personal networks, or generate compromising material, with limited legal recourse available to the child or their guardians.
The paper calls for specific legislative amendments that explicitly cover AI-generated CSAM, create aggravated offenses for deepfake-enabled child exploitation, and impose platform liability for hosting synthetic media involving minors.
Generative AI and Copyright Frameworks
Kim and Song (2024) take a broader view, examining the legislative implications of generative AI (specifically ChatGPT and similar systems) for copyright law and personal information protection. The paper identifies the fundamental challenge: generative AI systems consume vast quantities of copyrighted works during training and can produce outputs that closely resemble specific works or individuals, but the legal frameworks governing both activities were designed for human creators and human infringers.
The paper examines four legislative questions:
Training data: Is the use of copyrighted works to train AI models fair use, licensed use, or infringement? Jurisdictions differ sharply.
Output ownership: Who owns the copyright in AI-generated contentโthe user, the developer, or no one? Most jurisdictions have not resolved this.
Personality rights: When AI generates content depicting real individuals, whose rights are violated and what remedies are available?
Disclosure obligations: Should AI-generated content be labeled? Several jurisdictions (EU AI Act, China's Deep Synthesis Provisions) now require it.Legislative Approaches Compared
<
| Jurisdiction | Deepfake-Specific Law | NCII Coverage | AI-Generated CSAM | Labeling Requirement |
|---|
| EU | AI Act transparency provisions | Digital Services Act + member state laws | Proposed expansion of child exploitation directives | Yes (AI Act Article 50) |
| US (Federal) | No comprehensive law | TAKE IT DOWN Act (2024) | PROTECT Act (covers virtual CSAM) | No federal requirement |
| US (States) | ~15 states with deepfake laws | ~48 states with NCII laws | Varies | California, Texas require political deepfake disclosure |
| UK | Online Safety Act 2023 | Criminal offense since 2023 | Covered under existing CSAM law | Voluntary codes |
| South Korea | Amended Sexual Violence Prevention Act (2024) | Criminal offense with severe penalties | Covered | Under development |
| China | Deep Synthesis Provisions (2023) | Covered under personality rights | Covered under existing law | Yes, mandatory labeling |
What To Watch
The most significant near-term development is whether jurisdictions adopt deepfake-specific criminal legislation or rely on adapting existing frameworks. The EU's AI Act transparency requirements (Article 50, requiring labeling of AI-generated content) will be tested in practice starting in 2025. In the US, the patchwork of state laws creates both inconsistency and opportunities for forum shopping. The intersection of deepfake regulation with freedom of expressionโparticularly for political satire and artistic expressionโwill generate contentious litigation as enforcement begins.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํน์ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ํ์ ์ ์๋ฌผ์ ์ธ์ฉํ๊ธฐ ์ ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๊ฒ์ฆํด์ผ ํ๋ค.
๋ฅํ์ดํฌ ์
๋ฒ๊ณผ ๋์งํธ ์ ์ ๋ณดํธ: ๋ฒ์ด ํฉ์ฑ ๋ฏธ๋์ด๋ฅผ ๋ฐ๋ผ์ก๋ค
CEO์ ๋ฅํ์ดํฌ ์์์ด ํ์ ์ค์ ์ ๋ฐํํ๋ฉด ์ฃผ๊ฐ๊ฐ ์์ง์ผ ์ ์๋ค. ๊ณ ๋ฑํ์์ ๋ฅํ์ดํฌ ์๋ ์ด๋ฏธ์ง๋ ํ ์ฌ๋์ ์ถ์ ํ๊ดดํ ์ ์๋ค. ์ ์น ์ง๋์์ ๋ฅํ์ดํฌ ์์ฑ ๋
น์์ ํญ๋ ฅ์ ์ ๋ํ ์ ์๋ค. ์ด๋ฌํ ๊ฒฐ๊ณผ๋ฌผ์ ์์ฐํ๋ ๊ธฐ์ ์ ์ด์ ์๋น์์ฉ ์ปดํจํฐ์ ๋ฌด๋ฃ ์ํํธ์จ์ด๋ง ์์ผ๋ฉด ๋๊ตฌ๋ ์ ๊ทผํ ์ ์๋ค. ๊ทธ๋ก ์ธํ ํผํด๋ฅผ ๋ค๋ฃจ๋ ๋ฒ์ ์ฒด๊ณ๋ ํํธํ๋์ด ์๊ณ , ์ผ๊ด์ฑ์ด ์์ผ๋ฉฐ, ๋ง์ ๊ดํ ๊ถ์์ ์์ ์กด์ฌํ์ง ์๋๋ค.
๋ฅํ์ดํฌโ์ค์กด ์ธ๋ฌผ์ ์ธ๋ชจ, ๋ชฉ์๋ฆฌ, ๋๋ ํ๋ ๋ฐฉ์์ ์ค๋๋ ฅ ์๊ฒ ๋ณต์ ํ๋ AI ์์ฑ ํฉ์ฑ ๋ฏธ๋์ดโ๋ ์ ํต์ ์ธ ๋ฒ์ ์์ญ์ ๊ฐ๋ก์ง๋ฅด๋ ํผํด ์ ํ์ ๋ํํ๋ค. ๋ฅํ์ดํฌ๋ ํ๋ผ์ด๋ฒ์๋ฒ(๊ฐ์ธ ๋ฐ์ดํฐ์ ๋ฌด๋จ ์ฌ์ฉ), ์ง์์ฌ์ฐ๊ถ๋ฒ(๋ณดํธ ์ ์๋ฌผ์ ๋ฌด๋จ ๋ณต์ ), ํ์ฌ๋ฒ(์ฌ๊ธฐ, ๋ช
์ํผ์, ๊ดด๋กญํ), ๊ทธ๋ฆฌ๊ณ ํ๋ฒ(ํํ์ ์์ , ์ ์น์ ๋ฐ์ธ)๊ณผ ๋ง๋ฟ์ ์๋ค. ์ด๋ค ๋จ์ผ ๋ฒ์ ์ฒด๊ณ๋ ๋ชจ๋ ์ฐจ์์ ์ถฉ๋ถํ ๋ค๋ฃจ์ง ๋ชปํ๋ค.
์ ์ค์ํ๊ฐ
๋ฅํ์ดํฌ ๋ฌธ์ ์ ๊ท๋ชจ๋ ๊ฐ์ํ๋๊ณ ์๋ค. ํ์ง ๋๊ตฌ๋ ์ง์์ ์ผ๋ก ์์ฑ ๋ฅ๋ ฅ์ ๋ค์ฒ์ง๊ณ ์์ด, ๊ธฐ์ ์ ํด๊ฒฐ์ฑ
๋ง์ผ๋ก๋ ๋ถ์ถฉ๋ถํ๋ค. ๋ฒ์ ์ฒด๊ณ๋ ์ต์ ๋ ฅ์ ์ฐฝ์ถํ๊ณ , ํผํด์์๊ฒ ๊ตฌ์ ์๋จ์ ์ ๊ณตํ๋ฉฐ, ํฉ์ฑ ๋ฏธ๋์ด๋ฅผ ํธ์คํ
ํ๊ณ ๋ฐฐํฌํ๋ ํ๋ซํผ์ ๋ํ ์ฑ
์์ ํ๋ฆฝํด์ผ ํ๋คโ๋์์ ์ํฐํ
์ธ๋จผํธ, ๊ต์ก, ํ์, ์์ ๋ถ์ผ์์์ ๊ธฐ์ ์ ํฉ๋ฒ์ ์ฌ์ฉ์ ๋ณดํธํด์ผ ํ๋ค.
์ด ๋ฌธ์ ๋ ๋น๋์ ์น๋ฐ ์ด๋ฏธ์ง(NCII)์์ ํนํ ์ฌ๊ฐํ๋ฐ, ๋ฅํ์ดํฌ ์๋๋ฌผ์ด ์ฌ์ฑ๊ณผ ์๋
๋ฅผ ๋ถ๊ท ํ์ ์ผ๋ก ํ์ ์ผ๋ก ์ผ๋๋ค. ์ผ๋ถ ๊ดํ ๊ถ์์๋ ํน์ ๋ฒ๋ฅ ์ ์ ์ ํ์ง๋ง(์๊ตญ์ ์จ๋ผ์ธ ์์ ๋ฒ, ๋ค์ํ ๋ฏธ๊ตญ ์ฃผ๋ฒ, ํ๊ตญ์ ๋ฅํ์ดํฌ ์ฑ๋ฒ์ฃ ๊ฐ์ ์), ์ต๋ช
์ ์จ๋ผ์ธ ๋ฐฐํฌ์์ ๋ํ ์งํ์ ์ฌ์ ํ ์ด๋ ต๋ค.
๋ฅํ์ดํฌ์ ๋ํ ๋ฏผ์ฌ ์ฑ
์
Rezvorovych(2025)๋ ๋ฅํ์ดํฌ ์ฝํ
์ธ ์ ๋ฏผ๋ฒ์ ์ฐจ์์ ๋ถ์ํ๋ฉฐ, ์ ์๊ถ๊ณผ ๊ฐ์ธ ๋ฐ์ดํฐ ๋ณดํธ๋ผ๋ ๋ ๊ฐ์ง ๊ต์ฐจ ์์ญ์ ์ด์ ์ ๋ง์ถ๋ค. ์ด ๋
ผ๋ฌธ์ ๊ธฐ์กด ๋ฏผ๋ฒ ์ฒด๊ณ๊ฐ ๋ฅํ์ดํฌ ํผํด์ ์ ์ฉํ ์ ์๋ ๋๊ตฌ๋ฅผ ํฌํจํ๊ณ ์์ง๋ง, ์ด๋ฌํ ๋๊ตฌ๋ค์ ๋ถ์์ ํ๋ฉฐ ์ ์์ด ํ์ํ๋ค๊ณ ์ฃผ์ฅํ๋ค.
์ ์๊ถ์ ๊ดํ์ฌ: ๋ฅํ์ดํฌ๊ฐ ์ธ๋ฌผ์ ์ ์๊ถ์ผ๋ก ๋ณดํธ๋ ์ด๋ฏธ์ง๋ ์์(์: ๋ฐฐ์ฐ์ ์ฐ๊ธฐ)์ ์ฌ์ฉํ์ฌ ์์ฑ๋ ๊ฒฝ์ฐ, ์ ์๊ถ ์นจํด ์ฒญ๊ตฌ๊ฐ ์ ์ฉ๋ ์ ์๋ค. ๊ทธ๋ฌ๋ ๋ฅํ์ดํฌ๊ฐ ํ์ต ๋ฐ์ดํฐ๋ก๋ถํฐ AI์ ์ํด ์์ ํ ์์ฑ๋ ๊ฒฝ์ฐ, ์ ์๊ถ์ ๋ฐ ์นจํด ๋ถ์์ด ๋ณต์กํด์ง๋ค. AI ์์คํ
์ ์นจํด ๋ฅ๋ ฅ์ด ์๋ ๋ฒ์ ์ฃผ์ฒด๊ฐ ์๋๋ฉฐ, ์์ฑ์ ์ ๋ํ ์ฌ์ฉ์๊ฐ ํน์ ์ ์๊ถ ๋ณดํธ ์ ์๋ฌผ์ ์ง์ ๋ณต์ ํ์ง ์์์ ์ ์๋ค.
๊ฐ์ธ ๋ฐ์ดํฐ์ ๊ดํ์ฌ: ๋ฅํ์ดํฌ ์์ฑ์ ํ์ฐ์ ์ผ๋ก ์์ฒด ๋ฐ์ดํฐ(์ผ๊ตด ํํ, ์์ฑ ํจํด)์ ์ฒ๋ฆฌ๋ฅผ ์๋ฐํ๋๋ฐ, GDPR ๋ฐ ์ ์ฌํ ์ฒด๊ณ ํ์์ ์ด๋ ๋ช
์์ ๋์๋ฅผ ์๊ตฌํ๋ ๋ฏผ๊ฐํ ๊ฐ์ธ ๋ฐ์ดํฐ์ ํด๋นํ๋ค. ์ด ๋
ผ๋ฌธ์ ์ด๊ฒ์ด ์ ์๊ถ๋ณด๋ค ๋ฏผ์ฌ ์ฒญ๊ตฌ๋ฅผ ์ํ ๋ ๊ฒฌ๊ณ ํ ๋ฒ์ ๊ทผ๊ฑฐ๋ฅผ ์ ๊ณตํ๋ค๊ณ ์ฃผ์ฅํ๋๋ฐ, ๋ฐ์ดํฐ ๋ณดํธ ์๋ฐ์ด ๊ฒฐ๊ณผ๋ฌผ์ธ ๋ฅํ์ดํฌ์ ๋ฐฐํฌ ์ฌ๋ถ์ ๊ด๊ณ์์ด ์์ฑ ์์ ์ ๋ฐ์ํ๊ธฐ ๋๋ฌธ์ด๋ค.
์ด ๋
ผ๋ฌธ์ ๊ฒฐํฉ๋ ์ ๊ทผ ๋ฐฉ์์ ์ ์ํ๋ค: ๋ฌด๋จ ์์ฑ์ ๋ค๋ฃจ๊ธฐ ์ํด ๋ฐ์ดํฐ ๋ณดํธ๋ฒ์ ์ฌ์ฉํ๊ณ , ๋ฌด๋จ ๋ฐฐํฌ๋ฅผ ๋ค๋ฃจ๊ธฐ ์ํด ์ ์๊ถ/์ธ๊ฒฉ๊ถ๋ฒ์ ์ฌ์ฉํ๋ ๊ฒ์ด๋ค.
๊ฐ์ ํ๊ฒฝ์์์ ์๋ ๋ณดํธ
Gunawardana, Ranasinghe, ๊ทธ๋ฆฌ๊ณ Fonseka(2025)๋ ํนํ ์ฐ๋ ค์ค๋ฌ์ด ์ ์ฉ ์ฌ๋ก๋ฅผ ๋ค๋ฃฌ๋ค: ๋ฉํ๋ฒ์ค์์ ์๋์ ํ์ ์ผ๋ก ์ผ๊ธฐ ์ํ ๋ฅํ์ดํฌ ๊ธฐ์ ๊ณผ ๊ฐ์ ์ ์ ๋์ฉ์ ์ฌ์ฉ์ด๋ค. ์ด ๋
ผ๋ฌธ์ ์ค๋ฆฌ๋์นด์ ๋ฒ์ ์ฒด๊ณ๋ฅผ ๊ฒํ ํ๊ณ , ์ด๋ฌํ ์ ํฅ ์ํ์ ๋ค๋ฃจ๊ธฐ์ ์ฌ๊ฐํ๊ฒ ๋ถ์ ์ ํ๋ค๋ ๊ฒ์ ๋ฐ๊ฒฌํ๋ค.
์ฃผ์ ์ฐ๋ ค ์ฌํญ์ ๋ค์๊ณผ ๊ฐ๋ค:
- ๋ฅํ์ดํฌ ์๋ ์ฑ์ฐฉ์ทจ๋ฌผ(CSAM): AI๋ก ์์ฑ๋ ์๋ ์ฑ์ ์ด๋ฏธ์ง๋ ์ค์ ์๋์ ์ด๋ฏธ์ง๋ฅผ ๊ธฐ์ค์ผ๋ก ์์ฑ๋ ๊ธฐ์กด CSAM ๋ฒ๋ฅ ์ ์ํด ๋ง์ ๋ฒ์ ๊ดํ ๊ถ์์ ๋ช
ํํ๊ฒ ๊ท์ ๋์ง ์๋๋ค.
- ๊ฐ์ ๊ทธ๋ฃจ๋ฐ(virtual grooming): ๋ฅํ์ดํฌ ๊ธฐ์ ์ ๊ฐํด์๊ฐ ๊ฐ์ ํ๊ฒฝ์์ ๋ถ๋ชจ, ๊ต์ฌ, ๋๋ ๋ฑ ์ ๋ขฐํ ์ ์๋ ์ ์์ ์ฌ์นญํ ์ ์๊ฒ ํ์ฌ ๊ทธ๋ฃจ๋ฐ์ ์ฉ์ดํ๊ฒ ํ๋๋ฐ, ๊ธฐ์กด ์จ๋ผ์ธ ์์ ๋ฒ๋ฅ ์ ์ด๋ฅผ ๊ตฌ์ฒด์ ์ผ๋ก ๋ค๋ฃจ์ง ์๋๋ค.
- ๋ฏธ์ฑ๋
์ ์ ์ ๋์ฉ: ์๋์ ๋์งํธ ์ ์์ ๋ณต์ ํ์ฌ ์ฌ๊ธฐ์ฑ ๊ณ์ ์ ์์ฑํ๊ฑฐ๋, ๊ฐ์ธ ๋คํธ์ํฌ์ ์ ๊ทผํ๊ฑฐ๋, ํํ์ ์ธ ์๋ฃ๋ฅผ ์์ฑํ๋ ๋ฐ ์
์ฉ๋ ์ ์์ผ๋, ์๋ ๋๋ ๋ณดํธ์๊ฐ ์ทจํ ์ ์๋ ๋ฒ์ ์๋จ์ ์ ํ์ ์ด๋ค.
ํด๋น ๋
ผ๋ฌธ์ AI๋ก ์์ฑ๋ CSAM์ ๋ช
์์ ์ผ๋ก ํฌ๊ดํ๊ณ , ๋ฅํ์ดํฌ๋ฅผ ์ด์ฉํ ์๋ ์ฐฉ์ทจ์ ๋ํ ๊ฐ์ค ์ฒ๋ฒ ๊ท์ ์ ์ ์คํ๋ฉฐ, ๋ฏธ์ฑ๋
์๊ฐ ํฌํจ๋ ํฉ์ฑ ๋ฏธ๋์ด ํธ์คํ
์ ๋ํ ํ๋ซํผ ์ฑ
์์ ๋ถ๊ณผํ๋ ๊ตฌ์ฒด์ ์ธ ์
๋ฒ ๊ฐ์ ์ ์ด๊ตฌํ๋ค.
์์ฑํ AI์ ์ ์๊ถ ์ฒด๊ณ
Kim๊ณผ Song(2024)์ ๋ณด๋ค ํญ๋์ ์๊ฐ์์ ์์ฑํ AI(๊ตฌ์ฒด์ ์ผ๋ก ChatGPT ๋ฐ ์ ์ฌ ์์คํ
)๊ฐ ์ ์๊ถ๋ฒ๊ณผ ๊ฐ์ธ์ ๋ณด ๋ณดํธ์ ๋ฏธ์น๋ ์
๋ฒ์ ํจ์๋ฅผ ๊ฒํ ํ๋ค. ํด๋น ๋
ผ๋ฌธ์ ๊ทผ๋ณธ์ ์ธ ๊ณผ์ ๋ฅผ ์ง์ ํ๋ค. ์์ฑํ AI ์์คํ
์ ํ์ต ๊ณผ์ ์์ ๋ฐฉ๋ํ ์์ ์ ์๋ฌผ์ ์๋นํ๊ณ , ํน์ ์ ์๋ฌผ์ด๋ ๊ฐ์ธ๊ณผ ๋งค์ฐ ์ ์ฌํ ๊ฒฐ๊ณผ๋ฌผ์ ์์ฑํ ์ ์์ง๋ง, ๋ ํ๋ ๋ชจ๋๋ฅผ ๊ท์จํ๋ ๋ฒ์ ์ฒด๊ณ๋ ์ธ๊ฐ ์ฐฝ์์์ ์ธ๊ฐ ์นจํด์๋ฅผ ์ ์ ๋ก ์ค๊ณ๋์๋ค๋ ์ ์ด๋ค.
ํด๋น ๋
ผ๋ฌธ์ ๋ค ๊ฐ์ง ์
๋ฒ์ ์ง๋ฌธ์ ๊ฒํ ํ๋ค.
ํ์ต ๋ฐ์ดํฐ: AI ๋ชจ๋ธ ํ์ต์ ์ ์๋ฌผ์ ์ฌ์ฉํ๋ ๊ฒ์ ๊ณต์ ์ด์ฉ(fair use)์ธ๊ฐ, ํ๋ฝ๋ ์ด์ฉ์ธ๊ฐ, ์๋๋ฉด ์นจํด์ธ๊ฐ? ๋ฒ์ ๊ดํ ๊ถ๋ง๋ค ๊ฒฌํด๊ฐ ํฌ๊ฒ ๋ค๋ฅด๋ค.
๊ฒฐ๊ณผ๋ฌผ ์์ ๊ถ: AI๊ฐ ์์ฑํ ์ฝํ
์ธ ์ ์ ์๊ถ์ ๋๊ตฌ์๊ฒ ๊ท์๋๋๊ฐโ์ด์ฉ์์ธ๊ฐ, ๊ฐ๋ฐ์์ธ๊ฐ, ์๋๋ฉด ๋๊ตฌ๋ ์๋๊ฐ? ๋๋ถ๋ถ์ ๋ฒ์ ๊ดํ ๊ถ์์ ์์ง ํด๊ฒฐ๋์ง ์์ ๋ฌธ์ ์ด๋ค.
ํผ๋ธ๋ฆฌ์ํฐ๊ถ(personality rights): AI๊ฐ ์ค์ ์ธ๋ฌผ์ ๋ฌ์ฌํ ์ฝํ
์ธ ๋ฅผ ์์ฑํ๋ ๊ฒฝ์ฐ, ๋๊ตฌ์ ๊ถ๋ฆฌ๊ฐ ์นจํด๋๋ฉฐ ์ด๋ค ๊ตฌ์ ์๋จ์ด ๊ฐ๋ฅํ๊ฐ?
๊ณต๊ฐ ์๋ฌด: AI ์์ฑ ์ฝํ
์ธ ์๋ ํ์๊ฐ ์๋ฌดํ๋์ด์ผ ํ๋๊ฐ? ์ผ๋ถ ๋ฒ์ ๊ดํ ๊ถ(EU AI Act, ์ค๊ตญ์ ์ฌ์ธตํฉ์ฑ ๊ท์ )์์๋ ํ์ฌ ์ด๋ฅผ ์๊ตฌํ๊ณ ์๋ค.์
๋ฒ ์ ๊ทผ ๋ฐฉ์ ๋น๊ต
<
| ๋ฒ์ ๊ดํ ๊ถ | ๋ฅํ์ดํฌ ํน์ ๋ฒ๋ฅ | NCII ์ ์ฉ ๋ฒ์ | AI ์์ฑ CSAM | ํ์ ์๋ฌด |
|---|
| EU | AI Act ํฌ๋ช
์ฑ ์กฐํญ | ๋์งํธ์๋น์ค๋ฒ(Digital Services Act) + ํ์๊ตญ ๋ฒ๋ฅ | ์๋ ์ฐฉ์ทจ ์ง์นจ ํ๋ ์ ์ | ์์(AI Act ์ 50์กฐ) |
| ๋ฏธ๊ตญ(์ฐ๋ฐฉ) | ํฌ๊ด์ ๋ฒ๋ฅ ์์ | TAKE IT DOWN Act(2024) | PROTECT Act(๊ฐ์ CSAM ์ ์ฉ) | ์ฐ๋ฐฉ ์ฐจ์ ์๊ฑด ์์ |
| ๋ฏธ๊ตญ(์ฃผ) | ์ฝ 15๊ฐ ์ฃผ์ ๋ฅํ์ดํฌ ๊ด๋ จ ๋ฒ๋ฅ ์กด์ฌ | ์ฝ 48๊ฐ ์ฃผ์ NCII ๊ด๋ จ ๋ฒ๋ฅ ์กด์ฌ | ์ฃผ๋ง๋ค ์์ด | ์บ๋ฆฌํฌ๋์, ํ
์ฌ์ค๋ ์ ์น์ ๋ฅํ์ดํฌ ๊ณต๊ฐ ์๋ฌดํ |
| ์๊ตญ | ์จ๋ผ์ธ์์ ๋ฒ(Online Safety Act) 2023 | 2023๋
๋ถํฐ ํ์ฌ ์ฒ๋ฒ ๋์ | ๊ธฐ์กด CSAM ๋ฒ๋ฅ ์ ์ฉ | ์์จ ๊ท์ฝ |
| ๋ํ๋ฏผ๊ตญ | ๊ฐ์ ์ฑํญ๋ ฅ๋ฐฉ์ง๋ฒ(2024) | ์คํ์ ํฌํจํ ํ์ฌ ์ฒ๋ฒ ๋์ | ์ ์ฉ๋จ | ๊ฐ๋ฐ ์ค |
| ์ค๊ตญ | ์ฌ์ธตํฉ์ฑ ๊ท์ (Deep Synthesis Provisions)(2023) | ํผ๋ธ๋ฆฌ์ํฐ๊ถ์ผ๋ก ์ ์ฉ | ๊ธฐ์กด ๋ฒ๋ฅ ์ ์ฉ | ์์, ํ์ ์๋ฌดํ |
์ฃผ๋ชฉํด์ผ ํ ์ฌํญ
๊ฐ์ฅ ์ค์ํ ๋จ๊ธฐ์ ๋ํฅ์ ๊ฐ ๋ฒ์ ๊ดํ ๊ถ์ด ๋ฅํ์ดํฌ ํน์ ํ์ฌ ์
๋ฒ์ ์ฑํํ ๊ฒ์ธ์ง, ์๋๋ฉด ๊ธฐ์กด ์ฒด๊ณ์ ์ ์ฉ ํ๋์ ์์กดํ ๊ฒ์ธ์ง ์ฌ๋ถ์ด๋ค. EU AI Act์ ํฌ๋ช
์ฑ ์๊ฑด(์ 50์กฐ, AI ์์ฑ ์ฝํ
์ธ ํ์ ์๋ฌด)์ 2025๋
๋ถํฐ ์ค์ ์ ์ฉ๋ ์์ ์ด๋ค. ๋ฏธ๊ตญ์์๋ ์ฃผ(ๅท) ๋ฒ๋ฅ ์ ๋ถ์ ์ ์งํฉ์ด ์ผ๊ด์ฑ ๋ถ์ฌ์ ๋ฒ์ ๊ดํ ๊ถ ์ผํ(forum shopping)์ ์ฌ์ง๋ฅผ ๋์์ ๋ง๋ค์ด ๋ด๊ณ ์๋ค. ๋ฅํ์ดํฌ ๊ท์ ์ ํํ์ ์์ โํนํ ์ ์น์ ํ์ ๋ฐ ์์ ์ ํํโ์ ๊ต์ฐจ ์ง์ ์ ์งํ์ด ์์๋จ์ ๋ฐ๋ผ ๋
ผ์์ ์ธ ์์ก์ ์ผ๊ธฐํ ๊ฒ์ด๋ค.
References (3)
[1] Rezvorovych, K. (2025). Civil-Law Aspects of Using Deepfake Content in the Context of Copyright and Personal Data Protection.
[2] Gunawardana, M., Ranasinghe, J., & Fonseka, C.L.Y.L. (2025). Impact of Deepfake Technology and Virtual Identity Theft in the Metaverse on Child Protection in Sri Lanka. ICCP Proceedings.
[3] Kim, S., & Song, I.-B. (2024). Legislative review of the use and regulation of generative artificial intelligence ChatGPT: Focusing on copyright law and personal information protection legislation. KABL, 49, 263.