Trend AnalysisLaw & Policy
Platform Liability and Content Moderation Law: The End of Intermediary Immunity?
For three decades, platforms enjoyed broad immunity for user-generated content. The EU's Digital Services Act, national NetzDG-style laws, and mounting political pressure are dismantling this immunityโbut the replacement frameworks raise their own questions about censorship, compliance costs, and global fragmentation.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
Section 230 of the US Communications Decency Act (1996) provided online platforms with a simple bargain: they would not be treated as publishers of content created by their users. This immunity enabled the growth of social media, user-generated content platforms, and the participatory internet. For nearly three decades, it remained largely intact.
That era is ending. The EU's Digital Services Act (DSA), which became fully applicable in February 2024, creates a comprehensive framework of obligations for platforms ranging from transparency reporting to systemic risk assessment. National lawsโGermany's NetzDG, France's Avia Law (partially struck down), Brazil's Marco Civil da Internet amendments, Australia's Online Safety Actโimpose varying content moderation requirements with significant penalties for non-compliance. Even in the US, bipartisan criticism of Section 230 has intensified, though Congressional action remains elusive.
Why It Matters
Platforms are not neutral conduits. Their algorithms amplify, recommend, and curate content in ways that shape public discourse, political participation, and individual behavior. The question is no longer whether platforms should bear some responsibility for the content they host and promote, but how much responsibility, for what types of content, and through what mechanisms.
The stakes involve a genuine tension between competing values. Aggressive content moderation risks suppressing legitimate speech, particularly political dissent and minority viewpoints. Insufficient moderation allows harassment, misinformation, and illegal content to flourish. Every regulatory framework must navigate this tension, and none has found a universally satisfactory balance.
DSA vs. Section 230: A Structural Comparison
Britchenko (2025) provides a comprehensive comparative analysis of the two dominant regulatory models. The contrast is fundamental:
Section 230 provides broad immunity with narrow exceptions (federal criminal law, intellectual property, sex trafficking under FOSTA-SESTA). It does not require platforms to moderate content, and it protects platforms that choose to moderate from liability for their moderation decisions ("Good Samaritan" protection). The result is a system where content moderation is voluntary, governed by platform terms of service rather than legal requirements.
The DSA replaces immunity with conditional liability. Platforms that meet their obligationsโestablishing notice-and-action mechanisms, conducting systemic risk assessments, providing algorithmic transparency, cooperating with national regulatorsโbenefit from a safe harbor. But the safe harbor is contingent on compliance, and non-compliance exposes platforms to fines of up to 6% of global annual turnover.
The paper identifies three critical differences:
Duty structure: Section 230 creates a right (immunity); the DSA creates duties (obligations).
Algorithmic accountability: Section 230 is silent on algorithms; the DSA requires very large platforms to assess and mitigate systemic risks arising from their recommendation systems.
Enforcement: Section 230 is enforced through private litigation (or rather, the absence thereof); the DSA is enforced by Digital Services Coordinators in each EU member state, coordinated by the European Commission.Cross-National Content Moderation Regulations
Santos, Cazzamatta, and Napolitano (2025) employ qualitative comparative analysis to examine five national content moderation regulations: Germany's NetzDG, France's Law No. 2018-1202, Brazil's Resolution No. 23.732/2024, Singapore's POFMA, and Turkey's Law No. 2022-7418. The paper identifies common elements and national variations.
Common elements across all five frameworks include:
- Notice-and-takedown obligations: All require platforms to remove illegal content within specified timeframes upon notification.
- Transparency reporting: All require periodic reports on content moderation activities, volumes, and outcomes.
- Designated contact points: All require platforms to maintain local representatives or contact persons for regulatory communication.
Key variations include:
- Content scope: Germany focuses on hate speech and criminal content; Singapore's POFMA targets false statements of fact; Brazil explicitly addresses AI-generated content.
- Enforcement approach: Germany emphasizes platform-led enforcement; France and Brazil rely more on judicial orders; Singapore and Turkey grant discretionary powers to state authorities.
- Independent oversight: Formalized only in France (Arcom) and Germany (regulated self-regulation). Turkey designates the BTK, but its independence is contested.
- Misinformation definitions: Most jurisdictions adopt vague formulations, creating uncertainty about scope.
Hate Speech and Free Expression
Alkiviadou (2024) addresses the most contentious dimension: the balancing of platform liability for hate speech against the fundamental right to free expression. The paper argues that the rise of social media has bypassed traditional editorial and governmental controls on speech, creating both unprecedented opportunities for democratic participation and unprecedented vectors for hatred.
The paper identifies a critical asymmetry: platforms have strong economic incentives to maximize engagement, and hate speech and outrage generate engagement. Content moderationโto the extent platforms undertake itโis applied inconsistently, with automated systems generating both false positives (suppressing legitimate speech) and false negatives (failing to catch harmful content). Legal mandates to moderate hate speech must therefore contend not only with the definitional challenge (what constitutes "hate speech"?) but also with the enforcement challenge (can platforms reliably identify it at scale?).
Alkiviadou proposes a framework that distinguishes between:
- Clear illegality (direct incitement to violence, CSAM): platforms should face strict liability for failure to remove upon notice.
- Contextual illegality (hate speech whose illegality depends on context, satire, political speech): platforms should face procedural obligations (review within specified timeframes, appeals mechanisms) but not strict liability.
- Harmful but legal (misinformation, conspiracy theories): platforms should face transparency obligations but not content removal mandates.
Regulatory Model Comparison
<
| Feature | US (Section 230) | EU (DSA) | Germany (NetzDG) | Australia (Online Safety Act) |
|---|
| Default position | Immunity | Conditional safe harbor | Obligations with penalties | Obligations with penalties |
| Content scope | N/A (no mandate) | Illegal content + systemic risks | Criminal content (22 categories) | Online harms (broad) |
| Algorithmic duties | None | Risk assessment + mitigation | None specific | Limited |
| Max penalty | N/A | 6% global turnover | EUR 50M | AUD 550K per day (individuals) |
| Oversight body | Courts | Digital Services Coordinators + Commission | Federal Office of Justice | eSafety Commissioner |
What To Watch
The DSA's enforcement will be the defining development. The European Commission has already opened proceedings against X (formerly Twitter) and TikTok for alleged DSA violationsโthe outcomes will establish the practical meaning of the regulation's requirements. In the US, the Supreme Court's decisions in Moody v. NetChoice and NetChoice v. Paxton (addressing state laws that restrict content moderation) will shape the constitutional boundaries of platform regulation. The global trend is unmistakably toward greater platform responsibility, but the form that responsibility takesโtransparency, due diligence, strict liability, or some combinationโremains in flux.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต์ ๋ชฉ์ ์ผ๋ก ํ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ ์๋ฌผ์์ ์ธ์ฉํ๊ธฐ ์ ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ๊ฒ์ฆํด์ผ ํ๋ค.
ํ๋ซํผ ์ฑ
์๊ณผ ์ฝํ
์ธ ์ค์ฌ๋ฒ: ์ค๊ฐ์ ๋ฉด์ฑ
์ ์ข
๋ง์ธ๊ฐ?
1996๋
๋ฏธ๊ตญ ํต์ ํ์๋ฒ(Communications Decency Act)์ ์ 230์กฐ๋ ์จ๋ผ์ธ ํ๋ซํผ์ ๋จ์ํ ๊ฑฐ๋๋ฅผ ์ ๊ณตํ๋ค. ์ฆ, ํ๋ซํผ์ ์ด์ฉ์๊ฐ ์์ฑํ ์ฝํ
์ธ ์ ๊ฒ์์๋ก ์ทจ๊ธ๋์ง ์๋๋ค๋ ๊ฒ์ด๋ค. ์ด ๋ฉด์ฑ
์กฐํญ์ ์์
๋ฏธ๋์ด, ์ฌ์ฉ์ ์์ฑ ์ฝํ
์ธ ํ๋ซํผ, ๊ทธ๋ฆฌ๊ณ ์ฐธ์ฌํ ์ธํฐ๋ท์ ์ฑ์ฅ์ ๊ฐ๋ฅํ๊ฒ ํ๋ค. ๊ฑฐ์ 30๋
๋์ ์ด ์กฐํญ์ ๋์ฒด๋ก ์จ์ ํ ์ ์ง๋์๋ค.
๊ทธ ์๋๊ฐ ๋๋๊ฐ๊ณ ์๋ค. 2024๋
2์๋ถํฐ ์ ๋ฉด ์ ์ฉ๋ EU์ ๋์งํธ์๋น์ค๋ฒ(DSA, Digital Services Act)์ ํฌ๋ช
์ฑ ๋ณด๊ณ ๋ถํฐ ์์คํ
์ ์ํ ํ๊ฐ์ ์ด๋ฅด๊ธฐ๊น์ง ํ๋ซํผ์ ๋ํ ํฌ๊ด์ ์ธ ์๋ฌด ์ฒด๊ณ๋ฅผ ๊ตฌ์ถํ๋ค. ๊ฐ๊ตญ์ ๋ฒ๋ฅ โ๋
์ผ์ NetzDG, ํ๋์ค์ Avia Law(์ผ๋ถ ํ๊ธฐ), ๋ธ๋ผ์ง์ Marco Civil da Internet ๊ฐ์ ์, ํธ์ฃผ์ ์จ๋ผ์ธ ์์ ๋ฒ(Online Safety Act)โ์ ๋ฏธ์ค์ ์ ์๋นํ ์ฒ๋ฒ์ ์๋ฐํ๋ ๋ค์ํ ์ฝํ
์ธ ์ค์ฌ ์๊ฑด์ ๋ถ๊ณผํ๋ค. ๋ฏธ๊ตญ์์์กฐ์ฐจ ์ 230์กฐ์ ๋ํ ์ด๋นํ์ ๋นํ์ด ๊ฐํ๋๊ณ ์์ผ๋, ์ํ์ ์
๋ฒ ์กฐ์น๋ ์ฌ์ ํ ์์ํ๋ค.
์ค์์ฑ
ํ๋ซํผ์ ์ค๋ฆฝ์ ์ธ ํต๋ก๊ฐ ์๋๋ค. ํ๋ซํผ์ ์๊ณ ๋ฆฌ์ฆ์ ๊ณต๋ก ์ฅ, ์ ์น ์ฐธ์ฌ, ๊ทธ๋ฆฌ๊ณ ๊ฐ์ธ์ ํ๋์ ํ์ฑํ๋ ๋ฐฉ์์ผ๋ก ์ฝํ
์ธ ๋ฅผ ์ฆํญํ๊ณ , ์ถ์ฒํ๋ฉฐ, ์ ๋ณํ๋ค. ์ด์ ๋ฌธ์ ๋ ํ๋ซํผ์ด ํธ์คํ
ํ๊ณ ํ์ฐ์ํค๋ ์ฝํ
์ธ ์ ๋ํด ์ด๋ ์ ๋ ์ฑ
์์ ์ ธ์ผ ํ๋๊ฐ๊ฐ ์๋๋ผ, ์ผ๋ง๋ ๋ง์ ์ฑ
์์, ์ด๋ค ์ ํ์ ์ฝํ
์ธ ์ ๋ํด, ์ด๋ค ๋ฉ์ปค๋์ฆ์ ํตํด ๋ถ๊ณผํ ๊ฒ์ธ๊ฐ์ด๋ค.
์ด ๋ฌธ์ ๋ ๊ฒฝ์ํ๋ ๊ฐ์น๋ค ์ฌ์ด์ ์ง์ ํ ๊ธด์ฅ์ ์๋ฐํ๋ค. ์ ๊ทน์ ์ธ ์ฝํ
์ธ ์ค์ฌ๋ ํนํ ์ ์น์ ๋ฐ๋ ์๊ฒฌ๊ณผ ์์ ๊ฒฌํด ๋ฑ ํฉ๋ฒ์ ์ธ ํํ์ ์ต์ํ ์ํ์ด ์๋ค. ๋ฐ๋ฉด ๋ถ์ถฉ๋ถํ ์ค์ฌ๋ ๊ดด๋กญํ, ํ์ ์ ๋ณด, ๊ทธ๋ฆฌ๊ณ ๋ถ๋ฒ ์ฝํ
์ธ ๊ฐ ๋ง์ฐํ๋๋ก ๋ฐฉ์นํ๋ค. ๋ชจ๋ ๊ท์ ์ฒด๊ณ๋ ์ด๋ฌํ ๊ธด์ฅ์ ํค์ณ๋๊ฐ์ผ ํ๋ฉฐ, ์ด๋ ๊ฒ๋ ๋ณดํธ์ ์ผ๋ก ๋ง์กฑ์ค๋ฌ์ด ๊ท ํ์ ์ฐพ์ง ๋ชปํ๋ค.
DSA ๋ ์ 230์กฐ: ๊ตฌ์กฐ์ ๋น๊ต
Britchenko(2025)๋ ๋ ๊ฐ์ง ์ง๋ฐฐ์ ์ธ ๊ท์ ๋ชจ๋ธ์ ๋ํ ํฌ๊ด์ ์ธ ๋น๊ต ๋ถ์์ ์ ๊ณตํ๋ค. ๊ทธ ์ฐจ์ด๋ ๊ทผ๋ณธ์ ์ด๋ค.
์ 230์กฐ๋ ์ข์ ์์ธ(์ฐ๋ฐฉ ํ์ฌ๋ฒ, ์ง์์ฌ์ฐ๊ถ, FOSTA-SESTA์ ๋ฐ๋ฅธ ์ฑ๋งค๋งค)๋ฅผ ๋๋ฉด์๋ ๊ด๋ฒ์ํ ๋ฉด์ฑ
์ ์ ๊ณตํ๋ค. ์ด ์กฐํญ์ ํ๋ซํผ์ ์ฝํ
์ธ ์ค์ฌ๋ฅผ ์๊ตฌํ์ง ์์ผ๋ฉฐ, ์๋ฐ์ ์ผ๋ก ์ค์ฌ๋ฅผ ์ ํํ ํ๋ซํผ์ ์ค์ฌ ๊ฒฐ์ ์ ๋ฐ๋ฅธ ์ฑ
์์ผ๋ก๋ถํฐ ๋ณดํธํ๋ค("์ ํ ์ฌ๋ง๋ฆฌ์์ธ" ๋ณดํธ). ๊ทธ ๊ฒฐ๊ณผ ์ฝํ
์ธ ์ค์ฌ๊ฐ ์๋ฐ์ ์ผ๋ก ์ด๋ฃจ์ด์ง๋ฉฐ, ๋ฒ์ ์๊ฑด์ด ์๋ ํ๋ซํผ ์ด์ฉ์ฝ๊ด์ ์ํด ๊ท์จ๋๋ ์์คํ
์ด ๋ง๋ค์ด์ง๋ค.
DSA๋ ๋ฉด์ฑ
์ ์กฐ๊ฑด๋ถ ์ฑ
์์ผ๋ก ๋์ฒดํ๋ค. ํต์ง ๋ฐ ์กฐ์น ๋ฉ์ปค๋์ฆ ๊ตฌ์ถ, ์์คํ
์ ์ํ ํ๊ฐ ์ค์, ์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ ์ ๊ณต, ๊ตญ๊ฐ ๊ท์ ๊ธฐ๊ด๊ณผ์ ํ๋ ฅ ๋ฑ ์๋ฌด๋ฅผ ์ดํํ๋ ํ๋ซํผ์ ์์ ํญ(safe harbor) ํํ์ ๋๋ฆฐ๋ค. ๊ทธ๋ฌ๋ ์ด ์์ ํญ์ ์ค์ ์ฌ๋ถ์ ๋ฌ๋ ค ์์ผ๋ฉฐ, ๋ฏธ์ค์ ์ ํ๋ซํผ์ ์ ์ธ๊ณ ์ฐ๊ฐ ๋งค์ถ์ก์ ์ต๋ 6%์ ๋ฌํ๋ ๋ฒ๊ธ์ ๋
ธ์ถ๋๋ค.
์ด ๋
ผ๋ฌธ์ ์ธ ๊ฐ์ง ํต์ฌ์ ์ธ ์ฐจ์ด์ ์ ์ ์ํ๋ค.
์๋ฌด ๊ตฌ์กฐ: ์ 230์กฐ๋ ๊ถ๋ฆฌ(๋ฉด์ฑ
)๋ฅผ ๋ถ์ฌํ๋ ๋ฐ๋ฉด, DSA๋ ์๋ฌด๋ฅผ ๋ถ๊ณผํ๋ค.
์๊ณ ๋ฆฌ์ฆ ์ฑ
์: ์ 230์กฐ๋ ์๊ณ ๋ฆฌ์ฆ์ ๋ํด ์นจ๋ฌตํ๋ ๋ฐ๋ฉด, DSA๋ ์ด๋ํ ํ๋ซํผ์ด ์ถ์ฒ ์์คํ
์์ ๋ฐ์ํ๋ ์์คํ
์ ์ํ์ ํ๊ฐํ๊ณ ์ํํ๋๋ก ์๊ตฌํ๋ค.
์งํ: ์ 230์กฐ๋ ๋ฏผ์ฌ ์์ก์ ํตํด(์๋ฐํ ๋งํ๋ฉด ์์ก์ ๋ถ์ฌ๋ฅผ ํตํด) ์งํ๋๋ ๋ฐ๋ฉด, DSA๋ ์ ๋ฝ ์งํ์์ํ(European Commission)์ ์กฐ์ ํ์ ๊ฐ EU ํ์๊ตญ์ ๋์งํธ ์๋น์ค ์กฐ์ ๊ด(Digital Services Coordinators)์ ์ํด ์งํ๋๋ค.๊ตญ๊ฐ๋ณ ์ฝํ
์ธ ์ค์ฌ ๊ท์
Santos, Cazzamatta, Napolitano(2025)๋ ์ง์ ๋น๊ต ๋ถ์์ ํ์ฉํ์ฌ ๋ค์ฏ ๊ฐ์ง ๊ตญ๊ฐ์ ์ฝํ
์ธ ์ค์ฌ ๊ท์ ๋ฅผ ๊ฒํ ํ๋ค: ๋
์ผ์ NetzDG, ํ๋์ค์ ๋ฒ๋ฅ ์ 2018-1202ํธ, ๋ธ๋ผ์ง์ ๊ฒฐ์์ ์ 23.732/2024ํธ, ์ฑ๊ฐํฌ๋ฅด์ POFMA, ๊ทธ๋ฆฌ๊ณ ํฐํค์ ๋ฒ๋ฅ ์ 2022-7418ํธ. ๋ณธ ๋
ผ๋ฌธ์ ๊ณตํต ์์์ ๊ตญ๊ฐ๋ณ ๋ณํ์ ์๋ณํ๋ค.
๋ค์ฏ ๊ฐ์ง ํ๋ ์์ํฌ ์ ๋ฐ์ ๊ฑธ์น ๊ณตํต ์์๋ ๋ค์๊ณผ ๊ฐ๋ค:
- ํต์ง ๋ฐ ์ญ์ ์๋ฌด: ๋ชจ๋ ๊ท์ ๋ ํ๋ซํผ์ด ํต์ง๋ฅผ ๋ฐ์ ํ ์ง์ ๋ ๊ธฐํ ๋ด์ ๋ถ๋ฒ ์ฝํ
์ธ ๋ฅผ ์ ๊ฑฐํ๋๋ก ์๊ตฌํ๋ค.
- ํฌ๋ช
์ฑ ๋ณด๊ณ : ๋ชจ๋ ๊ท์ ๋ ์ฝํ
์ธ ์ค์ฌ ํ๋, ๊ท๋ชจ ๋ฐ ๊ฒฐ๊ณผ์ ๊ดํ ์ ๊ธฐ ๋ณด๊ณ ์๋ฅผ ์๊ตฌํ๋ค.
- ์ง์ ์ฐ๋ฝ ์ฐฝ๊ตฌ: ๋ชจ๋ ๊ท์ ๋ ํ๋ซํผ์ด ๊ท์ ์ํต์ ์ํ ํ์ง ๋ํ์ ๋๋ ์ฐ๋ฝ ๋ด๋น์๋ฅผ ์ ์งํ๋๋ก ์๊ตฌํ๋ค.
์ฃผ์ ์ฐจ์ด์ ์ ๋ค์๊ณผ ๊ฐ๋ค:
- ์ฝํ
์ธ ๋ฒ์: ๋
์ผ์ ํ์ค ๋ฐ์ธ ๋ฐ ๋ฒ์ฃ ์ฝํ
์ธ ์ ์ด์ ์ ๋ง์ถ๊ณ ์์ผ๋ฉฐ, ์ฑ๊ฐํฌ๋ฅด์ POFMA๋ ํ์ ์ฌ์ค ์ง์ ์ ํ์ ์ผ๋ก ์ผ๊ณ , ๋ธ๋ผ์ง์ AI๊ฐ ์์ฑํ ์ฝํ
์ธ ๋ฅผ ๋ช
์์ ์ผ๋ก ๋ค๋ฃฌ๋ค.
- ์งํ ๋ฐฉ์: ๋
์ผ์ ํ๋ซํผ ์ฃผ๋์ ์งํ์ ๊ฐ์กฐํ๊ณ , ํ๋์ค์ ๋ธ๋ผ์ง์ ์ฌ๋ฒ ๋ช
๋ น์ ๋ ๋ง์ด ์์กดํ๋ฉฐ, ์ฑ๊ฐํฌ๋ฅด์ ํฐํค๋ ๊ตญ๊ฐ ๋น๊ตญ์ ์ฌ๋์ ๊ถํ์ ๋ถ์ฌํ๋ค.
- ๋
๋ฆฝ์ ๊ฐ๋
: ํ๋์ค(Arcom)์ ๋
์ผ(๊ท์ ๋ ์์จ ๊ท์ )์์๋ง ๊ณต์ํ๋์ด ์๋ค. ํฐํค๋ BTK๋ฅผ ์ง์ ํ๊ณ ์์ผ๋, ๊ทธ ๋
๋ฆฝ์ฑ์ ๋
ผ์์ ์ฌ์ง๊ฐ ์๋ค.
- ํ์์ ๋ณด ์ ์: ๋๋ถ๋ถ์ ๊ดํ ๊ถ์ ๋ชจํธํ ๊ณต์ํ๋ฅผ ์ฑํํ์ฌ ๋ฒ์์ ๋ํ ๋ถํ์ค์ฑ์ ์ผ๊ธฐํ๋ค.
ํ์ค ๋ฐ์ธ๊ณผ ํํ์ ์์
Alkiviadou(2024)๋ ๊ฐ์ฅ ๋
ผ์์ ์ธ ์ฐจ์์ธ ํ์ค ๋ฐ์ธ์ ๋ํ ํ๋ซํผ ์ฑ
์๊ณผ ํํ์ ์์ ๋ผ๋ ๊ธฐ๋ณธ๊ถ ๊ฐ์ ๊ท ํ ๋ฌธ์ ๋ฅผ ๋ค๋ฃฌ๋ค. ๋ณธ ๋
ผ๋ฌธ์ ์์
๋ฏธ๋์ด์ ๋ถ์์ด ์ ํต์ ์ธ ํธ์ง ๋ฐ ์ ๋ถ์ ์ธ๋ก ํต์ ๋ฅผ ์ฐํํ์ฌ, ๋ฏผ์ฃผ์ ์ฐธ์ฌ๋ฅผ ์ํ ์ ๋ก ์๋ ๊ธฐํ์ ํ์ค๋ฅผ ์ํ ์ ๋ก ์๋ ๊ฒฝ๋ก๋ฅผ ๋์์ ์ฐฝ์ถํ๋ค๊ณ ์ฃผ์ฅํ๋ค.
๋ณธ ๋
ผ๋ฌธ์ ํต์ฌ์ ์ธ ๋น๋์นญ์ฑ์ ์๋ณํ๋ค: ํ๋ซํผ์ ์ฐธ์ฌ๋ฅผ ๊ทน๋ํํ๋ ค๋ ๊ฐ๋ ฅํ ๊ฒฝ์ ์ ์ ์ธ์ ๊ฐ์ง๊ณ ์์ผ๋ฉฐ, ํ์ค ๋ฐ์ธ๊ณผ ๋ถ๋
ธ๋ ์ฐธ์ฌ๋ฅผ ์ ๋ฐํ๋ค. ์ฝํ
์ธ ์ค์ฌ๋โํ๋ซํผ์ด ์ํํ๋ ๋ฒ์ ๋ด์์โ๋น์ผ๊ด์ ์ผ๋ก ์ ์ฉ๋๋ฉฐ, ์๋ํ ์์คํ
์ ๊ฑฐ์ง ์์ฑ(์ ๋นํ ๋ฐ์ธ ์ต์)๊ณผ ๊ฑฐ์ง ์์ฑ(์ ํด ์ฝํ
์ธ ํ์ง ์คํจ) ๋ชจ๋๋ฅผ ์์ฑํ๋ค. ๋ฐ๋ผ์ ํ์ค ๋ฐ์ธ์ ์ค์ฌํ๋๋ก ํ๋ ๋ฒ์ ์๋ฌด๋ ์ ์์์ ๊ณผ์ ('ํ์ค ๋ฐ์ธ'์ด๋ ๋ฌด์์ธ๊ฐ?)๋ฟ๋ง ์๋๋ผ ์งํ์์ ๊ณผ์ (ํ๋ซํผ์ด ๋๊ท๋ชจ๋ก ์ด๋ฅผ ์ ๋ขฐ์ฑ ์๊ฒ ์๋ณํ ์ ์๋๊ฐ?)์๋ ์จ๋ฆํด์ผ ํ๋ค.
Alkiviadou๋ ๋ค์์ ๊ตฌ๋ถํ๋ ํ๋ ์์ํฌ๋ฅผ ์ ์ํ๋ค:
- ๋ช
๋ฐฑํ ๋ถ๋ฒ์ฑ (ํญ๋ ฅ์ ๋ํ ์ง์ ์ ์ ๋, CSAM): ํ๋ซํผ์ ํต์ง ํ ์ ๊ฑฐ ์คํจ์ ๋ํด ์๊ฒฉํ ์ฑ
์์ ์ ธ์ผ ํ๋ค.
- ๋งฅ๋ฝ์ ๋ถ๋ฒ์ฑ (๋ถ๋ฒ์ฑ์ด ๋งฅ๋ฝ, ํ์, ์ ์น์ ๋ฐ์ธ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง๋ ํ์ค ๋ฐ์ธ): ํ๋ซํผ์ ์ ์ฐจ์ ์๋ฌด(์ง์ ๋ ๊ธฐํ ๋ด ๊ฒํ , ์ด์ ์ ๊ธฐ ๋ฉ์ปค๋์ฆ)๋ฅผ ์ ธ์ผ ํ์ง๋ง, ์๊ฒฉํ ์ฑ
์์ ์ง์ง ์๋๋ค.
- ์ ํดํ์ง๋ง ํฉ๋ฒ์ ์ธ ๊ฒ (ํ์์ ๋ณด, ์๋ชจ๋ก ): ํ๋ซํผ์ ํฌ๋ช
์ฑ ์๋ฌด๋ฅผ ์ง์ง๋ง, ์ฝํ
์ธ ์ ๊ฑฐ ์๋ฌด๋ ์ง์ง ์๋๋ค.
๊ท์ ๋ชจ๋ธ ๋น๊ต
<
| ํน์ฑ | ๋ฏธ๊ตญ(Section 230) | EU(DSA) | ๋
์ผ(NetzDG) | ํธ์ฃผ(์จ๋ผ์ธ ์์ ๋ฒ) |
|---|
| ๊ธฐ๋ณธ ์
์ฅ | ๋ฉด์ | ์กฐ๊ฑด๋ถ ์์ ํญ | ์ฒ๋ฒ์ ์๋ฐํ๋ ์๋ฌด | ์ฒ๋ฒ์ ์๋ฐํ๋ ์๋ฌด |
| ์ฝํ
์ธ ๋ฒ์ | ํด๋น ์์(์๋ฌด ์์) | ๋ถ๋ฒ ์ฝํ
์ธ + ์์คํ
์ ์ํ | ๋ฒ์ฃ ์ฝํ
์ธ (22๊ฐ ๋ฒ์ฃผ) | ์จ๋ผ์ธ ์ ํด(๊ด๋ฒ์) |
| ์๊ณ ๋ฆฌ์ฆ ์๋ฌด | ์์ | ์ํ ํ๊ฐ + ์ํ | ํน์ ์ฌํญ ์์ | ์ ํ์ |
| ์ต๋ ์ฒ๋ฒ | ํด๋น ์์ | ์ ์ธ๊ณ ๋งค์ถ์ก์ 6% | EUR 5,000๋ง | ๊ฐ์ธ ๊ธฐ์ค ์ผ AUD 55๋ง |
| ๊ฐ๋
๊ธฐ๊ด | ๋ฒ์ | ๋์งํธ ์๋น์ค ์กฐ์ ๊ด + ์์ํ | ์ฐ๋ฐฉ ๋ฒ๋ฌด๋ถ | eSafety Commissioner |
์ฃผ๋ชฉํ ์ฌํญ
DSA์ ์งํ์ ๊ฒฐ์ ์ ์ธ ๋ฐ์ ์ด ๋ ๊ฒ์ด๋ค. ์ ๋ฝ ์งํ์์ํ๋ ์ด๋ฏธ DSA ์๋ฐ ํ์๋ก X(๊ตฌ ํธ์ํฐ)์ TikTok์ ๋ํ ์ ์ฐจ๋ฅผ ๊ฐ์ํ์์ผ๋ฉฐ, ๊ทธ ๊ฒฐ๊ณผ๋ ํด๋น ๊ท์ ์ ์๊ฑด์ด ์ค์ง์ ์ผ๋ก ๋ฌด์์ ์๋ฏธํ๋์ง๋ฅผ ํ๋ฆฝํ๊ฒ ๋ ๊ฒ์ด๋ค. ๋ฏธ๊ตญ์์๋ ์ฝํ
์ธ ์ค์ฌ๋ฅผ ์ ํํ๋ ์ฃผ๋ฒ์ ๋ค๋ฃจ๋ Moody v. NetChoice ๋ฐ NetChoice v. Paxton ์ฌ๊ฑด์ ๋ํ ๋๋ฒ์์ ํ๊ฒฐ์ด ํ๋ซํผ ๊ท์ ์ ํ๋ฒ์ ๊ฒฝ๊ณ๋ฅผ ํ์ฑํ๊ฒ ๋ ๊ฒ์ด๋ค. ํ๋ซํผ ์ฑ
์์ ๊ฐํํ๋ ๋ฐฉํฅ์ผ๋ก์ ๊ธ๋ก๋ฒ ํ๋ฆ์ ๋ช
๋ฐฑํ์ง๋ง, ๊ทธ ์ฑ
์์ ํํ๊ฐ ํฌ๋ช
์ฑ์ธ์ง, ์ค์ฌ(due diligence)์ธ์ง, ์๊ฒฉ ์ฑ
์(strict liability)์ธ์ง, ์๋๋ฉด ์ด๋ค์ ์กฐํฉ์ธ์ง๋ ์ฌ์ ํ ์ ๋์ ์ด๋ค.
References (3)
[1] Britchenko, I. (2025). Responsibility of Online Platforms for Third-Party Content: A Comparative Analysis of the EU Digital Services Act and the US Section 230.
[2] Santos, A., Cazzamatta, R., & Napolitano, C.J. (2025). Holding Platforms Accountable in the Fight Against Misinformation: A Cross-National Analysis of State-Established Content Moderation Regulations. New Media & Society.
[3] Alkiviadou, N. (2024). Platform Liability, Hate Speech and the Fundamental Right to Free Speech. Information & Communications Technology Law.