Law & Policy
Online Hate Speech Regulation: Can Law Protect Without Censoring?
The EU mandates platforms to remove hate speech. The US protects most speech under the First Amendment. Elon Musk's Twitter/X relaxed moderation as a free speech experiment. Five papers examine what these divergent approaches reveal about whether law can reduce online harm without creating tools for censorship.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
The regulation of online hate speech sits at the intersection of two fundamental values that democratic societies hold simultaneously and that social media makes difficult to reconcile: protection of vulnerable communities from speech that demeans, threatens, and incites violence against them, and protection of free expression from government control.
The global regulatory landscape reflects different national resolutions of this tension. The EU's Digital Services Act mandates systemic risk assessments and content moderation for hate speech. Germany's NetzDG requires removal of obviously illegal content within 24 hours (other illegal content within 7 days). The US First Amendment protects nearly all speech from government restriction, leaving moderation decisions to private platforms. And Elon Musk's acquisition of Twitter (now X) in 2022 provided a natural experiment in what happens when a major platform deliberately relaxes hate speech moderation in the name of free speech.
The EU Approach: DSA and the ECtHR
Enarsson (2024) examines how the EU's Digital Services Act navigates hate speech and content moderation, drawing insights from European Court of Human Rights (ECtHR) case law. The dissemination of hate speech online necessitates forceful content moderation to protect individuals and democratic values, without undue infringement of freedom of expression and the right to access information.
The paper identifies a framework emerging from ECtHR jurisprudence that distinguishes between:
- Expression that is protected (political speech, artistic expression, uncomfortable opinions): Moderation should not suppress unpopular views.
- Expression that may be restricted (incitement to discrimination, denial of historical atrocities): Regulation may be justified if proportionate to the legitimate aim.
- Expression that must be restricted (direct incitement to violence, threats): States have positive obligations to protect individuals from such speech.
The DSA builds on this framework by imposing "systemic obligations" on very large online platforms: they must assess systemic risks (including hate speech), implement risk mitigation measures, and submit to independent audits. The approach is structural rather than content-specificโplatforms must have systems for addressing hate speech rather than being told which specific content to remove.
Arun, Chhatani, and An (2024) investigate the impact of Elon Musk's takeover of Twitter and the subsequent relaxation of content moderation on the platform. By curating a dataset of over 10 million tweets, the study employs a framework combining content and network analysis.
The findings provide empirical evidence on a question that had previously been mostly theoretical: what happens when a major platform reduces hate speech moderation? The study documents observable changes in content patterns and network dynamics following the moderation relaxationโproviding evidence that platform moderation policies have measurable effects on the character of online discourse.
This natural experiment is significant because it occurred at scale, on a public platform, with observable before-and-after data. Whether the changes constitute a "free speech success" (more voices heard) or a "moderation failure" (more harm produced) depends on normative commitments that the data alone cannot resolve.
Alkiviadou (2024) examines the fundamental tension between platform liability for hate speech and the right to free expression. The rise of social media has dramatically transformed information sharing, bypassing traditional editorial and governmental controls.
The paper argues that social media platforms occupy an ambiguous legal position: they are neither traditional publishers (who exercise editorial control and bear legal responsibility for what they publish) nor common carriers (who transmit content neutrally and bear no responsibility for what flows through their infrastructure). They are something in betweenโand the legal framework for this in-between position is still being constructed.
Different liability models produce different incentive structures:
- Immunity (US Section 230): Platforms are not liable for user-generated content. This encourages platform growth but removes incentives for content moderation.
- Liability (proposed reforms): Platforms are liable for content they fail to remove after notice. This incentivizes aggressive moderation but may lead to over-removal of lawful speech.
- Due diligence (EU DSA): Platforms must demonstrate systemic processes for addressing illegal content. This focuses on process rather than outcome, allowing platforms discretion while requiring accountability.
The Transatlantic Divide
Nunziato (2026) examines the growing divergence between EU and US approaches to online hate speech regulation. Given recent changes in major social media platforms' moderation of harmful speechโwith the tacit blessing of a 2024 Supreme Court decision and the Trump Administration's positionsโthe question of what speech should be allowed on platforms has become pressing.
The transatlantic divide is deepening. The EU is moving toward more regulation (DSA, AI Act, upcoming code of conduct on hate speech), while the US political environment has shifted toward less regulation (Section 230 preservation, First Amendment absolutism, political pressure against content moderation). For platforms that operate globally, this creates a compliance dilemma: content that must be moderated under EU law may be protected speech under US law.
Comparative Analysis: EU, US, and China
Xun and Cheng (2025) compare online speech governance across three jurisdictions: the EU, the US, and China. The study analyzes the institutional development of online speech governance in each system, highlighting how political culture, legal tradition, and state-market relations shape the boundaries of permissible speech.
The three-way comparison reveals that "hate speech regulation" means fundamentally different things in different political systems. In the EU, it means protecting vulnerable groups from discriminatory expression. In the US, it means protecting all expression (including hateful expression) from government restriction. In China, it means controlling expression that threatens social stability or state authority. The same regulatory label conceals incompatible normative commitments.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| The EU DSA provides a workable framework for hate speech moderation | Enarsson (2024): ECtHR jurisprudence provides proportionality guidance; implementation emerging | โ ๏ธ Uncertain (too early to evaluate) |
| Relaxing platform moderation increases hate speech | Arun et al. (2024): content and network changes observed on X/Twitter after moderation relaxation | โ
Supported |
| Current platform liability models adequately balance protection and expression | Alkiviadou (2024): all models have significant trade-offs | โ ๏ธ Uncertain |
| EU and US approaches are converging | Nunziato (2026): transatlantic divide is widening, not narrowing | โ Refuted |
| A universal standard for online hate speech regulation is feasible | Xun & Cheng (2025): regulation reflects incompatible normative commitments across systems | โ Refuted |
Open Questions
Can AI-powered content moderation achieve the nuance that hate speech adjudication requires? Hate speech often depends on context, tone, speaker identity, and cultural reference that automated systems struggle to evaluate.Should "lawful but awful" speech be moderated? Some speech is legal under applicable law but harmful to platform communities. Should platforms moderate speech that is legal but toxic, and if so, by what standards?How should hate speech regulation address intersectionality? Speech that targets individuals at the intersection of multiple marginalized identities (e.g., Black trans women) may not be captured by category-specific hate speech definitions.What happens when governments weaponize hate speech regulation? Laws designed to protect minorities can be used by authoritarian governments to suppress dissent, as has occurred in multiple jurisdictions.Implications
The research reviewed here suggests that hate speech regulation is not a technical problem with a technical solution. It is a political negotiation over the boundaries of acceptable expression in democratic societiesโa negotiation that different democracies resolve differently because they hold different balances between protection and freedom.
The practical challenge for platforms operating globally is that there is no single set of rules that satisfies all jurisdictions. The emerging approachโgeo-specific content policies that apply different moderation standards in different marketsโis operationally complex but may be the only viable path for platforms that serve both the EU and the US.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต์ ๋ชฉ์ ์ผ๋ก ํ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ๊ฒ์ฆํด์ผ ํ๋ค.
์จ๋ผ์ธ ํ์ค ๋ฐ์ธ ๊ท์ : ๋ฒ์ ๊ฒ์ด ์์ด ๋ณดํธํ ์ ์๋๊ฐ?
์จ๋ผ์ธ ํ์ค ๋ฐ์ธ ๊ท์ ๋ ๋ฏผ์ฃผ์ฃผ์ ์ฌํ๊ฐ ๋์์ ๊ฒฌ์งํ๋ฉด์๋ ์์
๋ฏธ๋์ด๋ก ์ธํด ์กฐํ์ํค๊ธฐ ์ด๋ ค์์ง ๋ ๊ฐ์ง ๊ทผ๋ณธ์ ๊ฐ์น์ ๊ต์ฐจ์ ์ ๋์ฌ ์๋ค. ํ๋๋ ํน์ ์ง๋จ์ ๋นํํ๊ณ , ์ํํ๋ฉฐ, ํญ๋ ฅ์ ์ ๋ํ๋ ๋ฐ์ธ์ผ๋ก๋ถํฐ ์ทจ์ฝ ๊ณต๋์ฒด๋ฅผ ๋ณดํธํ๋ ๊ฒ์ด๊ณ , ๋ค๋ฅธ ํ๋๋ ์ ๋ถ์ ํต์ ๋ก๋ถํฐ ํํ์ ์์ ๋ฅผ ๋ณดํธํ๋ ๊ฒ์ด๋ค.
์ ์ธ๊ณ ๊ท์ ํ๊ฒฝ์ ์ด๋ฌํ ๊ธด์ฅ ๊ด๊ณ์ ๋ํ ๊ฐ๊ตญ์ ์์ดํ ํด๊ฒฐ ๋ฐฉ์์ ๋ฐ์ํ๋ค. EU์ ๋์งํธ์๋น์ค๋ฒ(Digital Services Act)์ ํ์ค ๋ฐ์ธ์ ๋ํ ์ฒด๊ณ์ ์ํ ํ๊ฐ์ ์ฝํ
์ธ ์ค์ฌ๋ฅผ ์๋ฌดํํ๊ณ ์๋ค. ๋
์ผ์ NetzDG๋ ๋ช
๋ฐฑํ ๋ถ๋ฒ์ ์ธ ์ฝํ
์ธ ๋ฅผ 24์๊ฐ ์ด๋ด์, ๊ทธ ์ธ ๋ถ๋ฒ ์ฝํ
์ธ ๋ฅผ 7์ผ ์ด๋ด์ ์ญ์ ํ๋๋ก ์๊ตฌํ๋ค. ๋ฏธ๊ตญ ์์ ํ๋ฒ ์ 1์กฐ๋ ๊ฑฐ์ ๋ชจ๋ ๋ฐ์ธ์ ์ ๋ถ์ ๊ท์ ๋ก๋ถํฐ ๋ณดํธํ๋ฉฐ, ์ค์ฌ ๊ฒฐ์ ์ ๋ฏผ๊ฐ ํ๋ซํผ์ ๋งก๊ธด๋ค. ๊ทธ๋ฆฌ๊ณ 2022๋
์ผ๋ก ๋จธ์คํฌ(Elon Musk)์ ํธ์ํฐ(ํ X) ์ธ์๋ ์ฃผ์ ํ๋ซํผ์ด ํํ์ ์์ ๋ฅผ ๋ช
๋ถ์ผ๋ก ํ์ค ๋ฐ์ธ ์ค์ฌ๋ฅผ ์๋์ ์ผ๋ก ์ํํ ๊ฒฝ์ฐ ์ด๋ค ์ผ์ด ๋ฒ์ด์ง๋์ง์ ๋ํ ์์ฐ ์คํ์ ์ ๊ณตํ๋ค.
EU์ ์ ๊ทผ ๋ฐฉ์: DSA์ ECtHR
Enarsson(2024)์ EU์ ๋์งํธ์๋น์ค๋ฒ(DSA)์ด ์ ๋ฝ์ธ๊ถ์ฌํ์(ECtHR) ํ๋ก๋ฒ์์ ํต์ฐฐ์ ๋์ถํ๋ฉฐ ํ์ค ๋ฐ์ธ๊ณผ ์ฝํ
์ธ ์ค์ฌ๋ฅผ ์ด๋ป๊ฒ ๋ค๋ฃจ๋์ง ๊ณ ์ฐฐํ๋ค. ์จ๋ผ์ธ์์์ ํ์ค ๋ฐ์ธ ํ์ฐ์ ํํ์ ์์ ๋ฐ ์ ๋ณด ์ ๊ทผ๊ถ์ ๋ถ๋นํ๊ฒ ์นจํดํ์ง ์์ผ๋ฉด์ ๊ฐ์ธ๊ณผ ๋ฏผ์ฃผ์ฃผ์์ ๊ฐ์น๋ฅผ ๋ณดํธํ๊ธฐ ์ํ ๊ฐ๋ ฅํ ์ฝํ
์ธ ์ค์ฌ๋ฅผ ํ์๋ก ํ๋ค.
ํด๋น ๋
ผ๋ฌธ์ ECtHR ํ๋ก์์ ๋์ถ๋ ๋ค์๊ณผ ๊ฐ์ ๊ตฌ๋ถ ํ์ ์ ์ํ๋ค.
- ๋ณดํธ๋ฐ๋ ํํ (์ ์น์ ๋ฐ์ธ, ์์ ์ ํํ, ๋ถํธํ ์๊ฒฌ): ์ค์ฌ๋ ๋น์ฃผ๋ฅ์ ๊ฒฌํด๋ฅผ ์ต์ํด์๋ ์ ๋๋ค.
- ์ ํ๋ ์ ์๋ ํํ (์ฐจ๋ณ ์ ๋, ์ญ์ฌ์ ๋งํ ๋ถ์ธ): ์ ๋นํ ๋ชฉ์ ์ ๋น๋กํ๋ ๊ฒฝ์ฐ ๊ท์ ๊ฐ ์ ๋นํ๋ ์ ์๋ค.
- ๋ฐ๋์ ์ ํ๋์ด์ผ ํ๋ ํํ (์ง์ ์ ์ธ ํญ๋ ฅ ์ ๋, ์ํ): ๊ตญ๊ฐ๋ ๊ฐ์ธ์ ์ด๋ฌํ ๋ฐ์ธ์ผ๋ก๋ถํฐ ๋ณดํธํด์ผ ํ ์ ๊ทน์ ์๋ฌด๋ฅผ ์ง๋ค.
DSA๋ ์ด ํ์ ๋ฐํ์ผ๋ก ์ด๋ํ ์จ๋ผ์ธ ํ๋ซํผ์ "์ฒด๊ณ์ ์๋ฌด"๋ฅผ ๋ถ๊ณผํ๋ค. ์ฆ, ํ๋ซํผ์ ์ฒด๊ณ์ ์ํ(ํ์ค ๋ฐ์ธ ํฌํจ)์ ํ๊ฐํ๊ณ , ์ํ ์ํ ์กฐ์น๋ฅผ ์ํํ๋ฉฐ, ๋
๋ฆฝ์ ๊ฐ์ฌ๋ฅผ ๋ฐ์์ผ ํ๋ค. ์ด ์ ๊ทผ ๋ฐฉ์์ ์ฝํ
์ธ ํน์ ์ ์ด๊ธฐ๋ณด๋ค ๊ตฌ์กฐ์ ์ด๋ค. ํ๋ซํผ์ ์ด๋ค ํน์ ์ฝํ
์ธ ๋ฅผ ์ญ์ ํ๋ผ๋ ์ง์๋ฅผ ๋ฐ๋ ๊ฒ์ด ์๋๋ผ, ํ์ค ๋ฐ์ธ์ ๋์ํ๊ธฐ ์ํ ์์คํ
์ ๊ฐ์ถ์ด์ผ ํ๋ค.
ํธ์ํฐ/X ์์ฐ ์คํ
Arun, Chhatani, and An(2024)์ ์ผ๋ก ๋จธ์คํฌ์ ํธ์ํฐ ์ธ์์ ๊ทธ์ ๋ฐ๋ฅธ ํ๋ซํผ ๋ด ์ฝํ
์ธ ์ค์ฌ ์ํ์ ์ํฅ์ ์กฐ์ฌํ๋ค. 1,000๋ง ๊ฑด ์ด์์ ํธ์์ผ๋ก ๊ตฌ์ฑ๋ ๋ฐ์ดํฐ์
์ ๊ตฌ์ถํ์ฌ, ์ฝํ
์ธ ๋ถ์๊ณผ ๋คํธ์ํฌ ๋ถ์์ ๊ฒฐํฉํ ํ์ ์ ์ฉํ๋ค.
์ด ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ ๊ทธ๊ฐ ๋๋ถ๋ถ ์ด๋ก ์ ์์ค์ ๋จธ๋ฌผ๋ ๋ ์ง๋ฌธ์ ๋ํ ์ค์ฆ์ ์ฆ๊ฑฐ๋ฅผ ์ ๊ณตํ๋ค. ์ฃผ์ ํ๋ซํผ์ด ํ์ค ๋ฐ์ธ ์ค์ฌ๋ฅผ ์ถ์ํ๋ฉด ์ด๋ค ์ผ์ด ๋ฐ์ํ๋๊ฐ? ์ฐ๊ตฌ๋ ์ค์ฌ ์ํ ์ดํ ์ฝํ
์ธ ํจํด๊ณผ ๋คํธ์ํฌ ์ญํ์์ ๊ด์ฐฐ ๊ฐ๋ฅํ ๋ณํ๋ฅผ ๊ธฐ๋กํ๋ฉฐ, ํ๋ซํผ ์ค์ฌ ์ ์ฑ
์ด ์จ๋ผ์ธ ๋ด๋ก ์ ์ฑ๊ฒฉ์ ์ธก์ ๊ฐ๋ฅํ ์ํฅ์ ๋ฏธ์น๋ค๋ ์ฆ๊ฑฐ๋ฅผ ์ ์ํ๋ค.
์ด ์์ฐ ์คํ์ ๋๊ท๋ชจ๋ก, ๊ณต๊ฐ ํ๋ซํผ์์, ๊ด์ฐฐ ๊ฐ๋ฅํ ์ ํ ๋ฐ์ดํฐ์ ํจ๊ป ์ด๋ฃจ์ด์ก๋ค๋ ์ ์์ ์ค์ํ๋ค. ์ด๋ฌํ ๋ณํ๊ฐ "ํํ์ ์์ ์ ์ฑ๊ณต"(๋ ๋ง์ ๋ชฉ์๋ฆฌ๊ฐ ์ ๋ฌ๋จ)์ธ์ง ์๋๋ฉด "์ค์ฌ์ ์คํจ"(๋ ๋ง์ ํผํด๊ฐ ๋ฐ์ํจ)์ธ์ง๋ ๋ฐ์ดํฐ๋ง์ผ๋ก๋ ํด๊ฒฐํ ์ ์๋ ๊ท๋ฒ์ ์
์ฅ์ ๋ฌ๋ ค ์๋ค.
ํ๋ซํผ ์ฑ
์
Alkiviadou(2024)๋ ํ์ค ๋ฐ์ธ์ ๋ํ ํ๋ซํผ ์ฑ
์๊ณผ ํํ์ ์์ ์ฌ์ด์ ๊ทผ๋ณธ์ ๊ธด์ฅ ๊ด๊ณ๋ฅผ ๊ณ ์ฐฐํ๋ค. ์์
๋ฏธ๋์ด์ ๋ถ์์ ์ ํต์ ์ธ ํธ์ง ๋ฐ ์ ๋ถ ํต์ ๋ฅผ ์ฐํํ๋ฉฐ ์ ๋ณด ๊ณต์ ๋ฐฉ์์ ๊ธ๊ฒฉํ ๋ณํ์์ผฐ๋ค.
์ด ๋
ผ๋ฌธ์ ์์
๋ฏธ๋์ด ํ๋ซํผ์ด ๋ฒ์ ์ผ๋ก ๋ชจํธํ ์์น๋ฅผ ์ ํ๊ณ ์๋ค๊ณ ์ฃผ์ฅํ๋ค. ํ๋ซํผ์ ์ ํต์ ์ธ ์ถํ์ฌ(ํธ์ง ํต์ ๊ถ์ ํ์ฌํ๋ฉฐ ๊ฒ์ฌ ๋ด์ฉ์ ๋ํ ๋ฒ์ ์ฑ
์์ ์ง๋ ์ฃผ์ฒด)๋ ์๋๊ณ , ๊ณตํต ์ด์ก์
์(์ฝํ
์ธ ๋ฅผ ์ค๋ฆฝ์ ์ผ๋ก ์ ๋ฌํ๋ฉฐ ์์ ์ ์ธํ๋ผ๋ฅผ ํตํด ํ๋ฅด๋ ๋ด์ฉ์ ๋ํด ์๋ฌด๋ฐ ์ฑ
์์ ์ง์ง ์๋ ์ฃผ์ฒด)๋ ์๋๋ค. ํ๋ซํผ์ ๊ทธ ์ค๊ฐ ์ด๋๊ฐ์ ์์นํ๋ฉฐ, ์ด ์ค๊ฐ ์์น์ ๋ํ ๋ฒ์ ํ์ ์์ง ๊ตฌ์ถ ์ค์ด๋ค.
์ฑ
์ ๋ชจ๋ธ์ด ๋ค๋ฅด๋ฉด ์ธ์ผํฐ๋ธ ๊ตฌ์กฐ๋ ๋ฌ๋ผ์ง๋ค.
- ๋ฉด์ฑ
(๋ฏธ๊ตญ Section 230): ํ๋ซํผ์ ์ด์ฉ์ ์์ฑ ์ฝํ
์ธ ์ ๋ํด ์ฑ
์์ ์ง์ง ์๋๋ค. ์ด๋ ํ๋ซํผ ์ฑ์ฅ์ ์ด์งํ์ง๋ง ์ฝํ
์ธ ์ค์ฌ์ ๋ํ ์ธ์ผํฐ๋ธ๋ฅผ ์ ๊ฑฐํ๋ค.
- ์ฑ
์ (๊ฐํ์): ํ๋ซํผ์ ํต๋ณด ํ ์ญ์ ํ์ง ์์ ์ฝํ
์ธ ์ ๋ํด ์ฑ
์์ ์ง๋ค. ์ด๋ ์ ๊ทน์ ์ธ ์ค์ฌ๋ฅผ ์ ๋ํ์ง๋ง ํฉ๋ฒ์ ํํ์ ๊ณผ๋ํ ์ญ์ ๋ก ์ด์ด์ง ์ ์๋ค.
- ์ค์ฌ ์๋ฌด (EU DSA): ํ๋ซํผ์ ๋ถ๋ฒ ์ฝํ
์ธ ์ฒ๋ฆฌ๋ฅผ ์ํ ์ฒด๊ณ์ ์ ์ฐจ๋ฅผ ๊ฐ์ถ๊ณ ์์์ ์
์ฆํด์ผ ํ๋ค. ์ด๋ ๊ฒฐ๊ณผ๋ณด๋ค ๊ณผ์ ์ ์ด์ ์ ๋ง์ถ์ด, ํ๋ซํผ์ ์ฌ๋๊ถ์ ๋ถ์ฌํ๋ฉด์๋ ์ฑ
์์ฑ์ ์๊ตฌํ๋ค.
๋์์ ์์์ ๋ถ์ด
Nunziato(2026)๋ ์จ๋ผ์ธ ํ์ค ํํ ๊ท์ ์ ๊ดํ EU์ ๋ฏธ๊ตญ์ ์ ๊ทผ ๋ฐฉ์์ด ์ ์ ๋ ๋ฒ์ด์ง๊ณ ์๋ ํ์์ ๋ถ์ํ๋ค. ์ฃผ์ ์์
๋ฏธ๋์ด ํ๋ซํผ์ด ์ ํด ํํ์ ์ค์ฌํ๋ ๋ฐฉ์์ด ์ต๊ทผ ๋ณํํ๊ณ ์๋ ๊ฐ์ด๋ฐโ2024๋
์ฐ๋ฐฉ๋๋ฒ์ ํ๊ฒฐ๊ณผ ํธ๋ผํ ํ์ ๋ถ์ ์
์ฅ์ด ์ด๋ฅผ ์๋ฌต์ ์ผ๋ก ์ง์งํ๋ฉด์โํ๋ซํผ์์ ์ด๋ค ํํ์ด ํ์ฉ๋์ด์ผ ํ๋๊ฐ์ ๋ฌธ์ ๊ฐ ์๊ธํ ํ์์ผ๋ก ๋ ์ฌ๋๋ค.
๋์์ ์์์ ๋ถ์ด์ ์ฌํ๋๊ณ ์๋ค. EU๋ ๋ ๋ง์ ๊ท์ (DSA, AI Act, ํ์ค ํํ์ ๊ดํ ํ๋ ๊ฐ๋ น ์์ )๋ฅผ ํฅํด ๋์๊ฐ๋ ๋ฐ๋ฉด, ๋ฏธ๊ตญ์ ์ ์น ํ๊ฒฝ์ ๋ ์ ์ ๊ท์ (Section 230 ์ ์ง, ์์ ํ๋ฒ ์ 1์กฐ ์ ๋์ฃผ์, ์ฝํ
์ธ ์ค์ฌ์ ๋ํ ์ ์น์ ์๋ ฅ) ์ชฝ์ผ๋ก ์ด๋ํ๋ค. ์ ์ธ๊ณ์ ์ผ๋ก ์ด์๋๋ ํ๋ซํผ๋ค์๊ฒ ์ด๋ ๊ท์ ์ค์์ ๋๋ ๋ง๋ฅผ ์ผ๊ธฐํ๋ค. EU ๋ฒ ํ์์ ์ค์ฌํด์ผ ํ๋ ์ฝํ
์ธ ๊ฐ ๋ฏธ๊ตญ ๋ฒ ํ์์๋ ๋ณดํธ๋ฐ๋ ํํ์ผ ์ ์๊ธฐ ๋๋ฌธ์ด๋ค.
๋น๊ต ๋ถ์: EU, ๋ฏธ๊ตญ, ์ค๊ตญ
Xun๊ณผ Cheng(2025)์ EU, ๋ฏธ๊ตญ, ์ค๊ตญ ์ธ ๋ฒ์ ์ ๊ฑธ์ณ ์จ๋ผ์ธ ํํ ๊ฑฐ๋ฒ๋์ค๋ฅผ ๋น๊ตํ๋ค. ์ด ์ฐ๊ตฌ๋ ๊ฐ ์ฒด์ ์์ ์จ๋ผ์ธ ํํ ๊ฑฐ๋ฒ๋์ค๊ฐ ์ ๋์ ์ผ๋ก ์ด๋ป๊ฒ ๋ฐ์ ํด ์๋์ง๋ฅผ ๋ถ์ํ๋ฉฐ, ์ ์น ๋ฌธํ, ๋ฒ์ ์ ํต, ๊ตญ๊ฐ-์์ฅ ๊ด๊ณ๊ฐ ํ์ฉ ๊ฐ๋ฅํ ํํ์ ๊ฒฝ๊ณ๋ฅผ ์ด๋ป๊ฒ ํ์ฑํ๋์ง๋ฅผ ๋ถ๊ฐ์ํจ๋ค.
์ธ ์ฒด์ ์ ๋น๊ต๋ฅผ ํตํด, "ํ์ค ํํ ๊ท์ "๊ฐ ์ ์น ์ฒด์ ์ ๋ฐ๋ผ ๊ทผ๋ณธ์ ์ผ๋ก ๋ค๋ฅธ ์๋ฏธ๋ฅผ ๊ฐ์ง์ด ๋๋ฌ๋๋ค. EU์์ ๊ทธ๊ฒ์ ์ทจ์ฝ ์ง๋จ์ ์ฐจ๋ณ์ ํํ์ผ๋ก๋ถํฐ ๋ณดํธํ๋ ๊ฒ์ ์๋ฏธํ๋ค. ๋ฏธ๊ตญ์์ ๊ทธ๊ฒ์ (ํ์ค์ ํํ์ ํฌํจํ) ๋ชจ๋ ํํ์ ์ ๋ถ์ ์ ํ์ผ๋ก๋ถํฐ ๋ณดํธํ๋ ๊ฒ์ ์๋ฏธํ๋ค. ์ค๊ตญ์์ ๊ทธ๊ฒ์ ์ฌํ ์์ ์ด๋ ๊ตญ๊ฐ ๊ถ์๋ฅผ ์ํํ๋ ํํ์ ํต์ ํ๋ ๊ฒ์ ์๋ฏธํ๋ค. ๋์ผํ ๊ท์ ์ ๋ช
์นญ ์๋ ์๋ฆฝ ๋ถ๊ฐ๋ฅํ ๊ท๋ฒ์ ์งํฅ์ด ์จ๊ฒจ์ ธ ์๋ ๊ฒ์ด๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
<
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| EU DSA๋ ํ์ค ํํ ์ค์ฌ๋ฅผ ์ํ ์คํ ๊ฐ๋ฅํ ํ์ ์ ๊ณตํ๋ค | Enarsson(2024): ECtHR ํ๋ก๊ฐ ๋น๋ก์ฑ ์ง์นจ์ ์ ๊ณตํ๋ฉฐ, ์ดํ์ด ๋ํ๋๊ณ ์์ | โ ๏ธ ๋ถํ์ค (ํ๊ฐํ๊ธฐ์ ์ด๋ฆ) |
| ํ๋ซํผ ์ค์ฌ๋ฅผ ์ํํ๋ฉด ํ์ค ํํ์ด ์ฆ๊ฐํ๋ค | Arun et al.(2024): ์ค์ฌ ์ํ ํ X/Twitter์์ ์ฝํ
์ธ ๋ฐ ๋คํธ์ํฌ ๋ณํ๊ฐ ๊ด์ฐฐ๋จ | โ
์ง์ง๋จ |
| ํํ ํ๋ซํผ ์ฑ
์ ๋ชจ๋ธ์ ๋ณดํธ์ ํํ์ ์์ ์ฌ์ด์ ๊ท ํ์ ์ ์ ํ ์ ์งํ๋ค | Alkiviadou(2024): ๋ชจ๋ ๋ชจ๋ธ์ ์๋นํ ์์ถฉ ๊ด๊ณ๊ฐ ์กด์ฌํจ | โ ๏ธ ๋ถํ์ค |
| EU์ ๋ฏธ๊ตญ์ ์ ๊ทผ ๋ฐฉ์์ด ์๋ ดํ๊ณ ์๋ค | Nunziato(2026): ๋์์ ์์์ ๊ฒฉ์ฐจ๋ ์ขํ์ง๋ ๊ฒ์ด ์๋๋ผ ๋ฒ์ด์ง๊ณ ์์ | โ ๋ฐ๋ฐ๋จ |
| ์จ๋ผ์ธ ํ์ค ํํ ๊ท์ ์ ๋ณดํธ์ ๊ธฐ์ค ๋ง๋ จ์ด ์คํ ๊ฐ๋ฅํ๋ค | Xun & Cheng(2025): ๊ท์ ๋ ๊ฐ ์ฒด์ ์ ๊ฑธ์ณ ์๋ฆฝ ๋ถ๊ฐ๋ฅํ ๊ท๋ฒ์ ์งํฅ์ ๋ฐ์ํจ | โ ๋ฐ๋ฐ๋จ |
๋ฏธํด๊ฒฐ ๊ณผ์
AI ๊ธฐ๋ฐ ์ฝํ
์ธ ์ค์ฌ๋ ํ์ค ํํ ํ๋จ์ ์๊ตฌ๋๋ ์ฌ์ธํจ์ ๋ฌ์ฑํ ์ ์๋๊ฐ? ํ์ค ํํ์ ํํ ๋งฅ๋ฝ, ์ด์กฐ, ํ์์ ์ ์ฒด์ฑ, ๋ฌธํ์ ์ฐธ์กฐ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง๋๋ฐ, ์ด๋ ์๋ํ ์์คํ
์ด ํ๊ฐํ๊ธฐ ์ด๋ ค์ด ์์๋ค์ด๋ค.
"ํฉ๋ฒ์ ์ด์ง๋ง ํด๋ก์ด(lawful but awful)" ๋ฐ์ธ์ ๊ท์ ํด์ผ ํ๋๊ฐ? ์ผ๋ถ ๋ฐ์ธ์ ์ ์ฉ ๋ฒ๋ฅ ์ ํฉ๋ฒ์ด์ง๋ง ํ๋ซํผ ์ปค๋ฎค๋ํฐ์ ํด๋กญ๋ค. ํ๋ซํผ์ ํฉ๋ฒ์ ์ด์ง๋ง ์ ํดํ ๋ฐ์ธ์ ๊ท์ ํด์ผ ํ๋๊ฐ, ๊ทธ๋ฆฌ๊ณ ๊ทธ๋ ๋ค๋ฉด ์ด๋ค ๊ธฐ์ค์ ์ํด์ผ ํ๋๊ฐ?ํ์ค ๋ฐ์ธ ๊ท์ ๋ ๊ต์ฐจ์ฑ(intersectionality)์ ์ด๋ป๊ฒ ๋ค๋ฃจ์ด์ผ ํ๋๊ฐ? ์ฌ๋ฌ ์์ธ ์ ์ฒด์ฑ์ ๊ต์ฐจ์ ์ ์๋ ๊ฐ์ธ(์: ํ์ธ ํธ๋์ค์ ๋ ์ฌ์ฑ)์ ํ์ ์ผ๋ก ํ๋ ๋ฐ์ธ์ ๋ฒ์ฃผ๋ณ ํ์ค ๋ฐ์ธ ์ ์๋ก๋ ํฌ์ฐฉ๋์ง ์์ ์ ์๋ค.์ ๋ถ๊ฐ ํ์ค ๋ฐ์ธ ๊ท์ ๋ฅผ ๋ฌด๊ธฐํํ ๋ ์ด๋ค ์ผ์ด ๋ฐ์ํ๋๊ฐ? ์์์๋ฅผ ๋ณดํธํ๊ธฐ ์ํด ์ค๊ณ๋ ๋ฒ๋ฅ ์ด ๊ถ์์ฃผ์ ์ ๋ถ์ ์ํด ๋ฐ๋ ์๊ฒฌ์ ์ต์ํ๋ ๋ฐ ์ฌ์ฉ๋ ์ ์์ผ๋ฉฐ, ์ด๋ ๋ค์์ ๋ฒ์ ๊ดํ ๊ถ์์ ์ค์ ๋ก ๋ฐ์ํ์๋ค.์์ฌ์
๋ณธ๊ณ ์์ ๊ฒํ ํ ์ฐ๊ตฌ๋ ํ์ค ๋ฐ์ธ ๊ท์ ๊ฐ ๊ธฐ์ ์ ํด๊ฒฐ์ฑ
์ด ์กด์ฌํ๋ ๊ธฐ์ ์ ๋ฌธ์ ๊ฐ ์๋์ ์์ฌํ๋ค. ์ด๋ ๋ฏผ์ฃผ์ฃผ์ ์ฌํ์์ ํ์ฉ ๊ฐ๋ฅํ ํํ์ ๊ฒฝ๊ณ๋ฅผ ๋๋ฌ์ผ ์ ์น์ ํ์์ด๋ฉฐ, ์๋ก ๋ค๋ฅธ ๋ฏผ์ฃผ์ฃผ์ ๊ตญ๊ฐ๋ค์ด ๋ณดํธ์ ์์ ์ฌ์ด์ ๊ท ํ์ ์์ดํ๊ฒ ์ค์ ํ๊ธฐ ๋๋ฌธ์ ๊ฐ๊ธฐ ๋ค๋ฅธ ๋ฐฉ์์ผ๋ก ํด๊ฒฐํ๋ค.
์ ์ธ๊ณ์์ ์ด์๋๋ ํ๋ซํผ์ด ์ง๋ฉดํ ์ค์ง์ ๊ณผ์ ๋ ๋ชจ๋ ๋ฒ์ ๊ดํ ๊ถ์ ๋ง์กฑ์ํค๋ ๋จ์ผํ ๊ท์น์ด ์กด์ฌํ์ง ์๋๋ค๋ ์ ์ด๋ค. ํ์ฌ ๋ถ์ํ๊ณ ์๋ ์ ๊ทผ ๋ฐฉ์โ์๋ก ๋ค๋ฅธ ์์ฅ์ ์์ดํ ์ฝํ
์ธ ๊ท์ ๊ธฐ์ค์ ์ ์ฉํ๋ ์ง์ญ๋ณ ์ฝํ
์ธ ์ ์ฑ
โ์ ์ด์์ ๋ณต์กํ์ง๋ง, EU์ ๋ฏธ๊ตญ ๋ชจ๋์ ์๋น์ค๋ฅผ ์ ๊ณตํ๋ ํ๋ซํผ์๊ฒ๋ ์ ์ผํ๊ฒ ์คํ ๊ฐ๋ฅํ ๊ฒฝ๋ก์ผ ์ ์๋ค.
References (5)
[1] Enarsson, T. (2024). Navigating Hate Speech and Content Moderation Under the DSA: Insights from ECtHR Case Law. Information & Communications Technology Law, 33(4).
[2] Arun, A., Chhatani, S., & An, J. (2024). X-posing Free Speech: Examining the Impact of Moderation Relaxation. Proc. ACL Workshop on Online Abuse and Harms.
[3] Alkiviadou, N. (2024). Platform Liability, Hate Speech and the Fundamental Right to Free Speech. Information & Communications Technology Law, 33(4).
[4] Nunziato, D. (2026). The EU Versus the Platforms and the First Amendment: Regulating Online Hate Speech. SSRN Working Paper.
[5] Xun, Z. & Cheng, X. (2025). The digital boundaries of free speech: legal interventions on hate speech and disinformation in the age of social media. Advances in Humanities Research, 23849.