This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
The recommendation algorithms that power Facebook, YouTube, TikTok, and Twitter were engineered to solve a commercial problem: how to keep users engaged longer, so they see more advertisements. These algorithms learnedโthrough billions of interactionsโthat emotionally charged content drives engagement. Outrage outperforms nuance. Conflict outperforms consensus. Simplicity outperforms complexity. The algorithms were never designed to serve democratic discourse; they were designed to serve attention economics.
State actors, political operatives, and organized influence networks have recognized this as an opportunity. If algorithms amplify emotionally charged content, then producing emotionally charged contentโregardless of its truth valueโis a strategy for controlling public discourse. What was once called "propaganda" now operates through the same algorithmic infrastructure that recommends cat videos and cooking tutorials. The mechanism is different, but the objective is ancient: shape what people believe by controlling what they see.
Algorithmic Amplification in Pakistan
Moroojo, Farooq, and Madni (2025) investigate the influence of AI-driven algorithmic systemsโparticularly recommendation engines and content ranking algorithmsโon political discourse in Pakistan's social media landscape. As millions of Pakistanis engage with platforms like Facebook, YouTube, and TikTok for news and political information, the algorithms that curate their feeds play an increasingly significant role in shaping political attitudes.
The study examines several mechanisms through which algorithmic amplification shapes political discourse:
- Content ranking: Algorithms prioritize content that generates engagement (reactions, comments, shares), which systematically favors emotionally provocative political content over substantive policy discussion.
- Recommendation cascades: When a user engages with one political post, the algorithm recommends similar content, creating a self-reinforcing cycle that deepens political engagement in narrow, often extreme, directions.
- Asymmetric amplification: Content from well-resourced political actors (parties, media houses, coordinated networks) receives disproportionate algorithmic amplification because it is produced at higher volume and is optimized for platform engagement metrics.
The Pakistan context is particularly revealing because the country's political landscape is deeply polarized, platform penetration is high, and media literacy is unevenโconditions that make algorithmic amplification especially consequential.
Gordeladze (2025) positions algorithmic manipulation explicitly as an instrument of information warfare. In the digital era, social media platforms are no longer merely channels for disseminating information; they have become key arenas of contemporary information warfare. Algorithms that determine the content delivered to users play a decisive role in this process.
The paper distinguishes several levels of algorithmic manipulation:
Passive exploitation: State or political actors produce content that is designed to be algorithmically amplifiedโemotionally charged, shareable, and engagement-optimizedโwithout directly manipulating the algorithm itself. The algorithm does the work; the manipulator merely feeds it.
Active manipulation: Coordinated inauthentic behaviorโbot networks, click farms, sock puppet accountsโthat directly manipulates engagement metrics to artificially amplify specific content. Platforms detect and remove these operations, but the adversarial dynamic means that manipulation techniques evolve faster than detection capabilities.
Infrastructure capture: The most sophisticated form, where state actors pressure or control the platforms themselvesโthrough regulatory threats, financial incentives, or direct ownershipโto adjust algorithmic parameters in their favor. This form is most visible in authoritarian contexts but is not absent from democratic ones.
Gombar (2025) introduces the concept of "cognitive warfare" to bridge traditional media theories (propaganda, framing, agenda-setting) with contemporary algorithmic manipulation. Through qualitative and comparative analyses, the study examines the evolution from broadcast-era information operations to algorithm-era cognitive operations.
The conceptual shift from information warfare to cognitive warfare is significant. Information warfare targets what people knowโit seeks to introduce false beliefs or suppress true ones. Cognitive warfare targets how people thinkโit seeks to shape the cognitive processes through which people evaluate information, form opinions, and make decisions. Algorithmic manipulation is a tool of cognitive warfare because it does not merely present specific content but structures the information environment within which all content is encountered.
The distinction has practical implications. Fact-checking addresses information warfare (correcting false claims) but does not address cognitive warfare (reshaping the cognitive habits that make people susceptible to false claims in the first place). Media literacy addresses cognitive warfare partially, but it operates at the individual level while cognitive warfare operates at the system levelโthrough algorithms that affect entire populations simultaneously.
Psychological Mechanisms
Nie (2025) examines the psychological mechanisms that make algorithmic manipulation effective. In the algorithm-driven landscape of social media, platform manipulation of user cognition and behavior has become increasingly prominent, shaping public opinion and social perception.
The paper identifies several psychological vulnerabilities that algorithmic manipulation exploits:
- Confirmation bias: Algorithms that show users content they are predisposed to agree with reinforce existing beliefs and reduce exposure to contrary evidence.
- Availability heuristic: When algorithmic amplification makes certain claims highly visible, users perceive them as more prevalent and more credibleโregardless of their actual frequency or accuracy.
- Social proof: Engagement metrics (likes, shares, view counts) serve as heuristic indicators of credibility. Artificially inflated metrics create a false impression of consensus.
- Emotional arousal: Content that triggers strong emotions (anger, fear, moral indignation) is processed less critically and shared more impulsively. Algorithms that amplify emotional content systematically reduce the quality of information processing.
Echo Chambers and Polarization
Omachi and Okoh (2025) examine the downstream political consequence of algorithmic manipulation: political polarization in democratic societies. Social media platforms, through sophisticated algorithms, prioritize content based on user preferences and engagement, often leading to the formation of echo chambers that reinforce pre-existing beliefs.
The echo chamber dynamic is not merely a side effect of personalizationโit is, the paper argues, a structural feature of attention-based business models. Platforms that depend on engagement for revenue have an institutional interest in echo chambers, because users spend more time on platforms where they encounter content that confirms their worldview than on platforms that challenge it. Algorithmic personalization and political polarization are not accidentally correlatedโthey are structurally connected through the business model.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| Social media algorithms amplify politically divisive content | Moroojo et al. (2025): engagement-based ranking systematically favors provocative content | โ
Supported |
| State actors exploit algorithmic amplification for information warfare | Gordeladze (2025): passive exploitation, active manipulation, and infrastructure capture documented | โ
Supported |
| Algorithmic manipulation targets cognition, not just information | Gombar (2025): cognitive warfare framework distinguishes informational from cognitive operations | โ
Supported (theoretical) |
| Echo chambers are a structural feature of attention-based business models | Omachi & Okoh (2025): engagement incentives structurally connected to polarization | โ
Supported (theoretical) |
| Fact-checking adequately counters algorithmic manipulation | Nie (2025): fact-checking addresses information but not cognitive manipulation | โ Refuted |
Open Questions
Can algorithmic transparency requirements reduce manipulation? If platforms were required to disclose how their algorithms rank content, would this enable detection of manipulation or merely shift manipulation techniques to exploit the disclosed rules?Is there a governance framework that addresses cognitive warfare? Traditional media regulation addresses content (what is said). Cognitive warfare operates through structure (how information environments are organized). What regulatory tools address structure?How do we distinguish algorithmic amplification from organic virality? Not all viral political content is manipulated. Developing reliable methods for distinguishing organic engagement from artificial amplification is technically challenging and politically sensitive.Can democratic societies defend against cognitive warfare without restricting free expression? The tension between security and liberty is ancient, but algorithmic manipulation introduces a new dimension: the manipulation operates through the structure of communication, not its content, making content-based regulation ineffective.Implications
The research reviewed here points to a structural challenge that content moderation, fact-checking, and media literacy alone cannot resolve. Algorithmic manipulation exploits the fundamental architecture of attention-based social media platformsโthe same architecture that makes these platforms commercially viable. Addressing the manipulation without addressing the architecture is treating symptoms while the disease progresses.
The strategic implication is that the defense against algorithmic information warfare must be architectural, not merely content-level: redesigning recommendation systems to value deliberative quality alongside engagement, creating interoperable platforms that reduce the concentration of algorithmic power, and developing public interest alternatives to commercial social media. These are structural interventions that require political will, institutional capacity, andโmost challenginglyโeconomic models that can sustain platforms without depending on the attention economy that makes them vulnerable to manipulation.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ ์๋ฌผ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๊ฒ์ฆํด์ผ ํ๋ค.
์ ๋ณด์ ์ผ๋ก์์ ์๊ณ ๋ฆฌ์ฆ ์กฐ์: ์์
๋ฏธ๋์ด๊ฐ ๋ฌด๊ธฐ๊ฐ ๋ ๋
Facebook, YouTube, TikTok, Twitter๋ฅผ ๊ตฌ๋ํ๋ ์ถ์ฒ ์๊ณ ๋ฆฌ์ฆ์ ์์
์ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ์ค๊ณ๋์๋ค. ์ฆ, ์ฌ์ฉ์๊ฐ ๋ ๋ง์ ๊ด๊ณ ๋ฅผ ๋ณผ ์ ์๋๋ก ๋ ์ค๋ ํ๋ซํผ์ ๋จธ๋ฌผ๊ฒ ํ๋ ๋ฐฉ๋ฒ์ด์๋ค. ์ด ์๊ณ ๋ฆฌ์ฆ๋ค์ ์์ญ์ต ๊ฑด์ ์ํธ์์ฉ์ ํตํด, ๊ฐ์ ์ ์ผ๋ก ์๊ทน์ ์ธ ์ฝํ
์ธ ๊ฐ ์ฐธ์ฌ๋๋ฅผ ๋์ธ๋ค๋ ์ฌ์ค์ ํ์ตํ๋ค. ๋ถ๋
ธ๋ ๋์์ค๋ฅผ ์๋ํ๋ค. ๊ฐ๋ฑ์ ํฉ์๋ฅผ ์๋ํ๋ค. ๋จ์ํจ์ ๋ณต์กํจ์ ์๋ํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ ๋ฏผ์ฃผ์ ๋ด๋ก ์ ์ํด ์ค๊ณ๋ ๊ฒ์ด ์๋๋ผ, ์ฃผ์ ๊ฒฝ์ (attention economics)๋ฅผ ์ํด ์ค๊ณ๋์๋ค.
๊ตญ๊ฐ ํ์์, ์ ์น ๊ณต์์, ์กฐ์งํ๋ ์ํฅ๋ ฅ ๋คํธ์ํฌ๋ ์ด๋ฅผ ํ๋์ ๊ธฐํ๋ก ์ธ์ํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ด ๊ฐ์ ์ ์ผ๋ก ์๊ทน์ ์ธ ์ฝํ
์ธ ๋ฅผ ์ฆํญ์ํจ๋ค๋ฉด, ์ง์ค ์ฌ๋ถ์ ๊ด๊ณ์์ด ๊ทธ๋ฌํ ์ฝํ
์ธ ๋ฅผ ์์ฐํ๋ ๊ฒ์ด ๊ณต๋ก ์ ํต์ ํ๋ ์ ๋ต์ด ๋๋ค. ํ๋ "ํ๋กํ๊ฐ๋ค"๋ผ๊ณ ๋ถ๋ ธ๋ ๊ฒ์ด ์ด์ ๋ ๊ณ ์์ด ๋์์๊ณผ ์๋ฆฌ ํํ ๋ฆฌ์ผ์ ์ถ์ฒํ๋ ๊ฒ๊ณผ ๋์ผํ ์๊ณ ๋ฆฌ์ฆ ์ธํ๋ผ๋ฅผ ํตํด ์๋ํ๋ค. ๋ฉ์ปค๋์ฆ์ ๋ค๋ฅด์ง๋ง, ๋ชฉํ๋ ์ค๋๋ ๊ฒ์ด๋ค. ์ฆ, ์ฌ๋๋ค์ด ๋ณด๋ ๊ฒ์ ํต์ ํจ์ผ๋ก์จ ๊ทธ๋ค์ด ๋ฏฟ๋ ๊ฒ์ ํ์ฑํ๋ ๊ฒ์ด๋ค.
ํํค์คํ์ ์๊ณ ๋ฆฌ์ฆ ์ฆํญ
Moroojo, Farooq, Madni(2025)๋ ํํค์คํ์ ์์
๋ฏธ๋์ด ํ๊ฒฝ์์ ์ ์น์ ๋ด๋ก ์ ๋ํ AI ๊ธฐ๋ฐ ์๊ณ ๋ฆฌ์ฆ ์์คํ
โํนํ ์ถ์ฒ ์์ง๊ณผ ์ฝํ
์ธ ์์ ์๊ณ ๋ฆฌ์ฆโ์ ์ํฅ๋ ฅ์ ์กฐ์ฌํ๋ค. ์๋ฐฑ๋ง ๋ช
์ ํํค์คํ์ธ์ด ๋ด์ค ๋ฐ ์ ์น ์ ๋ณด๋ฅผ ์ํด Facebook, YouTube, TikTok๊ณผ ๊ฐ์ ํ๋ซํผ์ ์ด์ฉํจ์ ๋ฐ๋ผ, ํผ๋๋ฅผ ํ๋ ์ด์
ํ๋ ์๊ณ ๋ฆฌ์ฆ์ ์ ์น์ ํ๋๋ฅผ ํ์ฑํ๋ ๋ฐ ์ ์ ๋ ์ค์ํ ์ญํ ์ ํ๋ค.
์ด ์ฐ๊ตฌ๋ ์๊ณ ๋ฆฌ์ฆ ์ฆํญ์ด ์ ์น์ ๋ด๋ก ์ ํ์ฑํ๋ ์ฌ๋ฌ ๋ฉ์ปค๋์ฆ์ ๊ฒํ ํ๋ค.
- ์ฝํ
์ธ ์์: ์๊ณ ๋ฆฌ์ฆ์ ์ฐธ์ฌ๋(๋ฐ์, ๋๊ธ, ๊ณต์ )๋ฅผ ์์ฑํ๋ ์ฝํ
์ธ ๋ฅผ ์ฐ์ ์ํ๋ฉฐ, ์ด๋ ์ค์ง์ ์ธ ์ ์ฑ
๋
ผ์๋ณด๋ค ๊ฐ์ ์ ์ผ๋ก ์๊ทน์ ์ธ ์ ์น ์ฝํ
์ธ ๋ฅผ ์ฒด๊ณ์ ์ผ๋ก ์ ํธํ๊ฒ ๋ง๋ ๋ค.
- ์ถ์ฒ ์ฐ์: ์ฌ์ฉ์๊ฐ ํ๋์ ์ ์น์ ๊ฒ์๋ฌผ์ ์ฐธ์ฌํ๋ฉด, ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฌํ ์ฝํ
์ธ ๋ฅผ ์ถ์ฒํ์ฌ ์ข๊ณ ์ข
์ข
๊ทน๋จ์ ์ธ ๋ฐฉํฅ์ผ๋ก ์ ์น์ ์ฐธ์ฌ๋ฅผ ์ฌํ์ํค๋ ์๊ธฐ ๊ฐํ์ ์ํ์ ๋ง๋ค์ด๋ธ๋ค.
- ๋น๋์นญ์ ์ฆํญ: ์์์ด ํ๋ถํ ์ ์น ํ์์(์ ๋น, ๋ฏธ๋์ด ํ์ฐ์ค, ์กฐ์งํ๋ ๋คํธ์ํฌ)์ ์ฝํ
์ธ ๋ ๋ ๋ง์ ์์ผ๋ก ์์ฐ๋๊ณ ํ๋ซํผ ์ฐธ์ฌ ์งํ์ ์ต์ ํ๋์ด ์๊ธฐ ๋๋ฌธ์, ๋ถ๊ท ํ์ ์ธ ์๊ณ ๋ฆฌ์ฆ ์ฆํญ์ ๋ฐ๋๋ค.
ํํค์คํ์ ์ฌ๋ก๋ ํนํ ์์ฌ์ ์ด๋ค. ์ด ๋๋ผ์ ์ ์น ์งํ์ ๊ทน๋๋ก ์๊ทนํ๋์ด ์๊ณ , ํ๋ซํผ ๋ณด๊ธ๋ฅ ์ ๋์ผ๋ฉฐ, ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์๋ ๊ณ ๋ฅด์ง ์๋ค. ์ด๋ฌํ ์กฐ๊ฑด๋ค์ด ์๊ณ ๋ฆฌ์ฆ ์ฆํญ์ ํนํ ์ค๋ํ ๊ฒฐ๊ณผ๋ฅผ ์ด๋ํ๋ ๊ฒ์ผ๋ก ๋ง๋ ๋ค.
์ ๋ณด์ : ํ๋์ ํ๋ ์์ํฌ
Gordeladze(2025)๋ ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ๋ช
์์ ์ผ๋ก ์ ๋ณด์ ์ ๋๊ตฌ๋ก ์๋ฆฌ๋งค๊นํ๋ค. ๋์งํธ ์๋์ ์์
๋ฏธ๋์ด ํ๋ซํผ์ ๋ ์ด์ ๋จ์ํ ์ ๋ณด๋ฅผ ์ ๋ฌํ๋ ์ฑ๋์ด ์๋๋ผ, ํ๋ ์ ๋ณด์ ์ ํต์ฌ ์ ์ฅ์ด ๋์๋ค. ์ฌ์ฉ์์๊ฒ ์ ๋ฌ๋ ์ฝํ
์ธ ๋ฅผ ๊ฒฐ์ ํ๋ ์๊ณ ๋ฆฌ์ฆ์ ์ด ๊ณผ์ ์์ ๊ฒฐ์ ์ ์ธ ์ญํ ์ ํ๋ค.
์ด ๋
ผ๋ฌธ์ ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ์ฌ๋ฌ ์์ค์ ๊ตฌ๋ถํ๋ค.
์๋์ ์ฐฉ์ทจ: ๊ตญ๊ฐ ๋๋ ์ ์น ํ์์๊ฐ ์๊ณ ๋ฆฌ์ฆ ์์ฒด๋ฅผ ์ง์ ์กฐ์ํ์ง ์๊ณ , ์๊ณ ๋ฆฌ์ฆ์ ์ผ๋ก ์ฆํญ๋๋๋ก ์ค๊ณ๋ ์ฝํ
์ธ โ๊ฐ์ ์ ์ผ๋ก ์๊ทน์ ์ด๊ณ , ๊ณต์ ๊ฐ๋ฅํ๋ฉฐ, ์ฐธ์ฌ๋์ ์ต์ ํ๋โ๋ฅผ ์์ฐํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ด ์์
์ ์ํํ๊ณ , ์กฐ์์๋ ๋จ์ง ๊ทธ๊ฒ์ ๋จน์ด๋ฅผ ์ค ๋ฟ์ด๋ค.
๋ฅ๋์ ์กฐ์: ๋ด ๋คํธ์ํฌ, ํด๋ฆญ ํ, ์๋ง ์ธํ ๊ณ์ (sock puppet accounts)๊ณผ ๊ฐ์ ์กฐ์ ๋ ๋น์ง์ ์ฑ ํ๋(coordinated inauthentic behavior)์ผ๋ก, ํน์ ์ฝํ
์ธ ๋ฅผ ์ธ์์ ์ผ๋ก ์ฆํญ์ํค๊ธฐ ์ํด ์ฐธ์ฌ ์งํ๋ฅผ ์ง์ ์กฐ์ํ๋ค. ํ๋ซํผ์ ์ด๋ฌํ ์์ ์ ํ์งํ์ฌ ์ ๊ฑฐํ์ง๋ง, ๋๋ฆฝ์ ์ญํ ๊ด๊ณ๋ก ์ธํด ์กฐ์ ๊ธฐ๋ฒ์ด ํ์ง ๋ฅ๋ ฅ๋ณด๋ค ๋น ๋ฅด๊ฒ ์งํํ๋ค.
์ธํ๋ผ ํฌํ: ๊ฐ์ฅ ์ ๊ตํ ํํ๋ก, ๊ตญ๊ฐ ํ์์๊ฐ ๊ท์ ์ํ, ๊ธ์ ์ ์ ์ธ ๋๋ ์ง์ ์์ ๋ฅผ ํตํด ํ๋ซํผ ์์ฒด์ ์๋ ฅ์ ๊ฐํ๊ฑฐ๋ ํต์ ํ์ฌ ์๊ณ ๋ฆฌ์ฆ ๋งค๊ฐ๋ณ์๋ฅผ ์๊ตญ์ ์ ๋ฆฌํ๊ฒ ์กฐ์ ํ๋ ๋ฐฉ์์ด๋ค. ์ด ํํ๋ ๊ถ์์ฃผ์์ ๋งฅ๋ฝ์์ ๊ฐ์ฅ ๋๋๋ฌ์ง๊ฒ ๋ํ๋์ง๋ง, ๋ฏผ์ฃผ์ฃผ์์ ๋งฅ๋ฝ์์๋ ์์ ํ ๋ถ์ฌํ์ง๋ ์๋๋ค.
์ธ์ง์ (Cognitive Warfare): ์ ๋ณด์์ ์ธ์ง๋ก
Gombar(2025)๋ ์ ํต์ ์ธ ๋ฏธ๋์ด ์ด๋ก (ํ๋กํ๊ฐ๋ค, ํ๋ ์ด๋ฐ, ์์ ์ค์ )๊ณผ ํ๋์ ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ์ฐ๊ฒฐํ๊ธฐ ์ํด "์ธ์ง์ (cognitive warfare)"์ด๋ผ๋ ๊ฐ๋
์ ๋์
ํ๋ค. ์ด ์ฐ๊ตฌ๋ ์ง์ ยท๋น๊ต ๋ถ์์ ํตํด ๋ฐฉ์ก ์๋์ ์ ๋ณด ์์ ์์ ์๊ณ ๋ฆฌ์ฆ ์๋์ ์ธ์ง ์์ ์ผ๋ก์ ์งํ๋ฅผ ๊ณ ์ฐฐํ๋ค.
์ ๋ณด์ (information warfare)์์ ์ธ์ง์ (cognitive warfare)์ผ๋ก์ ๊ฐ๋
์ ์ ํ์ ์ค์ํ ์๋ฏธ๋ฅผ ์ง๋๋ค. ์ ๋ณด์ ์ ์ฌ๋๋ค์ด ์๋ ๊ฒ์ ํ์ ์ผ๋ก ์ผ๋๋คโ์ฆ, ํ์ ๋ฏฟ์์ ์ฃผ์
ํ๊ฑฐ๋ ์ฐธ๋ ๋ฏฟ์์ ์ต์ํ๋ ค ํ๋ค. ์ธ์ง์ ์ ์ฌ๋๋ค์ด ์๊ฐํ๋ ๋ฐฉ์์ ํ์ ์ผ๋ก ์ผ๋๋คโ์ฆ, ์ฌ๋๋ค์ด ์ ๋ณด๋ฅผ ํ๊ฐํ๊ณ , ์๊ฒฌ์ ํ์ฑํ๋ฉฐ, ๊ฒฐ์ ์ ๋ด๋ฆฌ๋ ์ธ์ง ๊ณผ์ ์์ฒด๋ฅผ ํ์ฑํ๋ ค ํ๋ค. ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ์ธ์ง์ ์ ๋๊ตฌ์ธ๋ฐ, ์ด๋ ๋จ์ํ ํน์ ์ฝํ
์ธ ๋ฅผ ์ ์ํ๋ ๊ฒ์ด ์๋๋ผ ๋ชจ๋ ์ฝํ
์ธ ๊ฐ ์ ํ๊ฒ ๋๋ ์ ๋ณด ํ๊ฒฝ ์์ฒด๋ฅผ ๊ตฌ์กฐํํ๊ธฐ ๋๋ฌธ์ด๋ค.
์ด ๊ตฌ๋ถ์ ์ค์ง์ ์ธ ํจ์๋ฅผ ์ง๋๋ค. ํฉํธ์ฒดํน์ ์ ๋ณด์ (ํ์ ์ฃผ์ฅ ๊ต์ )์๋ ๋์ํ์ง๋ง, ์ธ์ง์ (์ฌ๋๋ค์ ํ์ ์ฃผ์ฅ์ ์ทจ์ฝํ๊ฒ ๋ง๋๋ ์ธ์ง์ ์ต๊ด ์์ฒด๋ฅผ ์ฌํ์ฑํ๋ ๊ฒ)์๋ ๋์ํ์ง ๋ชปํ๋ค. ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์๋ ์ธ์ง์ ์ ๋ถ๋ถ์ ์ผ๋ก ๋์ํ์ง๋ง, ๊ฐ์ธ ์์ค์์ ์๋ํ๋ ๋ฐ๋ฉด ์ธ์ง์ ์ ์์คํ
์์ค์์โ์ ์ฒด ์ธ๊ตฌ์ ๋์์ ์ํฅ์ ๋ฏธ์น๋ ์๊ณ ๋ฆฌ์ฆ์ ํตํดโ์๋ํ๋ค.
์ฌ๋ฆฌ์ ๋ฉ์ปค๋์ฆ
Nie(2025)๋ ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ํจ๊ณผ์ ์ผ๋ก ๋ง๋๋ ์ฌ๋ฆฌ์ ๋ฉ์ปค๋์ฆ์ ๊ณ ์ฐฐํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ด ์ฃผ๋ํ๋ ์์
๋ฏธ๋์ด ํ๊ฒฝ์์, ํ๋ซํผ์ ์ฌ์ฉ์ ์ธ์ง ๋ฐ ํ๋ ์กฐ์์ ์ ์ ๋ ๋๋๋ฌ์ง๊ฒ ๋ํ๋๋ฉฐ, ์ฌ๋ก ๊ณผ ์ฌํ์ ์ธ์์ ํ์ฑํ๊ณ ์๋ค.
์ด ๋
ผ๋ฌธ์ ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ด ํ์ฉํ๋ ์ฌ๋ฌ ์ฌ๋ฆฌ์ ์ทจ์ฝ์ฑ์ ๋ค์๊ณผ ๊ฐ์ด ๊ท๋ช
ํ๋ค:
- ํ์ฆ ํธํฅ(Confirmation bias): ์ฌ์ฉ์๊ฐ ๋์ํ ์ฑํฅ์ด ์๋ ์ฝํ
์ธ ๋ฅผ ๋ณด์ฌ์ฃผ๋ ์๊ณ ๋ฆฌ์ฆ์ ๊ธฐ์กด ๋ฏฟ์์ ๊ฐํํ๊ณ ๋ฐ๋ ์ฆ๊ฑฐ์ ๋ํ ๋
ธ์ถ์ ์ค์ธ๋ค.
- ๊ฐ์ฉ์ฑ ํด๋ฆฌ์คํฑ(Availability heuristic): ์๊ณ ๋ฆฌ์ฆ์ ์ฆํญ์ผ๋ก ํน์ ์ฃผ์ฅ์ด ๋งค์ฐ ๋์ ๊ฐ์์ฑ์ ๊ฐ์ง๊ฒ ๋๋ฉด, ์ฌ์ฉ์๋ ์ค์ ๋น๋๋ ์ ํ์ฑ์ ๊ด๊ณ์์ด ํด๋น ์ฃผ์ฅ์ ๋ ๋๋ฆฌ ํผ์ง ๊ฒ์ผ๋ก, ๋ ์ ๋ขฐํ ๋งํ ๊ฒ์ผ๋ก ์ธ์ํ๋ค.
- ์ฌํ์ ์ฆ๊ฑฐ(Social proof): ์ฐธ์ฌ ์งํ(์ข์์, ๊ณต์ , ์กฐํ ์)๋ ์ ๋ขฐ์ฑ์ ํด๋ฆฌ์คํฑ ์งํ๋ก ๊ธฐ๋ฅํ๋ค. ์ธ์์ ์ผ๋ก ๋ถํ๋ ค์ง ์งํ๋ ํ์ ํฉ์ ์ธ์์ ์์ฑํ๋ค.
- ๊ฐ์ ์ ๊ฐ์ฑ(Emotional arousal): ๊ฐํ ๊ฐ์ (๋ถ๋
ธ, ๊ณตํฌ, ๋๋์ ๋ถ๊ฐ)์ ์ ๋ฐํ๋ ์ฝํ
์ธ ๋ ๋ ๋นํ์ ์ผ๋ก ์ฒ๋ฆฌ๋๊ณ ๋ ์ถฉ๋์ ์ผ๋ก ๊ณต์ ๋๋ค. ๊ฐ์ ์ ์ฝํ
์ธ ๋ฅผ ์ฆํญ์ํค๋ ์๊ณ ๋ฆฌ์ฆ์ ์ ๋ณด ์ฒ๋ฆฌ์ ์ง์ ์ฒด๊ณ์ ์ผ๋ก ์ ํ์ํจ๋ค.
์์ฝ ์ฑ๋ฒ์ ์๊ทนํ
Omachi์ Okoh(2025)๋ ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ํ๋ฅ์ (downstream) ์ ์น์ ๊ฒฐ๊ณผ, ์ฆ ๋ฏผ์ฃผ์ฃผ์ ์ฌํ์ ์ ์น์ ์๊ทนํ๋ฅผ ๊ณ ์ฐฐํ๋ค. ์์
๋ฏธ๋์ด ํ๋ซํผ์ ์ ๊ตํ ์๊ณ ๋ฆฌ์ฆ์ ํตํด ์ฌ์ฉ์ ์ ํธ๋์ ์ฐธ์ฌ๋๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์ฝํ
์ธ ๋ฅผ ์ฐ์ ์ ์ผ๋ก ์ ๊ณตํ๋ฉฐ, ์ด๋ ๊ธฐ์กด ๋ฏฟ์์ ๊ฐํํ๋ ์์ฝ ์ฑ๋ฒ(echo chambers)์ ํ์ฑ์ผ๋ก ์ด์ด์ง๋ ๊ฒฝ์ฐ๊ฐ ๋ง๋ค.
์ฃผ์ฅ๊ณผ ์ฆ๊ฑฐ
๋ฐํฅ์ค ์ญํ์ ๋จ์ํ ๊ฐ์ธํ์ ๋ถ์์ฉ์ด ์๋๋ผ, ๋
ผ๋ฌธ์ด ์ฃผ์ฅํ๋ฏ ๊ด์ฌ ๊ธฐ๋ฐ ๋น์ฆ๋์ค ๋ชจ๋ธ์ ๊ตฌ์กฐ์ ํน์ฑ์ด๋ค. ์์ต์ ์ํด ์ฐธ์ฌ๋์ ์์กดํ๋ ํ๋ซํผ์ ๋ฐํฅ์ค์ ๋ํ ์ ๋์ ์ดํด๊ด๊ณ๋ฅผ ๊ฐ๋๋ค. ์๋ํ๋ฉด ์ฌ์ฉ์๋ค์ ์์ ์ ์ธ๊ณ๊ด์ ๋์ ํ๋ ํ๋ซํผ๋ณด๋ค ์์ ์ ์ธ๊ณ๊ด์ ํ์ธํด ์ฃผ๋ ์ฝํ
์ธ ๋ฅผ ์ ํ๋ ํ๋ซํผ์์ ๋ ๋ง์ ์๊ฐ์ ๋ณด๋ด๊ธฐ ๋๋ฌธ์ด๋ค. ์๊ณ ๋ฆฌ์ฆ์ ๊ฐ์ธํ์ ์ ์น์ ์๊ทนํ๋ ์ฐ์ฐํ ์๊ด๊ด๊ณ๋ฅผ ๊ฐ๋ ๊ฒ์ด ์๋๋ผ, ๋น์ฆ๋์ค ๋ชจ๋ธ์ ํตํด ๊ตฌ์กฐ์ ์ผ๋ก ์ฐ๊ฒฐ๋์ด ์๋ค.
์ฃผ์ฅ๊ณผ ์ฆ๊ฑฐ
<
| ์ฃผ์ฅ | ์ฆ๊ฑฐ | ํ๊ฐ |
|---|
| ์์
๋ฏธ๋์ด ์๊ณ ๋ฆฌ์ฆ์ ์ ์น์ ์ผ๋ก ๋ถ์ด์ ์กฐ์ฅํ๋ ์ฝํ
์ธ ๋ฅผ ์ฆํญ์ํจ๋ค | Moroojo et al. (2025): ์ฐธ์ฌ๋ ๊ธฐ๋ฐ ์์ ์๊ณ ๋ฆฌ์ฆ์ด ์ฒด๊ณ์ ์ผ๋ก ์๊ทน์ ์ธ ์ฝํ
์ธ ๋ฅผ ์ ํธํจ | โ
์ง์ง๋จ |
| ๊ตญ๊ฐ ํ์์๋ค์ ์ ๋ณด์ ์ ์ํด ์๊ณ ๋ฆฌ์ฆ์ ์ฆํญ์ ์ด์ฉํ๋ค | Gordeladze (2025): ์๋์ ์ด์ฉ, ๋ฅ๋์ ์กฐ์, ์ธํ๋ผ ์ฅ์
์ด ๊ธฐ๋ก๋จ | โ
์ง์ง๋จ |
| ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ์ ๋ณด๊ฐ ์๋ ์ธ์ง๋ฅผ ํ์ ์ผ๋ก ์ผ๋๋ค | Gombar (2025): ์ธ์ง์ ํ๋ ์์ํฌ๊ฐ ์ ๋ณด์ ์์ ๊ณผ ์ธ์ง์ ์์ ์ ๊ตฌ๋ถํจ | โ
์ง์ง๋จ (์ด๋ก ์ ) |
| ๋ฐํฅ์ค์ ๊ด์ฌ ๊ธฐ๋ฐ ๋น์ฆ๋์ค ๋ชจ๋ธ์ ๊ตฌ์กฐ์ ํน์ฑ์ด๋ค | Omachi & Okoh (2025): ์ฐธ์ฌ๋ ์ธ์ผํฐ๋ธ๊ฐ ๊ตฌ์กฐ์ ์ผ๋ก ์๊ทนํ์ ์ฐ๊ฒฐ๋จ | โ
์ง์ง๋จ (์ด๋ก ์ ) |
| ํฉํธ์ฒดํน์ ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ์ ์ ํ ๋์ํ๋ค | Nie (2025): ํฉํธ์ฒดํน์ ์ ๋ณด๋ฅผ ๋ค๋ฃจ์ง๋ง ์ธ์ง์ ์กฐ์์๋ ๋์ํ์ง ๋ชปํจ | โ ๋ฐ๋ฐ๋จ |
๋ฏธํด๊ฒฐ ์ง๋ฌธ
์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ ์๊ตฌ ์ฌํญ์ด ์กฐ์์ ์ค์ผ ์ ์๋๊ฐ? ํ๋ซํผ์ด ์๊ณ ๋ฆฌ์ฆ์ ์ฝํ
์ธ ์์ ๋ฐฉ์์ ๊ณต๊ฐํ๋๋ก ์๊ตฌ๋ฐ๋๋ค๋ฉด, ์ด๊ฒ์ด ์กฐ์์ ํ์ง๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ ๊ฒ์ธ๊ฐ, ์๋๋ฉด ๋จ์ํ ๊ณต๊ฐ๋ ๊ท์น์ ์ด์ฉํ๋ ๋ฐฉํฅ์ผ๋ก ์กฐ์ ๊ธฐ๋ฒ์ด ์ด๋ํ ๊ฒ์ธ๊ฐ?์ธ์ง์ ์ ๋ค๋ฃจ๋ ๊ฑฐ๋ฒ๋์ค ํ๋ ์์ํฌ๊ฐ ์กด์ฌํ๋๊ฐ? ์ ํต์ ์ธ ๋ฏธ๋์ด ๊ท์ ๋ ์ฝํ
์ธ (๋ฌด์์ด ๋งํด์ง๋๊ฐ)๋ฅผ ๋ค๋ฃฌ๋ค. ์ธ์ง์ ์ ๊ตฌ์กฐ(์ ๋ณด ํ๊ฒฝ์ด ์ด๋ป๊ฒ ์กฐ์ง๋๋๊ฐ)๋ฅผ ํตํด ์๋ํ๋ค. ์ด๋ค ๊ท์ ๋๊ตฌ๊ฐ ๊ตฌ์กฐ๋ฅผ ๋ค๋ฃจ๋๊ฐ?์๊ณ ๋ฆฌ์ฆ์ ์ฆํญ๊ณผ ์์ฐ๋ฐ์์ ๋ฐ์ด๋ด๋ฆฌํฐ๋ฅผ ์ด๋ป๊ฒ ๊ตฌ๋ณํ ๊ฒ์ธ๊ฐ? ๋ฐ์ด๋ดํ ์ ์น ์ฝํ
์ธ ์ ๋ถ๊ฐ ์กฐ์๋ ๊ฒ์ ์๋๋ค. ์์ฐ๋ฐ์์ ์ฐธ์ฌ์ ์ธ์์ ์ฆํญ์ ๊ตฌ๋ณํ๋ ์ ๋ขฐํ ์ ์๋ ๋ฐฉ๋ฒ์ ๊ฐ๋ฐํ๋ ๊ฒ์ ๊ธฐ์ ์ ์ผ๋ก ์ด๋ ต๊ณ ์ ์น์ ์ผ๋ก ๋ฏผ๊ฐํ๋ค.๋ฏผ์ฃผ์ฃผ์ ์ฌํ๋ ํํ์ ์์ ๋ฅผ ์ ํํ์ง ์๊ณ ์ธ์ง์ ์ ๋ง์ค ์ ์๋๊ฐ? ์๋ณด์ ์์ ๊ฐ์ ๊ธด์ฅ์ ์ค๋๋ ๊ฒ์ด์ง๋ง, ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ์๋ก์ด ์ฐจ์์ ๋์
ํ๋ค. ์ฆ, ์กฐ์์ด ์ฝํ
์ธ ๊ฐ ์๋ ์ํต์ ๊ตฌ์กฐ๋ฅผ ํตํด ์๋ํ๊ธฐ ๋๋ฌธ์ ์ฝํ
์ธ ๊ธฐ๋ฐ ๊ท์ ๊ฐ ํจ๊ณผ์ ์ด์ง ์๋ค.์์ฌ์
์ฌ๊ธฐ์ ๊ฒํ ๋ ์ฐ๊ตฌ๋ค์ ์ฝํ
์ธ ๋ชจ๋๋ ์ด์
, ํฉํธ์ฒดํน, ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์๋ง์ผ๋ก๋ ํด๊ฒฐํ ์ ์๋ ๊ตฌ์กฐ์ ๋์ ์ ๊ฐ๋ฆฌํจ๋ค. ์๊ณ ๋ฆฌ์ฆ ์กฐ์์ ๊ด์ฌ ๊ธฐ๋ฐ ์์
๋ฏธ๋์ด ํ๋ซํผ์ ๊ทผ๋ณธ์ ์ธ ์ํคํ
์ฒ, ์ฆ ์ด ํ๋ซํผ๋ค์ ์์
์ ์ผ๋ก ์กด์ ๊ฐ๋ฅํ๊ฒ ๋ง๋๋ ๋ฐ๋ก ๊ทธ ์ํคํ
์ฒ๋ฅผ ์ด์ฉํ๋ค. ์ํคํ
์ฒ๋ฅผ ๋ค๋ฃจ์ง ์๊ณ ์กฐ์์๋ง ๋์ํ๋ ๊ฒ์ ์ง๋ณ์ด ์งํ๋๋ ๋์ ์ฆ์๋ง ์น๋ฃํ๋ ๊ฒ์ด๋ค.
์ ๋ต์ ์์ฌ์ ์ ์๊ณ ๋ฆฌ์ฆ ์ ๋ณด์ ์ ๋ํ ๋ฐฉ์ด๊ฐ ๋จ์ํ ์ฝํ
์ธ ์์ค์ด ์๋ ์ํคํ
์ฒ ์์ค์์ ์ด๋ฃจ์ด์ ธ์ผ ํ๋ค๋ ๊ฒ์ด๋ค. ์ฆ, ์ฐธ์ฌ๋์ ํจ๊ป ์์์ ํ์ง์ ์ค์ํ๋๋ก ์ถ์ฒ ์์คํ
์ ์ฌ์ค๊ณํ๊ณ , ์๊ณ ๋ฆฌ์ฆ ๊ถ๋ ฅ์ ์ง์ค์ ์ค์ด๋ ์ํธ์ด์ฉ ๊ฐ๋ฅํ ํ๋ซํผ์ ๋ง๋ค๋ฉฐ, ์์
์ ์์
๋ฏธ๋์ด์ ๋ํ ๊ณต์ต ๋์์ ๊ฐ๋ฐํ๋ ๊ฒ์ด๋ค. ์ด๊ฒ๋ค์ ์ ์น์ ์์ง, ์ ๋์ ์ญ๋, ๊ทธ๋ฆฌ๊ณ ๊ฐ์ฅ ์ด๋ ต๊ฒ๋ ํ๋ซํผ์ ์กฐ์์ ์ทจ์ฝํ๊ฒ ๋ง๋๋ ๊ด์ฌ ๊ฒฝ์ ์ ์์กดํ์ง ์๊ณ ๋ ํ๋ซํผ์ ์ ์งํ ์ ์๋ ๊ฒฝ์ ์ ๋ชจ๋ธ์ ํ์๋ก ํ๋ ๊ตฌ์กฐ์ ๊ฐ์
๋ค์ด๋ค.
References (5)
[1] Moroojo, M.Y., Farooq, U., Madni, M.A., Shabbir, T., & Khalil, H. (2025). Algorithmic Amplification and Political Discourse: The Role of AI in Shaping Public Opinion on Social Media in Pakistan.
[2] Gordeladze, M. (2025). Algorithmic Manipulation on Social Media: An Instrument of Information Warfare and Its Influence on Public Opinion. Visual, Sound, Space, 10.
[3] Gombar, M. (2025). Algorithmic Manipulation and Information Science: Media Theories and Cognitive Warfare in Strategic Communication. European Journal of Media, 4(2), 41.
[4] Nie, Z. (2025). The Psychological Mechanisms and Legal Regulation of Information Manipulation on Social Media. Advances in Humanities Research, ns27539.
[5] Omachi, A. & Okoh, O.F. (2025). Examining the Influence of Social Media Algorithms on Political Polarization in Democracies. Contemporary Communication Studies Journal, 1, 17โ24.