Communication & Media
Computational Propaganda: When States Deploy Bots to Win Hearts and Minds
Over 80 state actors have conducted information operations in the past decade, deploying automated accounts to manipulate public opinion across social media platforms. Four papers examine how computational propaganda works, whether bots are effective, and why detection remains a cat-and-mouse game.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
Propaganda is ancient; computational propaganda is new. The combination of automated accounts (bots), algorithmic amplification, and data-driven targeting has created a form of political manipulation that operates at a scale and speed that traditional propaganda could never achieve. A state actor can deploy thousands of automated accounts simultaneously, each posting, retweeting, and commenting in coordinated patterns designed to create the appearance of organic public opinion.
The term "computational propaganda"โcoined by the Oxford Internet Institute's Computational Propaganda Projectโcaptures this fusion of computational technology and propagandistic intent. It encompasses the use of algorithms, automation, and human curation to purposefully distribute misleading information over social media networks.
Theoretical Foundations
Pote (2024) provides a critical literature review of computational propaganda theory and bot detection systems. The paper traces how the classical definition of propagandaโ"the management of collective attitudes by manipulation of significant symbols"โhas evolved to computational propaganda in the digital medium.
Drawing on the broader computational propaganda literature, the review traces an evolution across three recognizable generations:
First generation (2010-2016): Simple automated accounts posting high volumes of content. Detectable through basic metrics (posting frequency, account age, follower ratios). Effective through sheer volume rather than sophistication.
Second generation (2016-2020): Hybrid operations combining automated accounts with human operators. More sophisticated targeting based on audience analysis. Harder to detect because human involvement masks automated patterns.
Third generation (2020-present): AI-generated content (text, images, audio, video) distributed through networks that combine automated and authentic accounts. Detection is challenging because both the content and the distribution patterns appear organic.
Bot Effectiveness
Polychronis and Kogan (2025) ask a question that is empirically important but rarely studied: do bots actually work? State-sponsored information operations have been perpetrated by over 80 state actors in the last decade, but their effectiveness at actually changing attitudes or behavior is less well established than their existence.
Using sequence-based clustering and advanced linear modeling, the study investigates the relationship between agent automation, role, and network characteristics and how much success those agents achieve. The findings are striking: automated agents perform worse across every success metric compared to human agents, and they play a smaller, supporting role to the primarily human SSIO workforce. Furthermore, the extent to which agents engage in amplifying-centric versus producing-centric roles is the biggest determinant of their successโhighlighting that the social role an agent plays matters more than whether it is automated. This suggests that the threat of bot-driven propaganda may be more about volume and distraction than genuine persuasive impact.
Pakistan: Domestic Computational Propaganda
Samee, Ansari, and Butt (2025) examine computational propaganda in Pakistan's domestic political context. The research compares strategies adopted by Pakistan's major political partiesโPTI, PML-N, and PPPโin using platform X for political narrative creation.
The Pakistan case illustrates that computational propaganda is not exclusively a tool of state actors against foreign targetsโit is increasingly used by domestic political actors against domestic audiences. Political parties deploy bot networks, coordinate hashtag campaigns, and use automated accounts to create the appearance of popular support for their positions and popular opposition to their rivals.
AI and National Security
Kirill and Shapovalov (2026) examine national security threats associated with AI use in political communication. Key risks include the concentration of digital power among technology corporations, algorithmic manipulation of public opinion, and the creation of information bubbles.
The national security framing connects computational propaganda to broader concerns about AI governance: if AI systems can generate convincing political content at scale and distribute it through automated networks, the barrier to entry for influence operations drops dramatically. States, corporations, and even well-resourced individuals can conduct information operations that previously required intelligence agencies.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| Over 80 state actors have conducted information operations | Polychronis & Kogan (2025): documented across multiple platforms | โ
Supported |
| Computational propaganda effectively changes public opinion | Polychronis & Kogan (2025): effectiveness is less established than existence | โ ๏ธ Uncertain |
| Bot detection can keep pace with bot sophistication | Pote (2024): AI-generated content and hybrid operations challenge detection | โ ๏ธ Uncertain (cat-and-mouse dynamic) |
| Computational propaganda is used only by state actors against foreign targets | Samee et al. (2025): domestic political parties use it against domestic audiences | โ Refuted |
Implications
Computational propaganda represents a structural threat to democratic discourseโnot because it is always effective at changing minds, but because it degrades the information environment within which democratic deliberation occurs. When citizens cannot distinguish organic public opinion from manufactured consent, trust in all political communication declines. The defense against computational propaganda requires a combination of technical detection, platform accountability, media literacy, andโperhaps paradoxicallyโthe same AI technologies that enable the propaganda in the first place.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๊ฒ์ฆํด์ผ ํ๋ค.
์ปดํจํฐ ์ ์ : ๊ตญ๊ฐ๊ฐ ์ฌ๋ก ์ ์ฅ์
ํ๊ธฐ ์ํด ๋ด์ ๋ฐฐ์นํ ๋
์ ์ ์ ์ค๋๋ ๊ฒ์ด์ง๋ง, ์ปดํจํฐ ์ ์ ์ ์๋ก์ด ๊ฒ์ด๋ค. ์๋ํ๋ ๊ณ์ (๋ด), ์๊ณ ๋ฆฌ์ฆ ์ฆํญ, ๋ฐ์ดํฐ ๊ธฐ๋ฐ ํ๊ฒํ
์ ๊ฒฐํฉ์ ์ ํต์ ์ธ ์ ์ ์ด ๊ฒฐ์ฝ ๋ฌ์ฑํ ์ ์์๋ ๊ท๋ชจ์ ์๋๋ก ์๋ํ๋ ์ ์น์ ์กฐ์์ ํ ํํ๋ฅผ ๋ง๋ค์ด๋๋ค. ๊ตญ๊ฐ ํ์์๋ ์์ฒ ๊ฐ์ ์๋ํ ๊ณ์ ์ ๋์์ ๋ฐฐ์นํ ์ ์์ผ๋ฉฐ, ๊ฐ ๊ณ์ ์ ์ ๊ธฐ์ ์ธ ์ฌ๋ก ์ด ํ์ฑ๋ ๊ฒ์ฒ๋ผ ๋ณด์ด๋๋ก ์ค๊ณ๋ ์กฐ์จ๋ ํจํด์ผ๋ก ๊ฒ์ํ๊ณ , ๋ฆฌํธ์ํ๊ณ , ๋๊ธ์ ๋จ๋ค.
"์ปดํจํฐ ์ ์ (computational propaganda)"์ด๋ผ๋ ์ฉ์ด๋โOxford Internet Institute์ Computational Propaganda Project๊ฐ ๋ง๋ค์ด๋ธโ์ปดํจํฐ ๊ธฐ์ ๊ณผ ์ ์ ์ ์๋์ ์ด๋ฌํ ์ตํฉ์ ํฌ์ฐฉํ๋ค. ์ด ์ฉ์ด๋ ์์
๋ฏธ๋์ด ๋คํธ์ํฌ๋ฅผ ํตํด ์คํด๋ฅผ ์ ๋ฐํ๋ ์ ๋ณด๋ฅผ ์๋์ ์ผ๋ก ๋ฐฐํฌํ๊ธฐ ์ํ ์๊ณ ๋ฆฌ์ฆ, ์๋ํ, ์ธ๊ฐ์ ํ๋ ์ด์
ํ์ฉ์ ํฌ๊ดํ๋ค.
์ด๋ก ์ ํ ๋
Pote(2024)๋ ์ปดํจํฐ ์ ์ ์ด๋ก ๊ณผ ๋ด ํ์ง ์์คํ
์ ๋ํ ๋นํ์ ๋ฌธํ ๊ฒํ ๋ฅผ ์ ๊ณตํ๋ค. ์ด ๋
ผ๋ฌธ์ ์ ์ ์ ๊ณ ์ ์ ์ ์โ"์ค์ํ ์์ง์ ์กฐ์์ ํตํ ์ง๋จ์ ํ๋์ ๊ด๋ฆฌ"โ๊ฐ ๋์งํธ ๋งค์ฒด์์ ์ด๋ป๊ฒ ์ปดํจํฐ ์ ์ ์ผ๋ก ์งํํ๋์ง๋ฅผ ์ถ์ ํ๋ค.
๊ด๋ฒ์ํ ์ปดํจํฐ ์ ์ ๋ฌธํ์ ๋ฐํ์ผ๋ก, ์ด ๊ฒํ ๋ ์ธ ๊ฐ์ง ์ธ์ ๊ฐ๋ฅํ ์ธ๋์ ๊ฑธ์น ์งํ๋ฅผ ์ถ์ ํ๋ค.
1์ธ๋(2010-2016): ๋๋์ ์ฝํ
์ธ ๋ฅผ ๊ฒ์ํ๋ ๋จ์ํ ์๋ํ ๊ณ์ . ๊ธฐ๋ณธ์ ์ธ ์งํ(๊ฒ์ ๋น๋, ๊ณ์ ๋์ด, ํ๋ก์ ๋น์จ)๋ฅผ ํตํด ํ์ง ๊ฐ๋ฅ. ์ ๊ตํจ๋ณด๋ค๋ ์์ ํ ์์ผ๋ก ํจ๊ณผ๋ฅผ ๋ฐํ.
2์ธ๋(2016-2020): ์๋ํ ๊ณ์ ๊ณผ ์ธ๊ฐ ์ด์์๋ฅผ ๊ฒฐํฉํ ํ์ด๋ธ๋ฆฌ๋ ์์ . ์ฒญ์ค ๋ถ์์ ๊ธฐ๋ฐํ ๋ณด๋ค ์ ๊ตํ ํ๊ฒํ
. ์ธ๊ฐ์ ๊ฐ์
์ด ์๋ํ ํจํด์ ๊ฐ๋ฆฌ๊ธฐ ๋๋ฌธ์ ํ์ง๊ฐ ๋ ์ด๋ ค์.
3์ธ๋(2020-ํ์ฌ): ์๋ํ ๊ณ์ ๊ณผ ์ค์ ๊ณ์ ์ ๊ฒฐํฉํ ๋คํธ์ํฌ๋ฅผ ํตํด ๋ฐฐํฌ๋๋ AI ์์ฑ ์ฝํ
์ธ (ํ
์คํธ, ์ด๋ฏธ์ง, ์ค๋์ค, ๋น๋์ค). ์ฝํ
์ธ ์ ๋ฐฐํฌ ํจํด ๋ชจ๋ ์ ๊ธฐ์ ์ผ๋ก ๋ณด์ด๊ธฐ ๋๋ฌธ์ ํ์ง๊ฐ ์ด๋ ค์.
๋ด์ ํจ๊ณผ
Polychronis์ Kogan(2025)์ ๊ฒฝํ์ ์ผ๋ก ์ค์ํ์ง๋ง ๊ฑฐ์ ์ฐ๊ตฌ๋์ง ์์ ์ง๋ฌธ์ ์ ๊ธฐํ๋ค: ๋ด์ ์ค์ ๋ก ํจ๊ณผ๊ฐ ์๋๊ฐ? ๊ตญ๊ฐ ํ์ ์ ๋ณด ์์ ์ ์ง๋ 10๋
๊ฐ 80๊ฐ ์ด์์ ๊ตญ๊ฐ ํ์์์ ์ํด ์ํ๋์์ง๋ง, ์ค์ ๋ก ํ๋๋ ํ๋์ ๋ณํ์ํค๋ ํจ๊ณผ๋ ๊ทธ ์กด์ฌ๋งํผ ์ ํ๋ฆฝ๋์ด ์์ง ์๋ค.
์์ ๊ธฐ๋ฐ ํด๋ฌ์คํฐ๋ง๊ณผ ๊ณ ๊ธ ์ ํ ๋ชจ๋ธ๋ง์ ์ฌ์ฉํ์ฌ, ์ด ์ฐ๊ตฌ๋ ์์ด์ ํธ์ ์๋ํ, ์ญํ , ๋คํธ์ํฌ ํน์ฑ๊ณผ ํด๋น ์์ด์ ํธ๊ฐ ๋ฌ์ฑํ๋ ์ฑ๊ณต ์ ๋ ์ฌ์ด์ ๊ด๊ณ๋ฅผ ์กฐ์ฌํ๋ค. ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ ์ฃผ๋ชฉํ ๋งํ๋ค: ์๋ํ ์์ด์ ํธ๋ ์ธ๊ฐ ์์ด์ ํธ์ ๋นํด ๋ชจ๋ ์ฑ๊ณต ์งํ์์ ๋ ๋ฎ์ ์ฑ๊ณผ๋ฅผ ๋ณด์ด๋ฉฐ, ์ฃผ๋ก ์ธ๊ฐ์ผ๋ก ๊ตฌ์ฑ๋ SSIO ์ธ๋ ฅ์ ๋ํด ๋ ์์ ์ง์ ์ญํ ์ ์ํํ๋ค. ๋ ๋์๊ฐ, ์์ด์ ํธ๊ฐ ์ฆํญ ์ค์ฌ ์ญํ ๊ณผ ์์ฐ ์ค์ฌ ์ญํ ์ค ์ด๋ ์ชฝ์ ๊ด์ฌํ๋์ง๊ฐ ์ฑ๊ณต์ ๊ฐ์ฅ ํฐ ๊ฒฐ์ ์์ธ์ด๋คโ์ด๋ ์์ด์ ํธ๊ฐ ์๋ํ๋์๋์ง ์ฌ๋ถ๋ณด๋ค ์์ด์ ํธ๊ฐ ์ํํ๋ ์ฌํ์ ์ญํ ์ด ๋ ์ค์ํจ์ ๋ถ๊ฐํ๋ค. ์ด๋ ๋ด ์ฃผ๋ ์ ์ ์ ์ํ์ด ์ง์ ํ ์ค๋๋ ฅ ์๋ ์ํฅ๋ณด๋ค๋ ์์ ๊ณผ๋ถํ์ ์ฃผ์ ๋ถ์ฐ์ ๋ ๊ด๋ จ๋ ์ ์์์ ์์ฌํ๋ค.
ํํค์คํ: ๊ตญ๋ด ์ปดํจํฐ ์ ์
Samee, Ansari, Butt(2025)๋ ํํค์คํ์ ๊ตญ๋ด ์ ์น์ ๋งฅ๋ฝ์์ ์ปดํจํฐ ์ ์ ์ ์กฐ์ฌํ๋ค. ์ด ์ฐ๊ตฌ๋ ํํค์คํ์ ์ฃผ์ ์ ๋น์ธ PTI, PML-N, PPP๊ฐ ์ ์น์ ์์ฌ ํ์ฑ์ ์ํด ํ๋ซํผ X๋ฅผ ํ์ฉํ๋ ๋ฐ ์ฑํํ ์ ๋ต์ ๋น๊ตํ๋ค.
ํํค์คํ ์ฌ๋ก๋ ๊ณ์ฐ์ ์ ์ (computational propaganda)์ด ๊ตญ๊ฐ ํ์์๊ฐ ์ธ๊ตญ ๋์์๊ฒ๋ง ์ฌ์ฉํ๋ ๋๊ตฌ๊ฐ ์๋๋ผ, ๊ตญ๋ด ์ ์น ํ์์๋ค์ด ๊ตญ๋ด ์ฒญ์ค์ ๋์์ผ๋ก ์ ์ ๋ ๋ง์ด ํ์ฉํ๊ณ ์์์ ๋ณด์ฌ์ค๋ค. ์ ๋น๋ค์ ๋ด ๋คํธ์ํฌ๋ฅผ ๋ฐฐ์นํ๊ณ , ํด์ํ๊ทธ ์บ ํ์ธ์ ์กฐ์จํ๋ฉฐ, ์๋ํ๋ ๊ณ์ ์ ํ์ฉํ์ฌ ์์ ๋ค์ ์
์ฅ์ ๋ํ ๋์ค์ ์ง์ง์ ๊ฒฝ์์์ ๋ํ ๋์ค์ ๋ฐ๋๊ฐ ์กด์ฌํ๋ ๊ฒ์ฒ๋ผ ๋ณด์ด๊ฒ ๋ง๋ ๋ค.
AI์ ๊ตญ๊ฐ ์๋ณด
Kirill๊ณผ Shapovalov(2026)๋ ์ ์น์ ์ปค๋ฎค๋์ผ์ด์
์์ AI ํ์ฉ๊ณผ ๊ด๋ จ๋ ๊ตญ๊ฐ ์๋ณด ์ํ์ ๊ฒํ ํ๋ค. ์ฃผ์ ์ํ ์์๋ก๋ ๊ธฐ์ ๊ธฐ์
๋ค์๊ฒ ๋์งํธ ๊ถ๋ ฅ์ด ์ง์ค๋๋ ํ์, ์ฌ๋ก ์ ์๊ณ ๋ฆฌ์ฆ์ ์กฐ์, ๊ทธ๋ฆฌ๊ณ ์ ๋ณด ๋ฒ๋ธ(information bubble)์ ์์ฑ์ด ํฌํจ๋๋ค.
๊ตญ๊ฐ ์๋ณด์ ํ๋ ์ด๋ฐ์ ๊ณ์ฐ์ ์ ์ ์ AI ๊ฑฐ๋ฒ๋์ค์ ๊ดํ ๋ ๊ด๋ฒ์ํ ์ฐ๋ ค์ ์ฐ๊ฒฐ ์ง๋๋ค. AI ์์คํ
์ด ๋๊ท๋ชจ๋ก ์ค๋๋ ฅ ์๋ ์ ์น์ ์ฝํ
์ธ ๋ฅผ ์์ฑํ๊ณ ์๋ํ๋ ๋คํธ์ํฌ๋ฅผ ํตํด ๋ฐฐํฌํ ์ ์๋ค๋ฉด, ์ํฅ๋ ฅ ๊ณต์(influence operations)์ ์ง์
์ฅ๋ฒฝ์ ๊ธ๊ฒฉํ ๋ฎ์์ง๋ค. ๊ตญ๊ฐ, ๊ธฐ์
, ์ฌ์ง์ด ์์์ด ํ๋ถํ ๊ฐ์ธ๊น์ง๋ ๊ณผ๊ฑฐ์๋ ์ ๋ณด๊ธฐ๊ด๋ง์ด ์ํํ ์ ์์๋ ์ ๋ณด ๊ณต์์ ์คํํ ์ ์๊ฒ ๋๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
<
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| 80๊ฐ ์ด์์ ๊ตญ๊ฐ ํ์์๊ฐ ์ ๋ณด ๊ณต์์ ์ํํ๋ค | Polychronis & Kogan (2025): ์ฌ๋ฌ ํ๋ซํผ์ ๊ฑธ์ณ ๋ฌธ์ํ๋จ | โ
์ง์ง๋จ |
| ๊ณ์ฐ์ ์ ์ ์ ์ฌ๋ก ์ ํจ๊ณผ์ ์ผ๋ก ๋ณํ์ํจ๋ค | Polychronis & Kogan (2025): ํจ๊ณผ์ฑ์ ์กด์ฌ ์ฌ๋ถ๋งํผ ํ๋ฆฝ๋์ง ์์ | โ ๏ธ ๋ถํ์ค |
| ๋ด ํ์ง๊ฐ ๋ด์ ์ ๊ตํ ์๋๋ฅผ ๋ฐ๋ผ์ก์ ์ ์๋ค | Pote (2024): AI ์์ฑ ์ฝํ
์ธ ์ ํผํฉ ๊ณต์์ด ํ์ง๋ฅผ ์ด๋ ต๊ฒ ํจ | โ ๏ธ ๋ถํ์ค (๊ณ ์์ด์ ์ฅ์ ์ญํ) |
| ๊ณ์ฐ์ ์ ์ ์ ๊ตญ๊ฐ ํ์์๋ง์ด ์ธ๊ตญ ๋์์๊ฒ ์ฌ์ฉํ๋ค | Samee et al. (2025): ๊ตญ๋ด ์ ๋น์ด ๊ตญ๋ด ์ฒญ์ค์ ๋์์ผ๋ก ์ฌ์ฉํจ | โ ๋ฐ๋ฐ๋จ |
์์ฌ์
๊ณ์ฐ์ ์ ์ ์ ๋ฏผ์ฃผ์ฃผ์์ ๋ด๋ก ์ ๊ตฌ์กฐ์ ์ํ์ ๊ฐํ๋ค. ์ด๋ ํญ์ ์ฌ๋๋ค์ ์๊ฐ์ ํจ๊ณผ์ ์ผ๋ก ๋ฐ๊พธ๊ธฐ ๋๋ฌธ์ด ์๋๋ผ, ๋ฏผ์ฃผ์ฃผ์์ ์์(democratic deliberation)๊ฐ ์ด๋ฃจ์ด์ง๋ ์ ๋ณด ํ๊ฒฝ ์์ฒด๋ฅผ ํผ์ํ๊ธฐ ๋๋ฌธ์ด๋ค. ์๋ฏผ๋ค์ด ์์ฐ๋ฐ์์ ์ธ ์ฌ๋ก ๊ณผ ์ ์กฐ๋ ๋์(manufactured consent)๋ฅผ ๊ตฌ๋ณํ์ง ๋ชปํ๊ฒ ๋ ๋, ๋ชจ๋ ์ ์น์ ์ปค๋ฎค๋์ผ์ด์
์ ๋ํ ์ ๋ขฐ๊ฐ ์ ํ๋๋ค. ๊ณ์ฐ์ ์ ์ ์ ๋ํ ๋ฐฉ์ด๋ ๊ธฐ์ ์ ํ์ง, ํ๋ซํผ์ ์ฑ
์์ฑ, ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์, ๊ทธ๋ฆฌ๊ณ ์ญ์ค์ ์ด๊ฒ๋ ์ ์ ์์ฒด๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ๋ ๋ฐ๋ก ๊ทธ AI ๊ธฐ์ ์ ์กฐํฉ์ ํ์๋ก ํ๋ค.
References (5)
[1] Pote, M. (2024). Computational Propaganda Theory and Bot Detection System: Critical Literature Review. arXiv:2404.05240.
[2] Polychronis, C. & Kogan, M. (2025). Do Bots Do It Better? Automated Agents in State-Sponsored Information Operations. Proc. ICWSM 2025, 19(1), 35888.
[3] Samee, A., Ansari, N.A., & Butt, R. (2025). Computational Propaganda in Pakistan: Political Manipulation through X. JRSR, 4, d140.
[4] Kirill, G.M. & Shapovalov, Y.M. (2026). Artificial Intelligence in Political Communication: Challenges for Ensuring National Security. PEP, 2025(12), 10.
Polychronis, C., & Kogan, M. (2025). Do Bots Do It Better? Analyzing the Effectiveness of Automated Agents in State-Sponsored Information Operations. Proceedings of the International AAAI Conference on Web and Social Media, 19, 1574-1585.