Trend AnalysisCommunication & Media
Algorithmic News Curation and Information Diversity: Inside the Filter Bubble Debate
Algorithmic recommendation systems now mediate the majority of news consumption globally, raising urgent questions about information diversity and democratic deliberation. Four papers reveal that filter bubbles are real but more nuanced than the popular narrative suggestsโand that design interventions can mitigate them.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
Most people do not choose what news they see. Algorithms do. Facebook, Google News, TikTok, YouTube, and X each deploy recommendation systems that select, rank, and surface content based on predicted user engagement. These systems are extraordinarily effective at their primary objectiveโkeeping users on the platformโbut the secondary consequences for information diversity and democratic deliberation are the subject of intense academic and public debate.
Eli Pariser coined the term "filter bubble" in 2011 to describe the personalized information environment created by algorithmic curation. The concern is straightforward: if algorithms show users content similar to what they have previously engaged with, users will be progressively enclosed in self-reinforcing information environments that narrow their exposure to diverse perspectives. The counter-argument is equally straightforward: algorithms also introduce serendipity, exposing users to content they would never have actively sought. Fifteen years later, the empirical evidence is more nuanced than either position admits.
Simulating Filter Bubbles with LLM Agents
Sukiennik, Wang, and Zeng (2025) introduce a methodologically innovative approach: using large language model (LLM) agents to simulate user behavior on short-video recommender systems and observe whether filter bubbles form. The simulation approach bypasses the observational limitations of studying real users (whose behavior is influenced by countless unmeasured variables) by creating controlled agents with defined preferences and measuring how recommendation algorithms respond.
The results demonstrate that filter bubbles do form in simulated environments, but their formation depends on the interaction between algorithm design and user behavior patterns. Agents that passively consume recommended content develop narrower information diets than agents that actively seek diverse content. This finding suggests that filter bubbles are co-produced by algorithms and usersโneither is solely responsibleโbut the algorithm's role is to amplify existing behavioral tendencies rather than create them from scratch.
Mariia (2025) examines how AI-driven content curation shapes media diversity across Facebook, YouTube, and TikTok. The paper analyzes the structural incentives embedded in recommendation algorithms: engagement-optimized systems systematically favor emotionally charged, sensational, and polarizing content because such content generates more clicks, shares, and watch time.
The consequence for media diversity is not simply that users see less variety but that certain types of content are structurally disadvantaged. Nuanced policy analysis, balanced reporting, and content that challenges users' existing beliefs generate lower engagement metrics and therefore receive less algorithmic promotion. The diversity loss is content-type specific: algorithms do not reduce the number of sources but reduce the ideological and tonal range of content that reaches users.
User-Centered Interventions
Jiang, Sun, and Fu (2025) take a design-oriented approach, investigating how "algorithmic affordances"โinterface features that make users aware of and able to control algorithmic recommendationsโcan restrain filter bubble formation. Rather than modifying the algorithm itself, the intervention modifies the user's relationship with the algorithm.
The study demonstrates that providing users with tools to visualize their information diet, adjust recommendation parameters, and actively request diverse content leads to measurably more balanced information consumption and decreased attitude extremity. This user-centered approach is significant because it avoids the paternalism of algorithmic modifications (deciding for users what they should see) while addressing the information diversity deficit. The limitation is adoption: users must choose to use these tools, and the users most enclosed in filter bubbles may be least motivated to do so.
Scale-Dependent Diversity Effects
Shakespeare, Chareyron, and Roth (2025) complicate the filter bubble narrative with a finding from online music consumption: the effect of algorithmic curation on diversity depends on the scale at which diversity is measured. At the individual level, algorithmic recommendations may narrow consumption. At the population level, the same algorithms may increase aggregate diversity by enabling niche content to find its audience.
This scale-dependent finding is critical for policy discussions. Evaluating algorithmic curation solely at the individual level overstates the homogenization effect; evaluating it solely at the population level understates the individual-level narrowing. The appropriate metric depends on the normative concern: if the worry is that individual citizens lack exposure to diverse political perspectives, individual-level measurement is appropriate; if the worry is that minority voices cannot find audiences, population-level measurement matters more.
<
| Factor | Increases Bubble | Decreases Bubble |
|---|
| Algorithm optimization target | Engagement (clicks, watch time) | Diversity, serendipity |
| User behavior | Passive consumption | Active seeking, exploration |
| Interface design | No algorithmic transparency | Affordances for user control (Jiang et al.) |
| Content type | Emotionally charged, confirming | Nuanced, challenging |
| Measurement scale | Individual level | Population level (Shakespeare et al.) |
| Platform architecture | Infinite scroll, autoplay | User-initiated consumption |
What To Watch
The most consequential development is the deployment of LLMs as recommendation engines themselvesโreplacing traditional collaborative filtering with language-model-based content matching. Early implementations (such as TikTok's increasingly sophisticated recommendation and Google's AI-powered search overviews) raise the stakes: LLM-based recommendations may create more sophisticated filter bubbles that are harder to detect and resist because they understand semantic meaning rather than just behavioral patterns. The regulatory response, particularly the EU's Digital Services Act requiring algorithmic transparency, will test whether legal mandates can meaningfully reshape the incentive structure of engagement-optimized platforms.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๋ฐ๋์ ํ์ธํด์ผ ํ๋ค.
์๊ณ ๋ฆฌ์ฆ ๋ด์ค ํ๋ ์ด์
๊ณผ ์ ๋ณด ๋ค์์ฑ: ํํฐ ๋ฒ๋ธ ๋
ผ์์ ๋ด๋ถ
๋๋ถ๋ถ์ ์ฌ๋๋ค์ ์์ ์ด ๋ณด๋ ๋ด์ค๋ฅผ ์ง์ ์ ํํ์ง ์๋๋ค. ์๊ณ ๋ฆฌ์ฆ์ด ์ ํํ๋ค. Facebook, Google News, TikTok, YouTube, X๋ ๊ฐ๊ฐ ์์ธก๋ ์ฌ์ฉ์ ์ฐธ์ฌ๋๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์ฝํ
์ธ ๋ฅผ ์ ๋ณํ๊ณ , ์์๋ฅผ ๋งค๊ธฐ๊ณ , ํ๋ฉด์ ๋์ฐ๋ ์ถ์ฒ ์์คํ
์ ์ด์ํ๋ค. ์ด๋ฌํ ์์คํ
์ ์ฌ์ฉ์๋ฅผ ํ๋ซํผ์ ๋จธ๋ฌผ๊ฒ ํ๋ค๋ ์ฃผ์ ๋ชฉ์ ๋ฌ์ฑ์ ์์ด์ ๋งค์ฐ ํจ๊ณผ์ ์ด์ง๋ง, ์ ๋ณด ๋ค์์ฑ๊ณผ ๋ฏผ์ฃผ์ ์์์ ๋ฏธ์น๋ ๋ถ์ฐจ์ ๊ฒฐ๊ณผ๋ ํ๊ณ์ ๋์ค์ ์น์ดํ ๋
ผ์ ๋์์ด ๋๊ณ ์๋ค.
Eli Pariser๋ 2011๋
์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ด ๋ง๋ค์ด๋ด๋ ๊ฐ์ธํ๋ ์ ๋ณด ํ๊ฒฝ์ ๋ฌ์ฌํ๊ธฐ ์ํด "ํํฐ ๋ฒ๋ธ"์ด๋ผ๋ ์ฉ์ด๋ฅผ ๋ง๋ค์๋ค. ์ฐ๋ ค์ ํต์ฌ์ ๊ฐ๋จํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ด ์ฌ์ฉ์๊ฐ ์ด์ ์ ์ฐธ์ฌํ๋ ์ฝํ
์ธ ์ ์ ์ฌํ ๋ด์ฉ์ ๋ณด์ฌ์ค๋ค๋ฉด, ์ฌ์ฉ์๋ ์ ์ฐจ ๋ค์ํ ๊ด์ ์ ๋ํ ๋
ธ์ถ์ ์ขํ๋ ์๊ธฐ ๊ฐํ์ ์ ๋ณด ํ๊ฒฝ์ ๊ฐํ๊ฒ ๋๋ค๋ ๊ฒ์ด๋ค. ๋ฐ๋ก ์ญ์ ๋ง์ฐฌ๊ฐ์ง๋ก ๊ฐ๋จํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ ๋ํ ์ฌ์ฉ์๊ฐ ๋ฅ๋์ ์ผ๋ก ์ฐพ์ง ์์์ ์ฝํ
์ธ ๋ฅผ ์ ํ๊ฒ ํจ์ผ๋ก์จ ์ฐ์ฐ์ฑ์ ์ ๊ณตํ๊ธฐ๋ ํ๋ค๋ ๊ฒ์ด๋ค. 15๋
์ด ์ง๋ ์ง๊ธ, ๊ฒฝํ์ ์ฆ๊ฑฐ๋ ์ด๋ ์ชฝ ์
์ฅ๋ ์ธ์ ํ๋ ๊ฒ๋ณด๋ค ๋ ๋ณต์กํ ์์์ ๋ณด์ธ๋ค.
LLM ์์ด์ ํธ๋ฅผ ํ์ฉํ ํํฐ ๋ฒ๋ธ ์๋ฎฌ๋ ์ด์
Sukiennik, Wang, Zeng(2025)์ ๋ฐฉ๋ฒ๋ก ์ ์ผ๋ก ํ์ ์ ์ธ ์ ๊ทผ๋ฒ์ ์ ์ํ๋ค. ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ(LLM) ์์ด์ ํธ๋ฅผ ํ์ฉํ์ฌ ์ ๋น๋์ค ์ถ์ฒ ์์คํ
์์์ ์ฌ์ฉ์ ํ๋์ ์๋ฎฌ๋ ์ด์
ํ๊ณ ํํฐ ๋ฒ๋ธ์ด ํ์ฑ๋๋์ง ๊ด์ฐฐํ๋ ๋ฐฉ์์ด๋ค. ์ด ์๋ฎฌ๋ ์ด์
์ ๊ทผ๋ฒ์ ์ ์๋ ์ ํธ๋๋ฅผ ๊ฐ์ง ํต์ ๋ ์์ด์ ํธ๋ฅผ ์์ฑํ๊ณ ์ถ์ฒ ์๊ณ ๋ฆฌ์ฆ์ด ์ด์ ์ด๋ป๊ฒ ๋ฐ์ํ๋์ง ์ธก์ ํจ์ผ๋ก์จ, ์ค์ ์ฌ์ฉ์๋ฅผ ์ฐ๊ตฌํ ๋์ ๊ด์ฐฐ์ ํ๊ณ(์๋ง์ ๋ฏธ์ธก์ ๋ณ์์ ์ํด ํ๋์ด ์ํฅ๋ฐ๋)๋ฅผ ์ฐํํ๋ค.
๊ฒฐ๊ณผ๋ ํํฐ ๋ฒ๋ธ์ด ์๋ฎฌ๋ ์ด์
ํ๊ฒฝ์์ ์ค์ ๋ก ํ์ฑ๋์ง๋ง, ๊ทธ ํ์ฑ์ ์๊ณ ๋ฆฌ์ฆ ์ค๊ณ์ ์ฌ์ฉ์ ํ๋ ํจํด ๊ฐ์ ์ํธ์์ฉ์ ๋ฌ๋ ค ์์์ ๋ณด์ฌ์ค๋ค. ์ถ์ฒ ์ฝํ
์ธ ๋ฅผ ์๋์ ์ผ๋ก ์๋นํ๋ ์์ด์ ํธ๋ ๋ฅ๋์ ์ผ๋ก ๋ค์ํ ์ฝํ
์ธ ๋ฅผ ํ์ํ๋ ์์ด์ ํธ๋ณด๋ค ๋ ์ข์ ์ ๋ณด ์๋จ์ ๊ฐ๊ฒ ๋๋ค. ์ด ๋ฐ๊ฒฌ์ ํํฐ ๋ฒ๋ธ์ด ์๊ณ ๋ฆฌ์ฆ๊ณผ ์ฌ์ฉ์์ ์ํด ๊ณต๋์ผ๋ก ์์ฐ๋จ์ ์์ฌํ๋ค. ์ฆ, ์ด๋ ํ์ชฝ๋ง์ด ๋จ๋
์ผ๋ก ์ฑ
์์ด ์๋ ๊ฒ์ด ์๋๋ผ, ์๊ณ ๋ฆฌ์ฆ์ ์ญํ ์ ๊ธฐ์กด์ ํ๋ ๊ฒฝํฅ์ ์ฒ์๋ถํฐ ์๋ก ๋ง๋ค์ด๋ด๋ ๊ฒ์ด ์๋๋ผ ์ฆํญ์ํค๋ ๊ฒ์ด๋ค.
AI ๊ธฐ๋ฐ ํ๋ ์ด์
๊ณผ ๋ฏธ๋์ด ๋ค์์ฑ
Mariia(2025)๋ AI ๊ธฐ๋ฐ ์ฝํ
์ธ ํ๋ ์ด์
์ด Facebook, YouTube, TikTok ์ ๋ฐ์ ๊ฑธ์ณ ๋ฏธ๋์ด ๋ค์์ฑ์ ์ด๋ป๊ฒ ํ์ฑํ๋์ง ๊ฒํ ํ๋ค. ์ด ๋
ผ๋ฌธ์ ์ถ์ฒ ์๊ณ ๋ฆฌ์ฆ์ ๋ด์ฌ๋ ๊ตฌ์กฐ์ ์ ์ธ์ ๋ถ์ํ๋ค. ์ฐธ์ฌ๋ ์ต์ ํ ์์คํ
์ ๋ ๋ง์ ํด๋ฆญ, ๊ณต์ , ์์ฒญ ์๊ฐ์ ์์ฑํ๊ธฐ ๋๋ฌธ์ ๊ฐ์ ์ ์ผ๋ก ์๊ทน์ ์ด๊ณ , ์ ์ ์ ์ด๋ฉฐ, ์๊ทนํ๋ฅผ ์ ๋ฐํ๋ ์ฝํ
์ธ ๋ฅผ ์ฒด๊ณ์ ์ผ๋ก ์ ํธํ๋ค.
๋ฏธ๋์ด ๋ค์์ฑ์ ๋ํ ๊ฒฐ๊ณผ๋ ๋จ์ํ ์ฌ์ฉ์๊ฐ ๋ ์ ์ ๋ค์์ฑ์ ์ ํ๊ฒ ๋๋ค๋ ๊ฒ์ด ์๋๋ผ, ํน์ ์ ํ์ ์ฝํ
์ธ ๊ฐ ๊ตฌ์กฐ์ ์ผ๋ก ๋ถ์ด์ต์ ๋ฐ๋๋ค๋ ๊ฒ์ด๋ค. ์ธ๋ฐํ ์ ์ฑ
๋ถ์, ๊ท ํ ์กํ ๋ณด๋, ์ฌ์ฉ์์ ๊ธฐ์กด ์ ๋
์ ๋์ ํ๋ ์ฝํ
์ธ ๋ ๋ ๋ฎ์ ์ฐธ์ฌ๋ ์งํ๋ฅผ ์์ฑํ์ฌ ์๊ณ ๋ฆฌ์ฆ ์ถ์ฒ์ ๋ ๋ฐ๊ฒ ๋๋ค. ๋ค์์ฑ ์์ค์ ์ฝํ
์ธ ์ ํ์ ๋ฐ๋ผ ๋ค๋ฅด๊ฒ ๋ํ๋๋ค. ์๊ณ ๋ฆฌ์ฆ์ ์์ค์ ์๋ฅผ ์ค์ด๋ ๊ฒ์ด ์๋๋ผ ์ฌ์ฉ์์๊ฒ ๋๋ฌํ๋ ์ฝํ
์ธ ์ ์ด๋
์ ยท์ด์กฐ์ ๋ฒ์๋ฅผ ์ค์ธ๋ค.
์ฌ์ฉ์ ์ค์ฌ์ ๊ฐ์
Jiang, Sun, Fu(2025)๋ ๋์์ธ ์งํฅ์ ์ ๊ทผ๋ฒ์ ์ทจํ๋ฉฐ, ์ฌ์ฉ์๊ฐ ์๊ณ ๋ฆฌ์ฆ ์ถ์ฒ์ ์ธ์ํ๊ณ ํต์ ํ ์ ์๊ฒ ํ๋ ์ธํฐํ์ด์ค ๊ธฐ๋ฅ์ธ "์๊ณ ๋ฆฌ์ฆ ์ดํฌ๋์ค(algorithmic affordances)"๊ฐ ํํฐ ๋ฒ๋ธ ํ์ฑ์ ์ด๋ป๊ฒ ์ต์ ํ ์ ์๋์ง ์ฐ๊ตฌํ๋ค. ์๊ณ ๋ฆฌ์ฆ ์์ฒด๋ฅผ ์์ ํ๋ ๋์ , ์ด ๊ฐ์
์ ์ฌ์ฉ์์ ์๊ณ ๋ฆฌ์ฆ์ ๊ด๊ณ๋ฅผ ์์ ํ๋ค.
์ด ์ฐ๊ตฌ๋ ์ฌ์ฉ์์๊ฒ ์์ ์ ์ ๋ณด ์๋จ์ ์๊ฐํํ๊ณ , ์ถ์ฒ ๋งค๊ฐ๋ณ์๋ฅผ ์กฐ์ ํ๋ฉฐ, ๋ค์ํ ์ฝํ
์ธ ๋ฅผ ๋ฅ๋์ ์ผ๋ก ์์ฒญํ ์ ์๋ ๋๊ตฌ๋ฅผ ์ ๊ณตํ๋ฉด ์ธก์ ๊ฐ๋ฅํ ์์ค์์ ๋ณด๋ค ๊ท ํ ์กํ ์ ๋ณด ์๋น์ ํ๋ ๊ทน๋จ์ฑ ๊ฐ์๋ก ์ด์ด์ง๋ค๋ ์ ์ ์
์ฆํ๋ค. ์ด ์ฌ์ฉ์ ์ค์ฌ ์ ๊ทผ๋ฒ์ ์ ๋ณด ๋ค์์ฑ ๊ฒฐํ ๋ฌธ์ ๋ฅผ ๋ค๋ฃจ๋ฉด์๋ ์๊ณ ๋ฆฌ์ฆ ์์ ์ ์จ์ ์ฃผ์(์ฌ์ฉ์๋ฅผ ๋์ ํด ๋ฌด์์ ๋ณด์์ผ ํ ์ง ๊ฒฐ์ ํ๋ ๊ฒ)๋ฅผ ํผํ๋ค๋ ์ ์์ ์ค์ํ๋ค. ๋ค๋ง ์ด ์ ๊ทผ๋ฒ์ ํ๊ณ๋ ์ฑํ๋ฅ ์ ์๋ค. ์ฌ์ฉ์๊ฐ ์ด๋ฌํ ๋๊ตฌ๋ฅผ ์ค์ค๋ก ์ ํํด ์ฌ์ฉํด์ผ ํ๋๋ฐ, ํํฐ ๋ฒ๋ธ์ ๊ฐ์ฅ ๊น์ด ๊ฐํ ์๋ ์ฌ์ฉ์์ผ์๋ก ๊ทธ๋ ๊ฒ ํ ๋๊ธฐ๊ฐ ๊ฐ์ฅ ๋ถ์กฑํ ์ ์๋ค.
์ธก์ ๊ท๋ชจ์ ๋ฐ๋ฅธ ๋ค์์ฑ ํจ๊ณผ
Shakespeare, Chareyron, Roth(2025)๋ ์จ๋ผ์ธ ์์
์๋น ์ฐ๊ตฌ์์ ์ฃผ๋ชฉํ ๋งํ ๋ฐ๊ฒฌ์ ํตํด ํํฐ ๋ฒ๋ธ ๋ด๋ก ์ ๋์ฑ ๋ณต์กํ๊ฒ ๋ง๋ ๋ค. ๋ฐ๋ก ์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ด ๋ค์์ฑ์ ๋ฏธ์น๋ ํจ๊ณผ๊ฐ ๋ค์์ฑ์ ์ธก์ ํ๋ ๊ท๋ชจ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง๋ค๋ ๊ฒ์ด๋ค. ๊ฐ์ธ ์์ค์์๋ ์๊ณ ๋ฆฌ์ฆ ์ถ์ฒ์ด ์๋น๋ฅผ ์ขํ ์ ์๋ค. ๊ทธ๋ฌ๋ ๋์ผํ ์๊ณ ๋ฆฌ์ฆ์ด ์ง๋จ ์์ค์์๋ ํ์ ์ฝํ
์ธ ๊ฐ ์์ ์ ์ฒญ์ค์ ์ฐพ์ ์ ์๊ฒ ํจ์ผ๋ก์จ ์ ์ฒด์ ์ธ ๋ค์์ฑ์ ์คํ๋ ค ์ฆ๊ฐ์ํฌ ์ ์๋ค.
์ด ๊ท๋ชจ ์์กด์ ๋ฐ๊ฒฌ์ ์ ์ฑ
๋
ผ์์์ ๋งค์ฐ ์ค์ํ๋ค. ์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ ์ค์ง ๊ฐ์ธ ์์ค์์๋ง ํ๊ฐํ๋ฉด ๋์งํ ํจ๊ณผ๋ฅผ ๊ณผ๋ํ๊ฐํ๊ฒ ๋๊ณ , ์ค์ง ์ง๋จ ์์ค์์๋ง ํ๊ฐํ๋ฉด ๊ฐ์ธ ์์ค์ ํ์ํ๋ฅผ ๊ณผ์ํ๊ฐํ๊ฒ ๋๋ค. ์ ์ ํ ์ธก์ ๊ธฐ์ค์ ๊ท๋ฒ์ ์ฐ๋ ค์ ์ฑ๊ฒฉ์ ๋ฌ๋ ค ์๋ค. ๋ง์ฝ ๊ฐ๋ณ ์๋ฏผ์ด ๋ค์ํ ์ ์น์ ๊ด์ ์ ๋
ธ์ถ๋์ง ๋ชปํ๋ค๋ ์ ์ด ์ฐ๋ ค๋๋ค๋ฉด ๊ฐ์ธ ์์ค์ ์ธก์ ์ด ์ ํฉํ๊ณ , ์์์ ๋ชฉ์๋ฆฌ๊ฐ ์ฒญ์ค์ ์ฐพ์ง ๋ชปํ๋ค๋ ์ ์ด ์ฐ๋ ค๋๋ค๋ฉด ์ง๋จ ์์ค์ ์ธก์ ์ด ๋ ์ค์ํ๋ค.
ํํฐ ๋ฒ๋ธ ํ์ฑ ์์ธ
<
| ์์ธ | ๋ฒ๋ธ ๊ฐํ | ๋ฒ๋ธ ์ฝํ |
|---|
| ์๊ณ ๋ฆฌ์ฆ ์ต์ ํ ๋ชฉํ | ์ธ๊ฒ์ด์ง๋จผํธ(ํด๋ฆญ, ์์ฒญ ์๊ฐ) | ๋ค์์ฑ, ์ฐ์ฐํ ๋ฐ๊ฒฌ |
| ์ฌ์ฉ์ ํ๋ | ์๋์ ์๋น | ๋ฅ๋์ ํ์, ํํ |
| ์ธํฐํ์ด์ค ๋์์ธ | ์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ ๋ถ์ฌ | ์ฌ์ฉ์ ํต์ ๋ฅผ ์ํ ์ดํฌ๋์ค(Jiang et al.) |
| ์ฝํ
์ธ ์ ํ | ๊ฐ์ ์ ์ผ๋ก ์๊ทน์ ์ด๊ณ ํ์ฆ์ ์ธ ๋ด์ฉ | ๋ฏธ๋ฌํ๊ณ ๋์ ์ ์ธ ๋ด์ฉ |
| ์ธก์ ๊ท๋ชจ | ๊ฐ์ธ ์์ค | ์ง๋จ ์์ค(Shakespeare et al.) |
| ํ๋ซํผ ๊ตฌ์กฐ | ๋ฌดํ ์คํฌ๋กค, ์๋ ์ฌ์ | ์ฌ์ฉ์ ์ฃผ๋์ ์๋น |
์ฃผ๋ชฉํ ๋ํฅ
๊ฐ์ฅ ์ค์ํ ๋ฐ์ ์ LLM์ด ์ถ์ฒ ์์ง ์์ฒด๋ก ๋ฐฐํฌ๋๋ ๊ฒ, ์ฆ ์ ํต์ ์ธ ํ์
ํํฐ๋ง์ด ์ธ์ด ๋ชจ๋ธ ๊ธฐ๋ฐ์ ์ฝํ
์ธ ๋งค์นญ์ผ๋ก ๋์ฒด๋๋ ํ์์ด๋ค. ์ด๊ธฐ ๊ตฌํ ์ฌ๋ก(์ ์ ์ ๊ตํด์ง๋ TikTok์ ์ถ์ฒ ์์คํ
๊ณผ Google์ AI ๊ธฐ๋ฐ ๊ฒ์ ๊ฐ์ ๋ฑ)๋ ๊ทธ ์ํ์ฑ์ ๋์ด๊ณ ์๋ค. LLM ๊ธฐ๋ฐ ์ถ์ฒ์ ๋จ์ํ ํ๋ ํจํด์ด ์๋๋ผ ์๋ฏธ๋ก ์ ์๋ฏธ๋ฅผ ์ดํดํ๊ธฐ ๋๋ฌธ์, ํ์งํ๊ณ ์ ํญํ๊ธฐ ๋ ์ด๋ ค์ด ๋์ฑ ์ ๊ตํ ํํฐ ๋ฒ๋ธ์ ์์ฑํ ์ ์๋ค. ์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ์ ์๊ตฌํ๋ EU์ ๋์งํธ์๋น์ค๋ฒ(Digital Services Act)์ ๋น๋กฏํ ๊ท์ ์ ๋์์, ๋ฒ์ ์๋ฌด๊ฐ ์ธ๊ฒ์ด์ง๋จผํธ ์ต์ ํ ํ๋ซํผ์ ์ธ์ผํฐ๋ธ ๊ตฌ์กฐ๋ฅผ ์ค์ง์ ์ผ๋ก ์ฌํธํ ์ ์๋์ง๋ฅผ ์ํํ๋ ๊ณ๊ธฐ๊ฐ ๋ ๊ฒ์ด๋ค.
References (4)
[1] Sukiennik, N., Wang, H., & Zeng, Z. (2025). Simulating Filter Bubble on Short-video Recommender System with Large Language Model Agents. arXiv:2504.08742.
[2] Mariia, G. (2025). AI-Driven Content Curation and Its Impact on Media Diversity in Social Networks. Proc. World Conference on Media and Communication, 2(1), 1050.
[3] Jiang, T., Sun, Z., & Fu, S. (2025). Restraining the formation of filter bubbles with algorithmic affordances. Journal of the Association for Information Science and Technology, 76(4), e24988.
[4] Shakespeare, D., Chareyron, V., & Roth, C. (2025). Reframing the filter bubble through diverse scale effects in online music consumption. Scientific Reports, 14, 75967.