This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
When you open Instagram, TikTok, or YouTube, you do not see the internet. You see a version of it, curated by algorithms that select, sequence, and prioritize content based on predictions about what will keep you engaged. This curation is not neutral. It is a form of powerโthe power to determine what information reaches which audiences, which voices are amplified, which are suppressed, and what counts as "relevant" in any given moment.
The communication studies literature has increasingly recognized that algorithmic curation represents a qualitative shift in media power, not merely a quantitative one. Traditional media gatekeepersโeditors, producers, publishersโexercised editorial judgment that was visible, attributable, and (in democratic societies) subject to professional norms and public accountability. Algorithmic gatekeeping is none of these things. It is invisible to users, opaque to regulators, and governed by commercial objectives (engagement maximization) that may diverge from democratic values (informed deliberation, diverse exposure, equitable voice).
Platform Governance: Beyond Content Moderation
Cennamo and Karanovic (2026) challenge the dominant framing that treats social media platforms as threats to democracy that must be regulated into compliance. While acknowledging that platforms facilitate the spread of misinformation and foster polarized debatesโdynamics that ultimately serve to monetize user attentionโthey argue that the problem and the solution are both more structural than content-level moderation can address.
Their "ecosystem governance" perspective reframes the question. Rather than asking "How should platforms moderate content?" (a question that accepts the platform as the unit of governance), they ask "How should the ecosystem of information production, distribution, and consumption be governed?" This analytical reframing suggests interventions that content moderation alone foreclosesโincluding structural mechanisms such as interoperability requirements, data portability options, and public interest obligations analogous to those imposed on broadcast media.
The ecosystem perspective also identifies a structural power asymmetry that content moderation cannot address: platforms are simultaneously the infrastructure of public discourse (analogous to telephone networks or postal services) and commercial enterprises optimizing for profit (analogous to advertisers or entertainment companies). These roles are in tension, and no amount of content moderation resolves the structural conflict between maximizing engagement and fostering deliberation.
Algorithmic Audiences: A New Theoretical Category
Rustamova (2025) introduces the concept of "algorithmic audiences"โpublics that are not self-forming (as in traditional public sphere theory) but algorithmically produced. The paper investigates the formation and operation of these audiences within platformized media environments, focusing on how processes of identity, influence, and power intersect to shape audience behavior.
The theoretical contribution lies in reconceptualizing what an "audience" is in the platform era. In broadcast media, audiences were aggregations of individuals who chose to consume the same content. In platformized media, audiences are algorithmically assembled around predicted preferencesโthey are constituted by the platform's recommendation system, not by the audience members' deliberate choices.
This has implications for identity formation. If the algorithm determines what content you see, and the content you see shapes your understanding of the world, then the algorithm plays a role in identity construction that traditional theories of media effects do not accommodate. You are not simply exposed to content that reflects your existing preferencesโyou are iteratively shaped by algorithmic selections that nudge your preferences in directions that serve the platform's engagement metrics.
Public Ethics and Algorithm Governance in Democratic Societies
Alatas, Jaya, and Khalid (2025) examine the construction of public ethics in social media algorithm governance within democratic societies. Through mechanisms of curation, recommendation, and content moderation, algorithms influence the distribution of information, the formation of public opinion, and patterns of civic participation.
The paper argues that algorithmic governance of social media requires an ethical framework that goes beyond transparency (making algorithms visible) to include accountability (holding platform decisions to democratic standards) and participation (giving affected publics a voice in governance design). The current governance modelโwhere platforms set their own content policies, design their own algorithms, and evaluate their own complianceโlacks the external accountability mechanisms that democratic governance requires.
The Indonesian context of this analysis is particularly relevant because Indonesia has one of the world's highest social media penetration rates and a democratic system in which social media plays a central role in political discourse. Algorithm governance in this context is not an abstract policy questionโit is a question about the conditions for democratic participation.
Tuncay (2025) provides a longitudinal perspective through a comprehensive bibliometric analysis of 996 Scopus-indexed documents on AI-related social media research from 2014 to 2024. The study maps how research has evolved, which platforms have attracted the most attention, and what themes have emerged.
The bibliometric analysis reveals platform-specific research patterns: Messenger (295,816 results), Facebook (39,469), and YouTube (18,448) have dominated the academic landscape, while TikTok and Mastodon are gaining traction in recent studies, signaling a shift toward short-form video and decentralized networking. Platform-specific research trends also emerged: Facebook is often linked with misinformation research, Instagram and TikTok with marketing, and LinkedIn with professional networking.
The role of AI in social media studies has grown rapidly across several domains: content curation, automated moderation, chatbot technology, and ethical concerns around privacy and deepfakes. The study identifies significant research gaps related to AI-generated content, regulatory challenges, and digital governanceโareas that are likely to define the next decade of platform scholarship.
The Body as Algorithmic Product
Hussain, Aslam, and Imran (2025) examine a specific and consequential domain of algorithmic curation: beauty standards. In the age of algorithmically curated social media, beauty standards are increasingly co-produced by platform design and AI-driven filters. Their study investigates the impact of AI-powered beauty filters and recommendation systems on TikTok, Instagram, and Snapchat on body image and aesthetic preferences.
The finding connects algorithmic curation to embodied experience. When beauty filter algorithms determine which self-presentations receive engagement (likes, comments, shares), they create a feedback loop: users learn which versions of themselves are algorithmically rewarded, and they adapt their self-presentation accordingly. The algorithm does not merely reflect existing beauty standardsโit actively produces new ones, optimized for engagement rather than for human wellbeing.
The study, conducted among young women in urban Pakistan using a mixed-methods approach (structured survey N = 300, in-depth interviews N = 30), found a robust positive relationship between filter use and body dissatisfaction. This dynamic is particularly concerning for users who are developing self-identity in an environment where algorithmic feedback is continuous, granular, and personalized. The beauty filter is not a neutral toolโit is an algorithmic opinion about what the user should look like, expressed through the user's own face.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| Content moderation alone can address platform power asymmetries | Cennamo & Karanovic (2026): structural ecosystem issues cannot be resolved through content-level intervention | โ Refuted |
| Algorithmic audiences are self-forming like traditional publics | Rustamova (2025): audiences are algorithmically constituted, not self-assembled | โ Refuted |
| Algorithm governance requires democratic accountability mechanisms | Alatas et al. (2025): current self-governance model lacks external accountability | โ
Supported (normative argument) |
| AI integration into social media has followed a predictable escalation pattern | Tuncay (2025): bibliometric analysis documents evolution from content curation to AI-generated content | โ
Supported |
| Beauty filters affect body image and self-presentation | Hussain et al. (2025): algorithmic feedback loops shape aesthetic preferences, particularly among younger users | โ
Supported |
Open Questions
Can interoperability requirements break platform power? If users could follow creators across platforms (like email across providers), would algorithmic lock-in diminish? The EU's Digital Markets Act includes interoperability provisions, but implementation is contested.What does "algorithmic transparency" actually require? Publishing the source code of a recommendation algorithm may not produce meaningful transparency if the system's behavior emerges from the interaction of code, data, and user behavior in ways that no single artifact captures.Should users have the right to a non-algorithmic feed? Some proposals advocate for a "chronological feed" option as a regulatory requirement. Would users actually choose it, and would it address the underlying power asymmetry or merely offer the illusion of choice?How do algorithmic curation effects differ across cultures? The studies reviewed span Indonesia, Uzbekistan, the UK, and global platforms. Cultural differences in media consumption, authority deference, and individualism likely shape how algorithmic curation is experienced.Can public interest algorithms be designed? If commercial algorithms optimize for engagement, what would a public interest algorithm optimize for? Informed deliberation? Diverse exposure? Civic participation? And who would design, fund, and govern it?Implications
The research reviewed here converges on a central insight: algorithmic curation is not a feature of platforms but a form of power that requires governance commensurate with its influence. Current governance frameworksโcontent moderation policies, transparency reports, advisory boardsโaddress symptoms rather than structures.
The structural response requires moving beyond the question of "what content should platforms remove?" to the question of "what role should algorithmic curation play in democratic public life?" This is a question about media architecture, not media contentโand it requires the kind of institutional innovation that created public broadcasting, press freedom protections, and media plurality rules in previous eras of media transformation.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ๊ณผ ๋์กฐํ์ฌ ํ์ธํด์ผ ํ๋ค.
์๊ณ ๋ฆฌ์ฆ ์์ฉ์: ๋ฌด์์ ๋ณผ์ง ๊ฒฐ์ ํ๋ ์ฃผ์ฒด๋ ๋๊ตฌ์ด๋ฉฐ, ์ ์ค์ํ๊ฐ
Instagram, TikTok, YouTube๋ฅผ ์ด ๋, ์ฐ๋ฆฌ๋ ์ธํฐ๋ท ๊ทธ ์์ฒด๋ฅผ ๋ณด๋ ๊ฒ์ด ์๋๋ค. ์ฐ๋ฆฌ๋ ๊ทธ๊ฒ์ ํ ๋ฒ์ ์ ๋ณด๋ ๊ฒ์ด๋ฉฐ, ๊ทธ ๋ฒ์ ์ ์ฌ์ฉ์์ ์ฐธ์ฌ๋ฅผ ์ ์งํ ๊ฒ์ด๋ผ๊ณ ์์ธก๋๋ ๋ด์ฉ์ ์ ํํ๊ณ , ๋ฐฐ์ดํ๊ณ , ์ฐ์ ์์๋ฅผ ๋งค๊ธฐ๋ ์๊ณ ๋ฆฌ์ฆ์ ์ํด ํ๋ ์ด์
๋ ๊ฒ์ด๋ค. ์ด๋ฌํ ํ๋ ์ด์
์ ์ค๋ฆฝ์ ์ด์ง ์๋ค. ๊ทธ๊ฒ์ ๊ถ๋ ฅ์ ํ ํํ์ด๋ค. ์ฆ, ์ด๋ค ์ ๋ณด๊ฐ ์ด๋ค ์์ฉ์์๊ฒ ๋๋ฌํ๋์ง, ์ด๋ค ๋ชฉ์๋ฆฌ๊ฐ ์ฆํญ๋๊ณ ์ด๋ค ๋ชฉ์๋ฆฌ๊ฐ ์ต์ ๋๋์ง, ๊ทธ๋ฆฌ๊ณ ์ด๋ค ์๊ฐ์ ๋ฌด์์ด '์ ์ ํ' ๊ฒ์ผ๋ก ๊ฐ์ฃผ๋๋์ง๋ฅผ ๊ฒฐ์ ํ๋ ๊ถ๋ ฅ์ด๋ค.
์ปค๋ฎค๋์ผ์ด์
ํ ๋ฌธํ์ ์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ด ๋ฏธ๋์ด ๊ถ๋ ฅ์ ์์ด ๋จ์ํ ์์ ์ธ ๋ณํ๊ฐ ์๋๋ผ ์ง์ ์ธ ๋ณํ๋ฅผ ๋ํ๋ธ๋ค๋ ์ ์ ์ ์ ๋ ์ธ์ํ๊ณ ์๋ค. ์ ํต์ ์ธ ๋ฏธ๋์ด ๊ฒ์ดํธํคํผโํธ์ง์, ํ๋ก๋์, ์ถํ์ฌโ๋ ๊ฐ์์ ์ด๊ณ , ๊ท์ ๊ฐ๋ฅํ๋ฉฐ, (๋ฏผ์ฃผ์ฃผ์ ์ฌํ์์) ์ง์
์ ๊ท๋ฒ๊ณผ ๊ณต์ ์ฑ
์์ ์ ์ฉ์ ๋ฐ๋ ํธ์ง์ ํ๋จ์ ํ์ฌํ๋ค. ์๊ณ ๋ฆฌ์ฆ ๊ฒ์ดํธํคํ์ ์ด ์ค ์ด๋ ๊ฒ๋ ํด๋นํ์ง ์๋๋ค. ๊ทธ๊ฒ์ ์ฌ์ฉ์์๊ฒ ๋ณด์ด์ง ์๊ณ , ๊ท์ ๊ธฐ๊ด์๊ฒ ๋ถํฌ๋ช
ํ๋ฉฐ, ๋ฏผ์ฃผ์ ๊ฐ์น(์ถฉ๋ถํ ์ ๋ณด์ ๊ธฐ๋ฐํ ์ฌ์, ๋ค์ํ ๋
ธ์ถ, ๊ณตํํ ๋ฐ์ธ๊ถ)์ ๊ดด๋ฆฌ๋ ์ ์๋ ์์
์ ๋ชฉํ(์ฐธ์ฌ ๊ทน๋ํ)์ ์ํด ์ง๋ฐฐ๋๋ค.
ํ๋ซํผ ๊ฑฐ๋ฒ๋์ค: ์ฝํ
์ธ ์กฐ์ ์ ๋์ด์
Cennamo์ Karanovic(2026)์ ์์
๋ฏธ๋์ด ํ๋ซํผ์ ๊ท์ ์ค์๋ฅผ ๊ฐ์ ํ๋ ๋ฐฉ์์ผ๋ก ๊ท์ ํด์ผ ํ ๋ฏผ์ฃผ์ฃผ์์ ์ํ์ผ๋ก ๋ค๋ฃจ๋ ์ง๋ฐฐ์ ์ธ ํ๋ ์ด๋ฐ์ ์ด์๋ฅผ ์ ๊ธฐํ๋ค. ์ด๋ค์ ํ๋ซํผ์ด ํ์ ์ ๋ณด์ ํ์ฐ์ ์กฐ์ฅํ๊ณ ํธํฅ๋ ํ ๋ก ์ ๋ถ์ถ๊ธด๋ค๋ ์ โ๊ถ๊ทน์ ์ผ๋ก ์ฌ์ฉ์์ ๊ด์ฌ์ ์์ตํํ๋ ๋ฐ ๊ธฐ์ฌํ๋ ์ญํโ์ ์ธ์ ํ๋ฉด์๋, ๋ฌธ์ ์ ํด๊ฒฐ์ฑ
๋ชจ๋ ์ฝํ
์ธ ์์ค์ ์กฐ์ ์ด ๋ค๋ฃฐ ์ ์๋ ๊ฒ๋ณด๋ค ๋ ๊ตฌ์กฐ์ ์ด๋ผ๊ณ ์ฃผ์ฅํ๋ค.
์ด๋ค์ '์ํ๊ณ ๊ฑฐ๋ฒ๋์ค' ๊ด์ ์ ๋ฌธ์ ๋ฅผ ์ฌ๊ตฌ์ฑํ๋ค. "ํ๋ซํผ์ ์ด๋ป๊ฒ ์ฝํ
์ธ ๋ฅผ ์กฐ์ ํด์ผ ํ๋๊ฐ?"(ํ๋ซํผ์ ๊ฑฐ๋ฒ๋์ค์ ๋จ์๋ก ๋ฐ์๋ค์ด๋ ์ง๋ฌธ)๋ผ๊ณ ๋ฌป๋ ๋์ , "์ ๋ณด ์์ฐ, ์ ํต, ์๋น์ ์ํ๊ณ๋ ์ด๋ป๊ฒ ๊ฑฐ๋ฒ๋์ค ๋์ด์ผ ํ๋๊ฐ?"๋ผ๊ณ ๋ฌป๋๋ค. ์ด๋ฌํ ๋ถ์์ ์ฌ๊ตฌ์ฑ์ ์ฝํ
์ธ ์กฐ์ ๋ง์ผ๋ก๋ ๋ฐฐ์ ๋๋ ๊ฐ์
๋ฐฉ์์ ์ ์ํ๋๋ฐ, ์ฌ๊ธฐ์๋ ์ํธ์ด์ฉ์ฑ ์๊ฑด, ๋ฐ์ดํฐ ์ด๋์ฑ ์ต์
, ๊ทธ๋ฆฌ๊ณ ๋ฐฉ์ก ๋ฏธ๋์ด์ ๋ถ๊ณผ๋๋ ๊ฒ๊ณผ ์ ์ฌํ ๊ณต์ต ์๋ฌด์ ๊ฐ์ ๊ตฌ์กฐ์ ๋ฉ์ปค๋์ฆ์ด ํฌํจ๋๋ค.
์ํ๊ณ ๊ด์ ์ ๋ํ ์ฝํ
์ธ ์กฐ์ ์ด ํด๊ฒฐํ ์ ์๋ ๊ตฌ์กฐ์ ๊ถ๋ ฅ ๋น๋์นญ์ ์๋ณํ๋ค. ํ๋ซํผ์ ๋์์ ๊ณต์ ๋ด๋ก ์ ์ธํ๋ผ(์ ํ๋ง์ด๋ ์ฐํธ ์๋น์ค์ ์ ์ฌ)์ด์ ์ด์ต์ ์ต์ ํํ๋ ์์
๊ธฐ์
(๊ด๊ณ ์ฃผ๋ ์ํฐํ
์ธ๋จผํธ ๊ธฐ์
๊ณผ ์ ์ฌ)์ด๋ค. ์ด ๋ ์ญํ ์ ๊ธด์ฅ ๊ด๊ณ์ ์์ผ๋ฉฐ, ์ด๋ ํ ์์ค์ ์ฝํ
์ธ ์กฐ์ ๋ ์ฐธ์ฌ ๊ทน๋ํ์ ์ฌ์ ์ด์ง ์ฌ์ด์ ๊ตฌ์กฐ์ ๊ฐ๋ฑ์ ํด๊ฒฐํ์ง ๋ชปํ๋ค.
์๊ณ ๋ฆฌ์ฆ ์์ฉ์: ์๋ก์ด ์ด๋ก ์ ๋ฒ์ฃผ
Rustamova(2025)๋ '์๊ณ ๋ฆฌ์ฆ ์์ฉ์'๋ผ๋ ๊ฐ๋
์ ๋์
ํ๋ค. ์ด๋ (์ ํต์ ์ธ ๊ณต๋ก ์ฅ ์ด๋ก ์์์ฒ๋ผ) ์๋ฐ์ ์ผ๋ก ํ์ฑ๋๋ ๊ฒ์ด ์๋๋ผ ์๊ณ ๋ฆฌ์ฆ์ ์ํด ์์ฐ๋๋ ๊ณต์ค(publics)์ด๋ค. ์ด ๋
ผ๋ฌธ์ ํ๋ซํผํ๋ ๋ฏธ๋์ด ํ๊ฒฝ ๋ด์์ ์ด๋ฌํ ์์ฉ์์ ํ์ฑ๊ณผ ์๋์ ํ๊ตฌํ๋ฉฐ, ์ ์ฒด์ฑ, ์ํฅ๋ ฅ, ๊ถ๋ ฅ์ ๊ณผ์ ์ด ๊ต์ฐจํ์ฌ ์์ฉ์ ํ๋์ ํ์ฑํ๋ ๋ฐฉ์์ ์ด์ ์ ๋ง์ถ๋ค.
์ด ์ฐ๊ตฌ์ ์ด๋ก ์ ๊ธฐ์ฌ๋ ํ๋ซํผ ์๋์ '์์ฉ์'๊ฐ ๋ฌด์์ธ์ง๋ฅผ ์ฌ๊ฐ๋
ํํ๋ ๋ฐ ์๋ค. ๋ฐฉ์ก ๋ฏธ๋์ด์์ ์์ฉ์๋ ๋์ผํ ์ฝํ
์ธ ๋ฅผ ์๋นํ๊ธฐ๋ก ์ ํํ ๊ฐ์ธ๋ค์ ์งํฉ์ด์๋ค. ํ๋ซํผํ๋ ๋ฏธ๋์ด์์ ์์ฉ์๋ ์์ธก๋ ์ ํธ๋๋ฅผ ์ค์ฌ์ผ๋ก ์๊ณ ๋ฆฌ์ฆ์ ์ํด ์กฐ๋ฆฝ๋๋ค. ์ฆ, ์ด๋ค์ ์์ฉ์ ๊ตฌ์ฑ์๋ค์ ์๋์ ์ธ ์ ํ์ด ์๋๋ผ ํ๋ซํผ์ ์ถ์ฒ ์์คํ
์ ์ํด ๊ตฌ์ฑ๋๋ค.
์ด๋ ์ ์ฒด์ฑ ํ์ฑ์ ํจ์๋ฅผ ์ง๋๋ค. ์๊ณ ๋ฆฌ์ฆ์ด ์ด๋ค ์ฝํ
์ธ ๋ฅผ ๋ณผ ๊ฒ์ธ์ง๋ฅผ ๊ฒฐ์ ํ๊ณ , ๋ณด๊ฒ ๋๋ ์ฝํ
์ธ ๊ฐ ์ธ๊ณ์ ๋ํ ์ดํด๋ฅผ ํ์ฑํ๋ค๋ฉด, ์๊ณ ๋ฆฌ์ฆ์ ์ ํต์ ์ธ ๋ฏธ๋์ด ํจ๊ณผ ์ด๋ก ์ด ์์ฉํ์ง ๋ชปํ๋ ๋ฐฉ์์ผ๋ก ์ ์ฒด์ฑ ๊ตฌ์ฑ์ ๊ด์ฌํ๊ฒ ๋๋ค. ์ฌ๋๋ค์ ๋จ์ํ ๊ธฐ์กด์ ์ ํธ๋ฅผ ๋ฐ์ํ๋ ์ฝํ
์ธ ์ ๋
ธ์ถ๋๋ ๊ฒ์ด ์๋๋ผ, ํ๋ซํผ์ ์ฐธ์ฌ ์งํ(engagement metrics)์ ๋ณต๋ฌดํ๋ ๋ฐฉํฅ์ผ๋ก ์ ํธ๋ฅผ ์ ๋ํ๋ ์๊ณ ๋ฆฌ์ฆ์ ์ ํ์ ์ํด ๋ฐ๋ณต์ ์ผ๋ก ํ์ฑ๋๋ค.
๋ฏผ์ฃผ์ฃผ์ ์ฌํ์์์ ๊ณต๊ณต ์ค๋ฆฌ์ ์๊ณ ๋ฆฌ์ฆ ๊ฑฐ๋ฒ๋์ค
Alatas, Jaya, Khalid(2025)๋ ๋ฏผ์ฃผ์ฃผ์ ์ฌํ์์ ์์
๋ฏธ๋์ด ์๊ณ ๋ฆฌ์ฆ ๊ฑฐ๋ฒ๋์ค์ ๊ดํ ๊ณต๊ณต ์ค๋ฆฌ์ ๊ตฌ์ฑ์ ๊ฒํ ํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ ํ๋ ์ด์
, ์ถ์ฒ, ์ฝํ
์ธ ์กฐ์ (content moderation)์ด๋ผ๋ ๋ฉ์ปค๋์ฆ์ ํตํด ์ ๋ณด์ ๋ถ๋ฐฐ, ์ฌ๋ก ํ์ฑ, ์๋ฏผ ์ฐธ์ฌ ํจํด์ ์ํฅ์ ๋ฏธ์น๋ค.
์ด ๋
ผ๋ฌธ์ ์์
๋ฏธ๋์ด์ ์๊ณ ๋ฆฌ์ฆ ๊ฑฐ๋ฒ๋์ค๊ฐ ํฌ๋ช
์ฑ(์๊ณ ๋ฆฌ์ฆ์ ๊ฐ์ํํ๋ ๊ฒ)์ ๋์ด ์ฑ
์์ฑ(ํ๋ซํผ์ ๊ฒฐ์ ์ ๋ฏผ์ฃผ์ ๊ธฐ์ค์ ๋ฐ๋ผ ๊ฒํ ํ๋ ๊ฒ)๊ณผ ์ฐธ์ฌ(์ํฅ์ ๋ฐ๋ ๊ณต์ค์ด ๊ฑฐ๋ฒ๋์ค ์ค๊ณ์ ๋ชฉ์๋ฆฌ๋ฅผ ๋ผ ์ ์๋๋ก ํ๋ ๊ฒ)๋ฅผ ํฌํจํ๋ ์ค๋ฆฌ์ ํ๋ ์์ํฌ๋ฅผ ์๊ตฌํ๋ค๊ณ ์ฃผ์ฅํ๋ค. ํ์ฌ์ ๊ฑฐ๋ฒ๋์ค ๋ชจ๋ธโํ๋ซํผ์ด ์์ฒด์ ์ผ๋ก ์ฝํ
์ธ ์ ์ฑ
์ ์๋ฆฝํ๊ณ , ์๊ณ ๋ฆฌ์ฆ์ ์ค๊ณํ๋ฉฐ, ์์ฒด์ ์ผ๋ก ์ค์ ์ฌ๋ถ๋ฅผ ํ๊ฐํ๋โ์ ๋ฏผ์ฃผ์ ๊ฑฐ๋ฒ๋์ค๊ฐ ์๊ตฌํ๋ ์ธ๋ถ ์ฑ
์ ๋ฉ์ปค๋์ฆ์ ๊ฒฐ์ฌํ๊ณ ์๋ค.
์ด ๋ถ์์ ์ธ๋๋ค์์์ ๋งฅ๋ฝ์ ํนํ ์ฃผ๋ชฉํ ๋งํ๋ค. ์ธ๋๋ค์์๋ ์ธ๊ณ์์ ์์
๋ฏธ๋์ด ๋ณด๊ธ๋ฅ ์ด ๊ฐ์ฅ ๋์ ๊ตญ๊ฐ ์ค ํ๋์ด๋ฉฐ, ์์
๋ฏธ๋์ด๊ฐ ์ ์น์ ๋ด๋ก ์์ ํต์ฌ์ ์ธ ์ญํ ์ ๋ด๋นํ๋ ๋ฏผ์ฃผ์ฃผ์ ์ฒด์ ๋ฅผ ๊ฐ์ถ๊ณ ์๊ธฐ ๋๋ฌธ์ด๋ค. ์ด๋ฌํ ๋งฅ๋ฝ์์ ์๊ณ ๋ฆฌ์ฆ ๊ฑฐ๋ฒ๋์ค๋ ์ถ์์ ์ธ ์ ์ฑ
๋ฌธ์ ๊ฐ ์๋๋ผ ๋ฏผ์ฃผ์ ์ฐธ์ฌ์ ์กฐ๊ฑด์ ๊ดํ ๋ฌธ์ ์ด๋ค.
10๋
๊ฐ์ ๋ณํ
Tuncay(2025)๋ 2014๋
๋ถํฐ 2024๋
๊น์ง AI ๊ด๋ จ ์์
๋ฏธ๋์ด ์ฐ๊ตฌ๋ฅผ ๋ค๋ฃฌ Scopus ๋ฑ์ฌ ๋ฌธํ 996ํธ์ ๋ํ ํฌ๊ด์ ์ธ ๊ณ๋์์งํ์ (bibliometric) ๋ถ์์ ํตํด ์ข
๋จ์ ๊ด์ ์ ์ ์ํ๋ค. ์ด ์ฐ๊ตฌ๋ ์ฐ๊ตฌ์ ํ๋ฆ์ด ์ด๋ป๊ฒ ๋ณํํด ์๋์ง, ์ด๋ค ํ๋ซํผ์ด ๊ฐ์ฅ ๋ง์ ์ฃผ๋ชฉ์ ๋ฐ์ ์๋์ง, ๊ทธ๋ฆฌ๊ณ ์ด๋ค ์ฃผ์ ๋ค์ด ๋ถ์ํ์๋์ง๋ฅผ ์ง๋ํํ๋ค.
๊ณ๋์์งํ์ ๋ถ์์ ํ๋ซํผ๋ณ ์ฐ๊ตฌ ํจํด์ ๋๋ฌ๋ธ๋ค. Messenger(295,816๊ฑด), Facebook(39,469๊ฑด), YouTube(18,448๊ฑด)๊ฐ ํ์ ์ฐ๊ตฌ์ ์งํ์ ์ฃผ๋ํด ์จ ๋ฐ๋ฉด, TikTok๊ณผ Mastodon์ ์ต๊ทผ ์ฐ๊ตฌ์์ ์ฃผ๋ชฉ๋๊ฐ ๋์์ง๊ณ ์์ผ๋ฉฐ, ์ด๋ ์ํผ ๋์์๊ณผ ํ์ค์ํ ๋คํธ์ํน์ผ๋ก์ ์ ํ์ ์์ฌํ๋ค. ํ๋ซํผ๋ณ ์ฐ๊ตฌ ๋ํฅ๋ ๋ํ๋ฌ๋๋ฐ, Facebook์ ํ์์ ๋ณด(misinformation) ์ฐ๊ตฌ์, Instagram๊ณผ TikTok์ ๋ง์ผํ
๊ณผ, LinkedIn์ ์ ๋ฌธ์ ๋คํธ์ํน๊ณผ ์ฃผ๋ก ์ฐ๊ฒฐ๋๋ค.
์์
๋ฏธ๋์ด ์ฐ๊ตฌ์์ AI์ ์ญํ ์ ์ฝํ
์ธ ํ๋ ์ด์
, ์๋ํ๋ ์กฐ์ , ์ฑ๋ด ๊ธฐ์ , ๊ทธ๋ฆฌ๊ณ ํ๋ผ์ด๋ฒ์ ๋ฐ ๋ฅํ์ดํฌ(deepfakes)๋ฅผ ๋๋ฌ์ผ ์ค๋ฆฌ์ ์ฐ๋ ค ๋ฑ ์ฌ๋ฌ ์์ญ์ ๊ฑธ์ณ ๋น ๋ฅด๊ฒ ์ฑ์ฅํด ์๋ค. ์ด ์ฐ๊ตฌ๋ AI ์์ฑ ์ฝํ
์ธ , ๊ท์ ๊ณผ์ , ๋์งํธ ๊ฑฐ๋ฒ๋์ค์ ๊ด๋ จ๋ ์ค์ํ ์ฐ๊ตฌ ๊ณต๋ฐฑ์ ํ์ธํ๋๋ฐ, ์ด ์์ญ๋ค์ ํฅํ 10๋
๊ฐ์ ํ๋ซํผ ์ฐ๊ตฌ๋ฅผ ๊ท์ ํ ๊ฐ๋ฅ์ฑ์ด ๋๋ค.
์๊ณ ๋ฆฌ์ฆ์ ์ฐ๋ฌผ๋ก์์ ์ ์ฒด
Hussain, Aslam, Imran(2025)์ ์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ ํน์ ํ๊ณ ๋ ์ค์ํ ์์ญ์ธ ๋ฏธ์ ๊ธฐ์ค(beauty standards)์ ๊ฒํ ํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ผ๋ก ํ๋ ์ด์
๋๋ ์์
๋ฏธ๋์ด ์๋์ ๋ฏธ์ ๊ธฐ์ค์ ์ ์ ๋ ํ๋ซํผ ์ค๊ณ์ AI ๊ธฐ๋ฐ ํํฐ์ ์ํด ๊ณต๋ ์์ฐ๋๊ณ ์๋ค. ์ด ์ฐ๊ตฌ๋ TikTok, Instagram, Snapchat์์ AI ๊ธฐ๋ฐ ๋ทฐํฐ ํํฐ์ ์ถ์ฒ ์์คํ
์ด ์ ์ฒด ์ด๋ฏธ์ง์ ๋ฏธ์ ์ ํธ์ ๋ฏธ์น๋ ์ํฅ์ ์กฐ์ฌํ๋ค.
์ด ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ ์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ ์ฒดํ๋ ๊ฒฝํ(embodied experience)๊ณผ ์ฐ๊ฒฐ ์ง๋๋ค. ๋ทฐํฐ ํํฐ ์๊ณ ๋ฆฌ์ฆ์ด ์ด๋ค ์๊ธฐ ํํ์ด ์ฐธ์ฌ(์ข์์, ๋๊ธ, ๊ณต์ )๋ฅผ ๋ฐ์ ๊ฒ์ธ์ง๋ฅผ ๊ฒฐ์ ํ ๋, ํผ๋๋ฐฑ ๋ฃจํ๊ฐ ํ์ฑ๋๋ค. ์ฆ, ์ฌ์ฉ์๋ ์์ ์ ์ด๋ค ๋ชจ์ต์ด ์๊ณ ๋ฆฌ์ฆ์ ์ผ๋ก ๋ณด์๋ฐ๋์ง๋ฅผ ํ์ตํ๊ณ , ๊ทธ์ ๋ง์ถฐ ์๊ธฐ ํํ์ ์กฐ์ ํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ ๋จ์ํ ๊ธฐ์กด์ ๋ฏธ์ ๊ธฐ์ค์ ๋ฐ์ํ๋ ๊ฒ์ด ์๋๋ผ, ์ธ๊ฐ์ ์ฐ๋น(wellbeing)์ด ์๋ ์ฐธ์ฌ๋ฅผ ์ํด ์ต์ ํ๋ ์๋ก์ด ๋ฏธ์ ๊ธฐ์ค์ ๋ฅ๋์ ์ผ๋ก ์์ฐํ๋ค.
๋์ ์ง์ญ ํํค์คํ ์ ์ ์ฌ์ฑ๋ค์ ๋์์ผ๋ก ํผํฉ ์ฐ๊ตฌ ๋ฐฉ๋ฒ(๊ตฌ์กฐํ ์ค๋ฌธ์กฐ์ฌ N = 300, ์ฌ์ธต ์ธํฐ๋ทฐ N = 30)์ ํ์ฉํ์ฌ ์ํ๋ ๋ณธ ์ฐ๊ตฌ๋ ํํฐ ์ฌ์ฉ๊ณผ ์ ์ฒด ๋ถ๋ง์กฑ ๊ฐ์ ๊ฐ๋ ฅํ ์ ์ ๊ด๊ณ๋ฅผ ๋ฐ๊ฒฌํ์๋ค. ์ด๋ฌํ ์ญํ์ ์๊ณ ๋ฆฌ์ฆ์ ํผ๋๋ฐฑ์ด ์ง์์ ์ด๊ณ ์ธ๋ฐํ๋ฉฐ ๊ฐ์ธํ๋ ํ๊ฒฝ์์ ์์ ์ ์ฒด์ฑ์ ํ์ฑํด๊ฐ๋ ์ฌ์ฉ์๋ค์๊ฒ ํนํ ์ฐ๋ ค์ค๋ฝ๋ค. ๋ทฐํฐ ํํฐ๋ ์ค๋ฆฝ์ ์ธ ๋๊ตฌ๊ฐ ์๋๋คโ๊ทธ๊ฒ์ ์ฌ์ฉ์ ์์ ์ ์ผ๊ตด์ ํตํด ํํ๋๋, ์ฌ์ฉ์๊ฐ ์ด๋ป๊ฒ ๋ณด์ฌ์ผ ํ๋๊ฐ์ ๋ํ ์๊ณ ๋ฆฌ์ฆ์ ์๊ฒฌ์ด๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
<
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| ์ฝํ
์ธ ๋ชจ๋๋ ์ด์
๋ง์ผ๋ก ํ๋ซํผ ๊ถ๋ ฅ ๋น๋์นญ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ ์ ์๋ค | Cennamo & Karanovic (2026): ๊ตฌ์กฐ์ ์ํ๊ณ ๋ฌธ์ ๋ ์ฝํ
์ธ ์์ค์ ๊ฐ์
์ผ๋ก ํด๊ฒฐ๋ ์ ์๋ค | โ ๋ฐ๋ฐ๋จ |
| ์๊ณ ๋ฆฌ์ฆ์ ์์ฉ์๋ ์ ํต์ ๊ณต์ค์ฒ๋ผ ์๋ฐ์ ์ผ๋ก ํ์ฑ๋๋ค | Rustamova (2025): ์์ฉ์๋ ์๋ฐ์ ์ผ๋ก ๋ชจ์ด๋ ๊ฒ์ด ์๋๋ผ ์๊ณ ๋ฆฌ์ฆ์ ์ํด ๊ตฌ์ฑ๋๋ค | โ ๋ฐ๋ฐ๋จ |
| ์๊ณ ๋ฆฌ์ฆ ๊ฑฐ๋ฒ๋์ค์๋ ๋ฏผ์ฃผ์ ์ฑ
์ ๋ฉ์ปค๋์ฆ์ด ์๊ตฌ๋๋ค | Alatas et al. (2025): ํ์ฌ์ ์์จ ๊ท์ ๋ชจ๋ธ์ ์ธ๋ถ ์ฑ
์์ฑ์ด ๊ฒฐ์ฌ๋์ด ์๋ค | โ
์ง์ง๋จ (๊ท๋ฒ์ ๋
ผ๊ฑฐ) |
| ์์
๋ฏธ๋์ด์ ๋ํ AI ํตํฉ์ ์์ธก ๊ฐ๋ฅํ ๊ณ ์กฐ ํจํด์ ๋ฐ๋ผ์๋ค | Tuncay (2025): ๊ณ๋์์งํ์ ๋ถ์์ ์ฝํ
์ธ ํ๋ ์ด์
์์ AI ์์ฑ ์ฝํ
์ธ ๋ก์ ์งํ๋ฅผ ๊ธฐ๋กํ๋ค | โ
์ง์ง๋จ |
| ๋ทฐํฐ ํํฐ๋ ์ ์ฒด ์ด๋ฏธ์ง์ ์๊ธฐ ํํ์ ์ํฅ์ ๋ฏธ์น๋ค | Hussain et al. (2025): ์๊ณ ๋ฆฌ์ฆ์ ํผ๋๋ฐฑ ๋ฃจํ๋ ํนํ ์ ์ ์ฌ์ฉ์๋ค์ ์ฌ๋ฏธ์ ์ ํธ๋ฅผ ํ์ฑํ๋ค | โ
์ง์ง๋จ |
๋ฏธํด๊ฒฐ ๊ณผ์
์ํธ์ด์ฉ์ฑ ์๊ฑด์ด ํ๋ซํผ ๊ถ๋ ฅ์ ์ฝํ์ํฌ ์ ์๋๊ฐ? ์ฌ์ฉ์๊ฐ ์ด๋ฉ์ผ์ฒ๋ผ ํ๋ซํผ์ ๋์ด ํฌ๋ฆฌ์์ดํฐ๋ฅผ ํ๋ก์ฐํ ์ ์๋ค๋ฉด, ์๊ณ ๋ฆฌ์ฆ์ ์ ๊ธ ํจ๊ณผ๋ ๊ฐ์ํ ๊ฒ์ธ๊ฐ? EU์ ๋์งํธ ์์ฅ๋ฒ(Digital Markets Act)์ ์ํธ์ด์ฉ์ฑ ์กฐํญ์ ํฌํจํ๊ณ ์์ผ๋, ๊ทธ ์ดํ์ ์ฌ์ ํ ๋
ผ์ ์ค์ด๋ค."์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ"์ ์ค์ ๋ก ๋ฌด์์ ์๊ตฌํ๋๊ฐ? ์ถ์ฒ ์๊ณ ๋ฆฌ์ฆ์ ์์ค ์ฝ๋๋ฅผ ๊ณต๊ฐํ๋๋ผ๋, ์์คํ
์ ํ๋์ด ์ฝ๋ยท๋ฐ์ดํฐยท์ฌ์ฉ์ ํ๋์ ์ํธ์์ฉ์์ ์ฐฝ๋ฐํ๋ฉฐ ์ด๋ค ๋จ์ผ ์ฐ์ถ๋ฌผ๋ก๋ ํฌ์ฐฉ๋์ง ์๋๋ค๋ฉด, ์๋ฏธ ์๋ ํฌ๋ช
์ฑ์ ์ ๊ณตํ์ง ๋ชปํ ์ ์๋ค.์ฌ์ฉ์์๊ฒ๋ ๋น์๊ณ ๋ฆฌ์ฆ ํผ๋๋ฅผ ์ ํํ ๊ถ๋ฆฌ๊ฐ ์์ด์ผ ํ๋๊ฐ? ์ผ๋ถ ์ ์์ "์๊ฐ์ ํผ๋" ์ต์
์ ๊ท์ ์ ์๊ฑด์ผ๋ก ์ฃผ์ฅํ๋ค. ์ฌ์ฉ์๋ค์ด ์ค์ ๋ก ๊ทธ๊ฒ์ ์ ํํ ๊ฒ์ธ๊ฐ, ๊ทธ๋ฆฌ๊ณ ๊ทธ๊ฒ์ด ๊ทผ๋ณธ์ ์ธ ๊ถ๋ ฅ ๋น๋์นญ์ ํด์ํ ๊ฒ์ธ๊ฐ, ์๋๋ฉด ๋จ์ง ์ ํ์ ํ์๋ง์ ์ ๊ณตํ๋ ๊ฒ์ธ๊ฐ?์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
ํจ๊ณผ๋ ๋ฌธํ์ ๋ฐ๋ผ ์ด๋ป๊ฒ ๋ค๋ฅธ๊ฐ? ๊ฒํ ๋ ์ฐ๊ตฌ๋ค์ ์ธ๋๋ค์์, ์ฐ์ฆ๋ฒ ํค์คํ, ์๊ตญ, ๊ทธ๋ฆฌ๊ณ ๊ธ๋ก๋ฒ ํ๋ซํผ์ ๊ฑธ์ณ ์๋ค. ๋ฏธ๋์ด ์๋น, ๊ถ์์ ๋ํ ๋ณต์ข
, ๊ฐ์ธ์ฃผ์์ ์์ด์์ ๋ฌธํ์ ์ฐจ์ด๋ ์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ด ๊ฒฝํ๋๋ ๋ฐฉ์์ ํ์ฑํ ๊ฐ๋ฅ์ฑ์ด ๋๋ค.๊ณต์ต ์๊ณ ๋ฆฌ์ฆ์ ์ค๊ณ๋ ์ ์๋๊ฐ? ์์
์ ์๊ณ ๋ฆฌ์ฆ์ด ์ฐธ์ฌ๋๋ฅผ ์ต์ ํํ๋ค๋ฉด, ๊ณต์ต ์๊ณ ๋ฆฌ์ฆ์ ๋ฌด์์ ์ต์ ํํ ๊ฒ์ธ๊ฐ? ์์์ ์ ๋ณด ์ ๊ณต์ธ๊ฐ? ๋ค์ํ ๋
ธ์ถ์ธ๊ฐ? ์๋ฏผ์ ์ฐธ์ฌ์ธ๊ฐ? ๊ทธ๋ฆฌ๊ณ ๋๊ฐ ์ด๋ฅผ ์ค๊ณํ๊ณ , ์ฌ์์ ๋ง๋ จํ๋ฉฐ, ๊ฑฐ๋ฒ๋์ค๋ฅผ ๋ด๋นํ ๊ฒ์ธ๊ฐ?์์ฌ์
์ฌ๊ธฐ์ ๊ฒํ ๋ ์ฐ๊ตฌ๋ค์ ํ๋์ ํต์ฌ์ ํต์ฐฐ๋ก ์๋ ดํ๋ค: ์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ ํ๋ซํผ์ ๊ธฐ๋ฅ์ด ์๋๋ผ ๊ทธ ์ํฅ๋ ฅ์ ์์ํ๋ ๊ฑฐ๋ฒ๋์ค๋ฅผ ์๊ตฌํ๋ ๊ถ๋ ฅ์ ํ ํํ๋ผ๋ ๊ฒ์ด๋ค. ํ์ฌ์ ๊ฑฐ๋ฒ๋์ค ์ฒด๊ณโ์ฝํ
์ธ ๋ชจ๋๋ ์ด์
์ ์ฑ
, ํฌ๋ช
์ฑ ๋ณด๊ณ ์, ์๋ฌธ์์ํโ๋ ๊ตฌ์กฐ๊ฐ ์๋ ์ฆ์์ ๋ค๋ฃจ๊ณ ์๋ค.
๊ตฌ์กฐ์ ๋์์ "ํ๋ซํผ์ด ์ด๋ค ์ฝํ
์ธ ๋ฅผ ์ ๊ฑฐํด์ผ ํ๋๊ฐ?"๋ผ๋ ์ง๋ฌธ์ ๋์ด "์๊ณ ๋ฆฌ์ฆ ํ๋ ์ด์
์ด ๋ฏผ์ฃผ์ ๊ณต๋ก ์ฅ์์ ์ด๋ค ์ญํ ์ ํด์ผ ํ๋๊ฐ?"๋ผ๋ ์ง๋ฌธ์ผ๋ก ๋์๊ฐ ๊ฒ์ ์๊ตฌํ๋ค. ์ด๊ฒ์ ๋ฏธ๋์ด ์ฝํ
์ธ ๊ฐ ์๋ ๋ฏธ๋์ด ์ํคํ
์ฒ์ ๊ดํ ์ง๋ฌธ์ด๋ฉฐโ๊ณผ๊ฑฐ ๋ฏธ๋์ด ๋ณํ์ ์๋์ ๊ณต์๋ฐฉ์ก, ์ธ๋ก ์์ ๋ณดํธ, ๋ฏธ๋์ด ๋ค์์ฑ ๊ท์น์ ์ฐฝ์ถํด๋ธ ๊ฒ๊ณผ ๊ฐ์ ์ข
๋ฅ์ ์ ๋์ ํ์ ์ ํ์๋ก ํ๋ค.
References (5)
[1] Cennamo, C. & Karanovic, J. (2026). Are Social Media Platforms a Threat to Democracy? An Ecosystem Governance Perspective. Journal of Management Studies, 63(1), 70044.
[2] Rustamova, N.R. (2025). Algorithmic Audiences: Navigating Identity, Influence, and Power in the Age of Platformized Media. Journal of Communication and Media Studies, 3, 09.
[3] Alatas, M., Jaya, S.M., & Khalid, I. (2025). Konstruksi Etika Publik dalam Tata Kelola Algoritma Media Sosial di Masyarakat Demokratis. Perseptif, 3(2), 437.
[4] Tuncay, N. (2025). The 10-Year Shift: How AI Reshaped Social Media from 2014 to 2024. Proc. European Conference on Social Media, 12(1), 3592.
[5] Hussain, B., Aslam, S., & Imran, A. (2025). Manufacturing Beauty: How AI and Social Media Are Redefining Aesthetic Norms in Emerging Digital Cultures. Acta Psychologica, 254, 105734.