Trend AnalysisCommunication & MediaSystematic Review
AI-Generated Misinformation Detection and Media Literacy: The Arms Race for Truth
Generative AI has made synthetic media creation trivially easy, outpacing detection technologies and traditional media literacy frameworks. Four papers reveal that specific literacy interventions can improve discernment, but the structural asymmetry between creation and detection remains the central challenge.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
The democratization of generative AI has fundamentally altered the misinformation landscape. Tools that once required technical expertise and significant computational resources are now accessible through consumer-facing applications, enabling anyone to produce convincing synthetic text, images, audio, and video. The result is an asymmetry: creating convincing false content has become orders of magnitude easier, while detecting it remains technically demanding and cognitively taxing for ordinary users.
This is not merely a technical problem. The proliferation of AI-generated misinformation threatens democratic processes, financial stability, and interpersonal trust. When citizens cannot distinguish authentic media from synthetic fabrication, the epistemic foundations of public discourse erodeโnot because people believe every fake, but because the possibility of fakery undermines confidence in everything.
Fatimah, Mumtaz, and Fahrezi (2024) provide a systematic literature review mapping the terrain of AI-generated misinformation. Their analysis identifies a taxonomy of synthetic content typesโfrom text generated by large language models to deepfake video and audioโand catalogs the detection approaches developed against each.
The review reveals a troubling pattern: detection technologies consistently lag behind generation capabilities. Each new generation of AI models produces content that defeats the previous generation of detectors. This creates what the authors describe as an ongoing "cat-and-mouse" dynamic in which defenders are structurally disadvantaged because they must respond to innovations they cannot anticipate.
Aditya (2025) traces the technical evolution of deepfake technologies from early experimental models to widely accessible creation tools. The paper documents specific threats across three domains: democratic processes (fabricated political speeches, manipulated election content), financial stability (corporate impersonation, market manipulation), and personal security (non-consensual intimate imagery, identity theft).
The paper argues that the threat is not hypothetical. Documented cases of deepfake-enabled fraud have resulted in losses exceeding millions of dollars in single incidents. Political deepfakes have circulated during elections in multiple countries. The technical barriers to producing convincing deepfakes continue to fall even as the quality of output improves.
Guo, Swire-Thompson, and Hu (2025) present the most empirically rigorous contribution to the defense side. Their preregistered study examines whether providing specific media literacy tips about AI-generated images improves people's ability to distinguish synthetic from authentic visual content.
The key finding: specific media literacy tips about AI-generated images improved participants' ability to distinguish synthetic from authentic visual content more than general tips. Both media literacy interventions reduced belief in AI-generated visual misinformation compared to the control group, but specific tips were more effective than general ones.
However, the study also reveals an important tradeoff: both specific and general tips also reduced belief in real images compared to control. In other words, media literacy training makes people more skeptical of everythingโnot just synthetic content. This "truth discount" is a significant cost: interventions that reduce susceptibility to misinformation by raising overall skepticism may also reduce trust in legitimate information. The gap between human discernment and the quality of AI-generated content continues to narrow, suggesting that media literacy alone cannot serve as a complete defense.
Higher Education's Responsibility
Hill and Conceicao (2025) address the institutional dimension, arguing that faculty in higher education bear a specific responsibility for developing AI media literacy. As AI-generated content saturates the information environment, the ability to critically evaluate synthetic media becomes a core academic competency rather than a specialized technical skill.
The paper proposes integrating AI literacy across curriculaโnot as a standalone module but as a pervasive critical thinking practice. This represents a shift from treating misinformation as a content moderation problem (platforms should filter it) to treating it as an educational challenge (people should be equipped to evaluate it).
Detection vs. Literacy: A Comparative Framework
<
| Approach | Scalability | Adaptability | Current Effectiveness | Limitation |
|---|
| Automated detection (AI-based) | High | Low (lags behind generation) | Moderate | Arms race dynamic |
| Platform content moderation | High | Moderate | Low-Moderate | Reactive, inconsistent |
| Specific media literacy tips | Moderate | Moderate | Moderate (Guo et al., 2025) | Ceiling on human perception |
| Curriculum-integrated education | Low (long-term) | High | Unknown (early stage) | Slow to deploy |
| Provenance/watermarking | High (if adopted) | High | Low (adoption barrier) | Requires industry cooperation |
What To Watch
The most promising near-term development is the convergence of technical and educational approachesโsystems that augment human judgment with AI-assisted verification rather than replacing it. Content provenance standards (such as C2PA) that embed verifiable metadata at the point of creation could shift the burden from detection to authentication. However, adoption remains the bottleneck: provenance systems only work if they become ubiquitous, and the incentives for platforms and creators to adopt them remain misaligned. The deeper question is whether societies can adapt their epistemic norms faster than generative AI can erode them.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํน์ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ, ์ฃผ์ฅ์ ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๊ฒ์ฆํด์ผ ํ๋ค.
AI ์์ฑ ํ์์ ๋ณด ํ์ง์ ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์: ์ง์ค์ ์ํ ๊ตฐ๋น ๊ฒฝ์
์์ฑํ AI์ ๋์คํ๋ ํ์์ ๋ณด ํ๊ฒฝ์ ๊ทผ๋ณธ์ ์ผ๋ก ๋ณํ์์ผฐ๋ค. ํ๋ ์ ๋ฌธ์ ์ธ ๊ธฐ์ ์ง์๊ณผ ์๋นํ ์ปดํจํ
์์์ ์๊ตฌํ๋ ๋๊ตฌ๋ค์ด ์ด์ ๋ ์๋น์์ฉ ์ ํ๋ฆฌ์ผ์ด์
์ ํตํด ๋๊ตฌ๋ ์ ๊ทผํ ์ ์๊ฒ ๋์์ผ๋ฉฐ, ์ด๋ก ์ธํด ๋๊ตฌ๋ ์ค๋๋ ฅ ์๋ ํฉ์ฑ ํ
์คํธ, ์ด๋ฏธ์ง, ์ค๋์ค, ์์์ ์ ์ํ ์ ์๊ฒ ๋์๋ค. ๊ทธ ๊ฒฐ๊ณผ ๋น๋์นญ์ด ๋ฐ์ํ์๋ค. ์ฆ, ์ค๋๋ ฅ ์๋ ํ์ ์ฝํ
์ธ ๋ฅผ ์์ฑํ๋ ์ผ์ ์์ญ ๋ฐฐ ๋ ์ฌ์์ง ๋ฐ๋ฉด, ์ด๋ฅผ ํ์งํ๋ ์ผ์ ์ฌ์ ํ ๊ธฐ์ ์ ์ผ๋ก ๊น๋ค๋กญ๊ณ ์ผ๋ฐ ์ฌ์ฉ์์๊ฒ๋ ์ธ์ง์ ์ผ๋ก๋ ๋ถ๋ด์ด ํฌ๋ค.
์ด๊ฒ์ ๋จ์ํ ๊ธฐ์ ์ ๋ฌธ์ ๊ฐ ์๋๋ค. AI ์์ฑ ํ์์ ๋ณด์ ํ์ฐ์ ๋ฏผ์ฃผ์ฃผ์ ๊ณผ์ , ๊ธ์ต ์์ ์ฑ, ๊ทธ๋ฆฌ๊ณ ๋์ธ ๊ฐ ์ ๋ขฐ๋ฅผ ์ํํ๋ค. ์๋ฏผ๋ค์ด ์ง์ง ๋ฏธ๋์ด์ ํฉ์ฑ ์กฐ์๋ฌผ์ ๊ตฌ๋ณํ์ง ๋ชปํ ๋, ๊ณต๋ก ์ฅ์ ์ธ์๋ก ์ ํ ๋๊ฐ ์นจ์๋๋ค. ์ด๋ ์ฌ๋๋ค์ด ๋ชจ๋ ๊ฐ์ง ์ ๋ณด๋ฅผ ๋ฏฟ์ด์๊ฐ ์๋๋ผ, ๊ฐ์ง์ผ ์๋ ์๋ค๋ ๊ฐ๋ฅ์ฑ ์์ฒด๊ฐ ๋ชจ๋ ๊ฒ์ ๋ํ ์ ๋ขฐ๋ฅผ ์ฝํ์ํค๊ธฐ ๋๋ฌธ์ด๋ค.
AI ์์ฑ ํ์์ ๋ณด์ ํํฉ
Fatimah, Mumtaz, Fahrezi(2024)๋ AI ์์ฑ ํ์์ ๋ณด์ ์ ๋ฐ์ ์ธ ์งํ์ ์ฒด๊ณ์ ์ผ๋ก ํ์
ํ ๋ฌธํ ๊ณ ์ฐฐ์ ์ ์ํ๋ค. ์ด๋ค์ ๋ถ์์ ๋ํ ์ธ์ด ๋ชจ๋ธ์ด ์์ฑํ ํ
์คํธ๋ถํฐ ๋ฅํ์ดํฌ ์์ ๋ฐ ์ค๋์ค์ ์ด๋ฅด๊ธฐ๊น์ง ํฉ์ฑ ์ฝํ
์ธ ์ ํ์ ๋ถ๋ฅ ์ฒด๊ณ๋ฅผ ๊ตฌ์ถํ๊ณ , ๊ฐ ์ ํ์ ๋์ํ์ฌ ๊ฐ๋ฐ๋ ํ์ง ๋ฐฉ๋ฒ๋ค์ ์ ๋ฆฌํ๋ค.
์ด ๋ฆฌ๋ทฐ๋ ์ฐ๋ ค์ค๋ฌ์ด ํจํด์ ๋๋ฌ๋ธ๋ค. ํ์ง ๊ธฐ์ ์ ์์ฑ ๊ธฐ์ ์ ๋นํด ์ง์์ ์ผ๋ก ๋ค์ฒ์ง๋ค๋ ๊ฒ์ด๋ค. ์๋ก์ด ์ธ๋์ AI ๋ชจ๋ธ์ด ๋ฑ์ฅํ ๋๋ง๋ค ์ด์ ์ธ๋์ ํ์ง๊ธฐ๋ฅผ ๋ฌด๋ ฅํํ๋ ์ฝํ
์ธ ๊ฐ ์์ฐ๋๋ค. ์ด๋ก ์ธํด ์ ์๋ค์ด ์ง์์ ์ธ "๊ณ ์์ด์ ์ฅ" ์ญํ์ด๋ผ๊ณ ๋ฌ์ฌํ๋ ์ํฉ์ด ํ์ฑ๋๋ฉฐ, ๋ฐฉ์ด ์ธก์ ์์ธกํ ์ ์๋ ํ์ ์ ๋ฐ์ํด์ผ ํ๋ ๊ตฌ์กฐ์ ์ผ๋ก ๋ถ๋ฆฌํ ์์น์ ๋์ด๊ฒ ๋๋ค.
์ ๋ณด ์ํ๊ณ์ ๋ํ ๋ฅํ์ดํฌ ์ํ
Aditya(2025)๋ ๋ฅํ์ดํฌ ๊ธฐ์ ์ ๊ธฐ์ ์ ์งํ๋ฅผ ์ด๊ธฐ ์คํ ๋ชจ๋ธ๋ถํฐ ๋๋ฆฌ ์ ๊ทผ ๊ฐ๋ฅํ ์ ์ ๋๊ตฌ์ ์ด๋ฅด๊ธฐ๊น์ง ์ถ์ ํ๋ค. ์ด ๋
ผ๋ฌธ์ ๋ฏผ์ฃผ์ฃผ์ ๊ณผ์ (์กฐ์๋ ์ ์น์ธ ๋ฐ์ธ, ์ ๊ฑฐ ์ฝํ
์ธ ์กฐ์), ๊ธ์ต ์์ ์ฑ(๊ธฐ์
์ฌ์นญ, ์์ฅ ์กฐ์), ๊ฐ์ธ ๋ณด์(๋น๋์ ์น๋ฐ ์ด๋ฏธ์ง, ์ ์ ๋์ฉ)์ ์ธ ๊ฐ์ง ์์ญ์ ๊ฑธ์น ๊ตฌ์ฒด์ ์ธ ์ํ์ ๊ธฐ๋กํ๋ค.
์ด ๋
ผ๋ฌธ์ ์ด๋ฌํ ์ํ์ด ๊ฐ์์ ๊ฒ์ด ์๋์ ์ฃผ์ฅํ๋ค. ๋ฅํ์ดํฌ๋ฅผ ํ์ฉํ ์ฌ๊ธฐ ์ฌ๋ก๊ฐ ์ค์ ๋ก ๋ฌธ์ํ๋์์ผ๋ฉฐ, ๋จ์ผ ์ฌ๊ฑด์์ ์๋ฐฑ๋ง ๋ฌ๋ฌ๋ฅผ ์ด๊ณผํ๋ ์์ค์ด ๋ฐ์ํ์๋ค. ์ ์น์ ๋ฅํ์ดํฌ๋ ์ฌ๋ฌ ๋๋ผ์ ์ ๊ฑฐ ๊ธฐ๊ฐ ๋์ ์ ํฌ๋์๋ค. ๊ฒฐ๊ณผ๋ฌผ์ ํ์ง์ด ํฅ์๋๋ ๋์์ ์ค๋๋ ฅ ์๋ ๋ฅํ์ดํฌ ์ ์์ ์ํ ๊ธฐ์ ์ ์ฅ๋ฒฝ์ ๊ณ์ํด์ ๋ฎ์์ง๊ณ ์๋ค.
ํ์ฅ ๊ฐ๋ฅํ ๋ฐฉ์ด ์๋จ์ผ๋ก์์ ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์
Guo, Swire-Thompson, Hu(2025)๋ ๋ฐฉ์ด ์ธก๋ฉด์์ ๊ฐ์ฅ ๊ฒฝํ์ ์ผ๋ก ์๋ฐํ ๊ธฐ์ฌ๋ฅผ ์ ์ํ๋ค. ์ด๋ค์ ์ฌ์ ๋ฑ๋ก ์ฐ๊ตฌ๋ AI ์์ฑ ์ด๋ฏธ์ง์ ๊ดํ ๊ตฌ์ฒด์ ์ธ ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์ ์ ๋ณด๋ฅผ ์ ๊ณตํ๋ ๊ฒ์ด ์ฌ๋๋ค์ ํฉ์ฑ ์๊ฐ ์ฝํ
์ธ ์ ์ง์ง ์๊ฐ ์ฝํ
์ธ ๋ฅผ ๊ตฌ๋ณํ๋ ๋ฅ๋ ฅ์ ํฅ์์ํค๋์ง ์ดํด๋ณธ๋ค.
์ฃผ์ ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ ๋ค์๊ณผ ๊ฐ๋ค. AI ์์ฑ ์ด๋ฏธ์ง์ ๊ดํ ๊ตฌ์ฒด์ ์ธ ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์ ์ ๋ณด๋ ์ผ๋ฐ์ ์ธ ์ ๋ณด๋ณด๋ค ์ฐธ๊ฐ์๋ค์ ํฉ์ฑ ์ฝํ
์ธ ์ ์ง์ง ์ฝํ
์ธ ๊ตฌ๋ณ ๋ฅ๋ ฅ์ ๋ ํฌ๊ฒ ํฅ์์์ผฐ๋ค. ๋ ๊ฐ์ง ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์ ๊ฐ์
๋ชจ๋ ๋์กฐ๊ตฐ์ ๋นํด AI ์์ฑ ์๊ฐ ํ์์ ๋ณด์ ๋ํ ๋ฏฟ์์ ๊ฐ์์์ผฐ์ผ๋, ๊ตฌ์ฒด์ ์ธ ์ ๋ณด๊ฐ ์ผ๋ฐ์ ์ธ ์ ๋ณด๋ณด๋ค ๋ ํจ๊ณผ์ ์ด์๋ค.
๊ทธ๋ฌ๋ ์ด ์ฐ๊ตฌ๋ ์ค์ํ ํธ๋ ์ด๋์คํ๋ ๋ฐํ๋ธ๋ค: ๊ตฌ์ฒด์ ํ๊ณผ ์ผ๋ฐ์ ํ ๋ชจ๋ ํต์ ์ง๋จ์ ๋นํด ์ค์ ์ด๋ฏธ์ง์ ๋ํ ์ ๋ขฐ๋ ์ญ์ ๋ฎ์ถ์๋ค. ๋ค์ ๋งํด, ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์ ํ๋ จ์ ํฉ์ฑ ์ฝํ
์ธ ๋ฟ๋ง ์๋๋ผ ๋ชจ๋ ๊ฒ์ ๋ํ ํ์์ฃผ์๋ฅผ ๋์ธ๋ค. ์ด๋ฌํ "์ง์ค ํ ์ธ(truth discount)"์ ์๋นํ ๋น์ฉ์ด๋ค: ์ ๋ฐ์ ์ธ ํ์์ฃผ์๋ฅผ ๋์์ผ๋ก์จ ํ์์ ๋ณด์ ๋ํ ์ทจ์ฝ์ฑ์ ์ค์ด๋ ๊ฐ์
์ด ํฉ๋ฒ์ ์ธ ์ ๋ณด์ ๋ํ ์ ๋ขฐ ์ญ์ ๋ฎ์ถ ์ ์๋ค. ์ธ๊ฐ์ ์๋ณ ๋ฅ๋ ฅ๊ณผ AI ์์ฑ ์ฝํ
์ธ ์ ํ์ง ๊ฐ ๊ฒฉ์ฐจ๋ ๊ณ์ํด์ ์ขํ์ง๊ณ ์์ผ๋ฉฐ, ์ด๋ ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์๋ง์ผ๋ก๋ ์์ ํ ๋ฐฉ์ด ์๋จ์ด ๋ ์ ์์์ ์์ฌํ๋ค.
๊ณ ๋ฑ๊ต์ก์ ์ฑ
์
Hill๊ณผ Conceicao(2025)๋ ์ ๋์ ์ฐจ์์ ๋ค๋ฃจ๋ฉฐ, ๊ณ ๋ฑ๊ต์ก ๊ต์์ง์ด AI ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์ ๊ฐ๋ฐ์ ๋ํด ํน์ ํ ์ฑ
์์ ์ง๋ค๊ณ ์ฃผ์ฅํ๋ค. AI ์์ฑ ์ฝํ
์ธ ๊ฐ ์ ๋ณด ํ๊ฒฝ์ ํฌํ์ํด์ ๋ฐ๋ผ, ํฉ์ฑ ๋ฏธ๋์ด๋ฅผ ๋นํ์ ์ผ๋ก ํ๊ฐํ๋ ๋ฅ๋ ฅ์ ์ ๋ฌธ์ ์ธ ๊ธฐ์ ์ญ๋์ด ์๋ ํต์ฌ ํ๋ฌธ ์ญ๋์ด ๋๊ณ ์๋ค.
์ด ๋
ผ๋ฌธ์ AI ๋ฆฌํฐ๋ฌ์๋ฅผ ๊ต์ก๊ณผ์ ์ ๋ฐ์ ํตํฉํ ๊ฒ์ ์ ์ํ๋คโ๋
๋ฆฝ์ ์ธ ๋ชจ๋์ด ์๋๋ผ ์ ๋ฐ์ ์ธ ๋นํ์ ์ฌ๊ณ ์ค์ฒ์ผ๋ก์ ๋ง์ด๋ค. ์ด๋ ํ์์ ๋ณด๋ฅผ ์ฝํ
์ธ ์กฐ์ ๋ฌธ์ (ํ๋ซํผ์ด ํํฐ๋งํด์ผ ํ๋ค)๋ก ๋ค๋ฃจ๋ ๊ฒ์์ ๊ต์ก์ ๊ณผ์ (์ฌ๋๋ค์ด ํ๊ฐํ ์ ์๋ ์ญ๋์ ๊ฐ์ถ์ด์ผ ํ๋ค)๋ก ๋ค๋ฃจ๋ ๋ฐฉ์์ผ๋ก์ ์ ํ์ ๋ํ๋ธ๋ค.
ํ์ง ๋ ๋ฆฌํฐ๋ฌ์: ๋น๊ต ํ๋ ์์ํฌ
<
| ์ ๊ทผ ๋ฐฉ์ | ํ์ฅ์ฑ | ์ ์์ฑ | ํ์ฌ ํจ๊ณผ์ฑ | ํ๊ณ |
|---|
| ์๋ํ ํ์ง(AI ๊ธฐ๋ฐ) | ๋์ | ๋ฎ์(์์ฑ ๊ธฐ์ ์ ๋ค์ฒ์ง) | ๋ณดํต | ๊ตฐ๋น ๊ฒฝ์ ์ญํ |
| ํ๋ซํผ ์ฝํ
์ธ ์กฐ์ | ๋์ | ๋ณดํต | ๋ฎ์-๋ณดํต | ์ฌํ ๋์์ , ์ผ๊ด์ฑ ๋ถ์กฑ |
| ๊ตฌ์ฒด์ ๋ฏธ๋์ด ๋ฆฌํฐ๋ฌ์ ํ | ๋ณดํต | ๋ณดํต | ๋ณดํต(Guo et al., 2025) | ์ธ๊ฐ ์ธ์ง์ ์ํ์ |
| ๊ต์ก๊ณผ์ ํตํฉ ๊ต์ก | ๋ฎ์(์ฅ๊ธฐ์ ) | ๋์ | ๋ฏธ์ง(์ด๊ธฐ ๋จ๊ณ) | ๋๋ฆฐ ๋ฐฐํฌ |
| ์ถ์ฒ ์ฆ๋ช
/์ํฐ๋งํน | ๋์(์ฑํ ์) | ๋์ | ๋ฎ์(์ฑํ ์ฅ๋ฒฝ) | ์
๊ณ ํ๋ ฅ ํ์ |
์ฃผ๋ชฉํ ์ฌํญ
๊ฐ์ฅ ์ ๋งํ ๊ทผ๊ธฐ(่ฟๆ) ๋ฐ์ ์ ๊ธฐ์ ์ ์ ๊ทผ๊ณผ ๊ต์ก์ ์ ๊ทผ์ ์๋ ด์ด๋คโ์ธ๊ฐ์ ํ๋จ์ ๋์ฒดํ๋ ๊ฒ์ด ์๋๋ผ AI ๋ณด์กฐ ๊ฒ์ฆ์ผ๋ก ์ธ๊ฐ์ ํ๋จ์ ๋ณด์ํ๋ ์์คํ
์ด๋ค. ์์ฑ ์์ ์ ๊ฒ์ฆ ๊ฐ๋ฅํ ๋ฉํ๋ฐ์ดํฐ๋ฅผ ์ฝ์
ํ๋ ์ฝํ
์ธ ์ถ์ฒ ์ฆ๋ช
ํ์ค(C2PA ๋ฑ)์ ํ์ง์์ ์ธ์ฆ์ผ๋ก ๋ถ๋ด์ ์ ํํ ์ ์๋ค. ๊ทธ๋ฌ๋ ์ฑํ์ด ์ฌ์ ํ ๋ณ๋ชฉ ์ง์ ์ผ๋ก ๋จ์ ์๋ค: ์ถ์ฒ ์ฆ๋ช
์์คํ
์ ๋ณดํธํ๋ ๋๋ง ์๋ํ๋ฉฐ, ํ๋ซํผ๊ณผ ์ฐฝ์์๊ฐ ์ด๋ฅผ ์ฑํํ ์ ์ธ์ ์ฌ์ ํ ์๋ฐ์ ์ํ๋ค. ๋ ๊ทผ๋ณธ์ ์ธ ์ง๋ฌธ์ ์ฌํ๊ฐ ์์ฑํ AI๊ฐ ์ธ์๋ก ์ ๊ท๋ฒ์ ์นจ์ํ๋ ์๋๋ณด๋ค ๋น ๋ฅด๊ฒ ์ ์ํ ์ ์๋๊ฐ์ด๋ค.
References (4)
[1] Guo, S., Swire-Thompson, B., & Hu, X. (2025). Specific media literacy tips improve AI-generated visual misinformation discernment. Cognitive Research: Principles and Implications, 10, 648.
[2] Fatimah, R., Mumtaz, A., & Fahrezi, F.M. (2024). AI-Generated Misinformation: A Literature Review. IJAIDM, 7(2), 26455.
[3] Aditya, S. (2025). The misinformation epidemic: combating AI-generated fake content and deepfakes. World Journal of Advanced Research and Reviews, 26(2), 1752.
[4] Hill, L.H. & Conceicao, S.C.O. (2025). Media Literacy and Faculty Responsibility: Addressing AI-Generated Disinformation in Higher Education. New Directions for Adult and Continuing Education, 2025, e70018.