Trend AnalysisLinguistics & NLP
Computational Linguistics in the LLM Era: What Neural Models Reveal About Language
Large language models have disrupted computational linguistics, but their implications for linguistic theory remain debated. Recent work uses psycholinguistic paradigms, information-theoretic frameworks, and nativist arguments to probe what LLMs actually learn about language.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
The relationship between computational linguistics and large language models is more complicated than either enthusiasts or skeptics acknowledge. LLMs are trained on text, and they process text with remarkable facility. But the question of whether they learn languageโthe structured system of knowledge that linguists studyโor merely learn text statisticsโthe distributional patterns of written languageโremains genuinely open.
This question matters beyond linguistics departments. If LLMs learn something like genuine linguistic knowledge, they could serve as models of human language acquisition and processing. If they learn only text statistics, their impressive performance tells us about the statistics of text, not about the nature of language. Recent work from computational linguists, psycholinguists, and information theorists is helping to sharpen this distinction.
The Research Landscape: Three Approaches to the Question
Psycholinguistic Probing
Duan and Xiao (2024), with 11 citations, bring methods from experimental psycholinguistics into model interpretability. Their approach treats LLMs as subjects in psycholinguistic experiments originally designed for human participants. The logic is that if LLMs show human-like patterns on psycholinguistic tasks, this constitutes evidence (not proof) that they have acquired some aspect of the linguistic competence those tasks are designed to measure.
The experiments test three specific aspects of linguistic competence in GPT-2-XL: sound-shape association (the bouba-kiki effect), sound-gender association (phonological gender cues), and implicit causality (the tendency for certain verbs to bias causal attribution toward the subject or object).
Key findings: GPT-2-XL struggles with the sound-shape task but demonstrates human-like abilities in both sound-gender association and implicit causality. The pattern suggests that some aspects of deep linguistic competence are captured by distributional learning (gender associations, causal biases) while others (cross-modal sound-shape mappings) are not.
Through targeted neuron ablation and activation manipulation, the researchers identify specific "language competence neurons"โneurons whose ablation destroys specific linguistic abilities. The crucial finding: when the model displays a linguistic ability, specific neurons correspond to that competence; when the ability is absent, so are the specialized neurons. This establishes a direct link between individual neurons and specific linguistic competencies.
Conklin and Smith (2024), with 3 citations, propose a framework that treats a model's internal representations as a kind of languageโsubject to the same information-theoretic analysis tools that linguists apply to natural language. The insight is that neural representations encode information, and the way that information is structured can be analyzed using concepts like entropy, mutual information, and channel capacity.
Their framework addresses a longstanding complaint about probing studies: that probing classifiers may find structure in representations that the model does not actually use. By measuring the information content of representations rather than the decodability of specific features, they provide a more principled basis for claims about what models encode.
Applied to transformer models, the framework reveals two distinct phases of training:
- An initial phase of in-distribution learning that reduces task loss.
- A second phase where representations become robust to noiseโand it is during this second phase that generalization performance improves, drawing a link between generalization and noise robustness.
- Larger models ultimately compress their representations more than smaller counterparts, suggesting that scale enables more efficient encoding of linguistic structure.
These measures can also predict which models will generalize best based on their representationsโoffering a practical tool for model evaluation that does not require running downstream benchmarks.
The Poverty of the Stimulus Revisited
Yang, Bisazza, and Conklin & Smith (2024) revisit one of the most debated arguments in linguisticsโthe Poverty of the Stimulus (PoS)โin the context of neural language models. The PoS argument, associated with Chomsky, holds that the linguistic input children receive is insufficient to explain the grammatical generalizations they acquire, motivating the hypothesis that some linguistic knowledge is innate.
Their paper provides a unified assessment: if LLMs can acquire the same generalizations from text alone (without innate linguistic knowledge), this would challenge the PoS argument. If they cannot, it would support it.
The results are mixed and therefore informative. LLMs succeed on many of the phenomena traditionally cited in PoS argumentsโsubject-auxiliary inversion, binding constraints, island effectsโbut fail on others, particularly those involving long-distance dependencies and recursive structure. The authors argue that this pattern is not a simple victory for either side: it suggests that some aspects of grammar are learnable from distributional data (weakening the PoS argument for those phenomena) while others may genuinely require inductive biases that LLMs lack (supporting the PoS argument for those phenomena).
The Practical Landscape
Sattorova, Ulugbek, and ugli (2025) provide an applied perspective on how the LLM era has changed the practice of computational linguistics. They observe that the field has moved from rule-based and statistical approaches that required linguistic expertise to neural approaches that require engineering expertise. This shift has practical consequences: NLP systems are more capable but less interpretable, and the role of linguists in NLP teams is less clear than it was a decade ago.
Their assessment is that the shift from syntax-focused to semantics-focused NLP has created both opportunities and gaps. Current systems handle syntactic tasks well but still struggle with tasks requiring genuine semantic understandingโnegation, quantification, metaphor, and pragmatic inference.
Critical Analysis: Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| LLMs show human-like patterns on psycholinguistic tasks | Duan et al.'s lexical decision and priming experiments | โ
Supported โ for lexical and syntactic tasks |
| LLMs acquire semantic anomaly detection | Duan et al.'s anomaly detection experiments | โ ๏ธ Uncertain โ weaker performance suggests limitations |
| Neural representations encode syntax and semantics in distinct layers | Conklin & Smith's information-theoretic analysis | โ
Supported โ consistent with probing studies |
| LLMs resolve the Poverty of the Stimulus debate | Yang et al.'s unified assessment | โ Refuted โ results are mixed; some phenomena learnable, others not |
Open Questions and Future Directions
What counts as "linguistic knowledge"? If a model can pass a psycholinguistic test but does so through different mechanisms than humans, does it have the same knowledge? The functional equivalence question remains open.Multimodal grounding: Current LLMs learn from text alone. How much of the gap between LLM and human linguistic knowledge is attributable to the absence of sensory grounding?Cross-linguistic validity: Most interpretability work uses English. Languages with different typological properties may reveal different patterns of what is learnable from distributional data.The role of linguists in NLP: As Sattorova et al. observe, the field is becoming more engineering-driven. Is this a problem for the science, or a natural evolution?Scaling and emergence: Some linguistic capabilities appear to "emerge" at certain model scales. Understanding why certain capabilities have scale thresholds could illuminate what makes those capabilities difficult.What This Means for Your Research
For computational linguists, LLMs are tools for testing linguistic theoriesโnot replacements for them. The mixed results from the PoS debate show that LLMs can adjudicate between theoretical positions in productive ways.
For NLP engineers, the psycholinguistic approach offers principled evaluation methods beyond standard benchmarks. If your system fails on semantic anomaly detection, this points to specific architectural limitations worth addressing.
Explore related work through ORAA ResearchBrain.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต์ ๋ชฉ์ ์ผ๋ก ํ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ ์๋ฌผ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ๊ณผ ๋์กฐํ์ฌ ๊ฒ์ฆํด์ผ ํ๋ค.
LLM ์๋์ ์ ์ฐ ์ธ์ดํ: ์ ๊ฒฝ๋ง ๋ชจ๋ธ์ด ์ธ์ด์ ๋ํด ๋ฐํ์ฃผ๋ ๊ฒ
์ ์ฐ ์ธ์ดํ๊ณผ ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ(LLM) ๊ฐ์ ๊ด๊ณ๋ ์ง์ง์๋ ํ์๋ก ์ ์ด๋ ์ชฝ์ด ์ธ์ ํ๋ ๊ฒ๋ณด๋ค ํจ์ฌ ๋ณต์กํ๋ค. LLM์ ํ
์คํธ๋ก ํ๋ จ๋๋ฉฐ ํ
์คํธ๋ฅผ ๋๋ผ์ด ๋ฅ์ํจ์ผ๋ก ์ฒ๋ฆฌํ๋ค. ๊ทธ๋ฌ๋ LLM์ด ์ธ์ดโ์ธ์ดํ์๋ค์ด ์ฐ๊ตฌํ๋ ๊ตฌ์กฐํ๋ ์ง์ ์ฒด๊ณโ๋ฅผ ํ์ตํ๋์ง, ์๋๋ฉด ๋จ์ํ ํ
์คํธ ํต๊ณโ๋ฌธ์ด์ฒด ์ธ์ด์ ๋ถํฌ์ ํจํดโ๋ง์ ํ์ตํ๋์ง์ ๋ฌธ์ ๋ ์ฌ์ ํ ์ง์ ์ผ๋ก ์ด๋ฆฐ ์ง๋ฌธ์ผ๋ก ๋จ์ ์๋ค.
์ด ๋ฌธ์ ๋ ์ธ์ดํ๊ณผ๋ฅผ ๋์ด์ ์ค์ํ ์๋ฏธ๋ฅผ ์ง๋๋ค. LLM์ด ์ง์ ํ ์ธ์ด ์ง์๊ณผ ์ ์ฌํ ๋ฌด์ธ๊ฐ๋ฅผ ํ์ตํ๋ค๋ฉด, ์ธ๊ฐ์ ์ธ์ด ์ต๋ ๋ฐ ์ฒ๋ฆฌ ๋ชจ๋ธ๋ก ํ์ฉ๋ ์ ์๋ค. ๋ฐ๋ฉด ํ
์คํธ ํต๊ณ๋ง์ ํ์ตํ๋ค๋ฉด, ๊ทธ ์ธ์์ ์ธ ์ฑ๋ฅ์ ์ธ์ด์ ๋ณธ์ง์ด ์๋ ํ
์คํธ์ ํต๊ณ์ ํน์ฑ์ ๋ํด ๋งํด์ฃผ๋ ๊ฒ์ ๋ถ๊ณผํ๋ค. ์ ์ฐ ์ธ์ดํ์, ์ฌ๋ฆฌ์ธ์ดํ์, ์ ๋ณด ์ด๋ก ๊ฐ๋ค์ ์ต๊ทผ ์ฐ๊ตฌ๋ ์ด ๊ตฌ๋ถ์ ๋์ฑ ๋ช
ํํ ํ๋ ๋ฐ ๊ธฐ์ฌํ๊ณ ์๋ค.
์ฐ๊ตฌ ์งํ: ๋ฌธ์ ์ ๋ํ ์ธ ๊ฐ์ง ์ ๊ทผ๋ฒ
์ฌ๋ฆฌ์ธ์ดํ์ ํ๋ก๋น(Psycholinguistic Probing)
Duan๊ณผ Xiao(2024)๋ 11ํ ์ธ์ฉ์ ๊ธฐ๋กํ๋ฉฐ, ์คํ ์ฌ๋ฆฌ์ธ์ดํ์ ๋ฐฉ๋ฒ๋ก ์ ๋ชจ๋ธ ํด์ ๊ฐ๋ฅ์ฑ(interpretability) ์ฐ๊ตฌ์ ๋์
ํ๋ค. ์ด๋ค์ ์ ๊ทผ๋ฒ์ LLM์ ์๋ ์ธ๊ฐ ์ฐธ๊ฐ์๋ฅผ ๋์์ผ๋ก ์ค๊ณ๋ ์ฌ๋ฆฌ์ธ์ดํ ์คํ์ ํผํ์๋ก ์ทจ๊ธํ๋ค. ์ด ๋
ผ๋ฆฌ์ ๋ฐ๋ฅด๋ฉด, LLM์ด ์ฌ๋ฆฌ์ธ์ดํ์ ๊ณผ์ ์์ ์ธ๊ฐ๊ณผ ์ ์ฌํ ํจํด์ ๋ณด์ธ๋ค๋ฉด, ์ด๋ ํด๋น ๊ณผ์ ๊ฐ ์ธก์ ํ๊ณ ์ ์ค๊ณ๋ ์ธ์ด ๋ฅ๋ ฅ์ ์ผ๋ฉด์ LLM์ด ์ต๋ํ๋ค๋ ์ฆ๊ฑฐ(์ฆ๋ช
์ ์๋)๊ฐ ๋๋ค.
ํด๋น ์คํ์ GPT-2-XL์ ์ธ ๊ฐ์ง ๊ตฌ์ฒด์ ์ธ ์ธ์ด ๋ฅ๋ ฅ ์ธก๋ฉด์ ๊ฒ์ฆํ๋ค: ์ํ ์ฐ์(bouba-kiki ํจ๊ณผ), ์์ฑ-์ฑ๋ณ ์ฐ์(์์ด๋ก ์ ์ฑ๋ณ ๋จ์), ๊ทธ๋ฆฌ๊ณ ์๋ฌต์ ์ธ๊ณผ์ฑ(ํน์ ๋์ฌ๊ฐ ์ฃผ์ด ๋๋ ๋ชฉ์ ์ด ๋ฐฉํฅ์ผ๋ก ์ธ๊ณผ ๊ท์ธ์ ํธํฅ์ํค๋ ๊ฒฝํฅ).
์ฃผ์ ๊ฒฐ๊ณผ: GPT-2-XL์ ์ํ ์ฐ์ ๊ณผ์ ์์ ์ด๋ ค์์ ๊ฒช์ง๋ง, ์์ฑ-์ฑ๋ณ ์ฐ์๊ณผ ์๋ฌต์ ์ธ๊ณผ์ฑ ๋ ๊ณผ์ ๋ชจ๋์์ ์ธ๊ฐ๊ณผ ์ ์ฌํ ๋ฅ๋ ฅ์ ๋ณด์ธ๋ค. ์ด ํจํด์ ์ฌ์ธต์ ์ธ์ด ๋ฅ๋ ฅ์ ์ผ๋ถ ์ธก๋ฉด(์ฑ๋ณ ์ฐ์, ์ธ๊ณผ์ ํธํฅ)์ ๋ถํฌ์ ํ์ต์ ํตํด ํฌ์ฐฉ๋๋ ๋ฐ๋ฉด, ๋ค๋ฅธ ์ธก๋ฉด(๊ต์ฐจ ์์ ์ํ ๋งคํ)์ ๊ทธ๋ ์ง ์์์ ์์ฌํ๋ค.
์ฐ๊ตฌ์๋ค์ ๋ชฉํ ์งํฅ์ ๋ด๋ฐ ์ ์ (neuron ablation) ๋ฐ ํ์ฑํ ์กฐ์์ ํตํด ํน์ "์ธ์ด ๋ฅ๋ ฅ ๋ด๋ฐ"โ์ ์ ์ ํน์ ์ธ์ด ๋ฅ๋ ฅ์ ์๋ฉธ์ํค๋ ๋ด๋ฐโ์ ์๋ณํ๋ค. ๊ฒฐ์ ์ ์ธ ๋ฐ๊ฒฌ์ ๋ค์๊ณผ ๊ฐ๋ค: ๋ชจ๋ธ์ด ์ธ์ด ๋ฅ๋ ฅ์ ๋ฐํํ ๋ ํน์ ๋ด๋ฐ์ด ํด๋น ๋ฅ๋ ฅ์ ๋์ํ๋ฉฐ, ๋ฅ๋ ฅ์ด ์์ ๋๋ ํนํ๋ ๋ด๋ฐ ๋ํ ์กด์ฌํ์ง ์๋๋ค. ์ด๋ ๊ฐ๋ณ ๋ด๋ฐ๊ณผ ํน์ ์ธ์ด ๋ฅ๋ ฅ ์ฌ์ด์ ์ง์ ์ ์ธ ์ฐ๊ฒฐ ๊ณ ๋ฆฌ๋ฅผ ํ๋ฆฝํ๋ค.
์ ๋ณด ์ด๋ก ์ ํด์ ๊ฐ๋ฅ์ฑ(Information-Theoretic Interpretability)
Conklin๊ณผ Smith(2024)๋ 3ํ ์ธ์ฉ์ ๊ธฐ๋กํ๋ฉฐ, ๋ชจ๋ธ์ ๋ด๋ถ ํํ์ ์ผ์ข
์ ์ธ์ด๋ก ์ทจ๊ธํ๋ ํ๋ ์์ํฌ๋ฅผ ์ ์ํ๋ค. ์ด ์ธ์ด๋ ์ธ์ดํ์๋ค์ด ์์ฐ์ด์ ์ ์ฉํ๋ ๊ฒ๊ณผ ๋์ผํ ์ ๋ณด ์ด๋ก ์ ๋ถ์ ๋๊ตฌ์ ๋์์ด ๋๋ค. ํต์ฌ ํต์ฐฐ์ ์ ๊ฒฝ๋ง ํํ์ด ์ ๋ณด๋ฅผ ์ธ์ฝ๋ฉํ๋ฉฐ, ๊ทธ ์ ๋ณด๊ฐ ๊ตฌ์กฐํ๋๋ ๋ฐฉ์์ ์ํธ๋กํผ(entropy), ์ํธ ์ ๋ณด(mutual information), ์ฑ๋ ์ฉ๋(channel capacity)๊ณผ ๊ฐ์ ๊ฐ๋
์ ์ฌ์ฉํ์ฌ ๋ถ์ํ ์ ์๋ค๋ ๊ฒ์ด๋ค.
์ด ํ๋ ์์ํฌ๋ ํ๋ก๋น ์ฐ๊ตฌ์ ๋ํ ์ค๋ ๋ถ๋ง์ ํด์ํ๋ค: ํ๋ก๋น ๋ถ๋ฅ๊ธฐ(probing classifier)๊ฐ ๋ชจ๋ธ์ด ์ค์ ๋ก ์ฌ์ฉํ์ง ์๋ ํํ ๋ด ๊ตฌ์กฐ๋ฅผ ๋ฐ๊ฒฌํ ์ ์๋ค๋ ๋ฌธ์ ์ด๋ค. ํน์ ํน์ง์ ๋์ฝ๋ฉ ๊ฐ๋ฅ์ฑ ๋์ ํํ์ ์ ๋ณด ๋ด์ฉ์ ์ธก์ ํจ์ผ๋ก์จ, ๋ชจ๋ธ์ด ๋ฌด์์ ์ธ์ฝ๋ฉํ๋์ง์ ๋ํ ์ฃผ์ฅ์ ๋์ฑ ์์น์ ์ธ ๊ทผ๊ฑฐ๋ฅผ ์ ๊ณตํ๋ค.
ํธ๋์คํฌ๋จธ(transformer) ๋ชจ๋ธ์ ์ ์ฉํ์ ๋, ์ด ํ๋ ์์ํฌ๋ ํ๋ จ์ ๋ ๊ฐ์ง ๋๋ ทํ ๋จ๊ณ๋ฅผ ๋๋ฌ๋ธ๋ค:
- ๊ณผ์ ์์ค(task loss)์ ๊ฐ์์ํค๋ ๋ถํฌ ๋ด(in-distribution) ํ์ต์ ์ด๊ธฐ ๋จ๊ณ.
- ํํ์ด ๋
ธ์ด์ฆ์ ๊ฒฌ๊ณ ํด์ง๋ ๋ ๋ฒ์งธ ๋จ๊ณโ๊ทธ๋ฆฌ๊ณ ์ผ๋ฐํ ์ฑ๋ฅ์ด ํฅ์๋๋ ๊ฒ์ ๋ฐ๋ก ์ด ๋ ๋ฒ์งธ ๋จ๊ณ์์์ด๋ฉฐ, ์ด๋ ์ผ๋ฐํ์ ๋
ธ์ด์ฆ ๊ฒฌ๊ณ ์ฑ ์ฌ์ด์ ์ฐ๊ด์ฑ์ ๋ณด์ฌ์ค๋ค.
- ๋ ํฐ ๋ชจ๋ธ์ ๊ถ๊ทน์ ์ผ๋ก ๋ ์์ ๋ชจ๋ธ๋ณด๋ค ํํ์ ๋ ๋ง์ด ์์ถํ๋ฉฐ, ์ด๋ ๊ท๋ชจ๊ฐ ์ธ์ด ๊ตฌ์กฐ์ ๋ ํจ์จ์ ์ธ ์ธ์ฝ๋ฉ์ ๊ฐ๋ฅํ๊ฒ ํจ์ ์์ฌํ๋ค.
์ด๋ฌํ ์ธก์ ์น๋ ๋ํ ํํ์ ๊ธฐ๋ฐ์ผ๋ก ์ด๋ค ๋ชจ๋ธ์ด ๊ฐ์ฅ ์ ์ผ๋ฐํํ ์ง๋ฅผ ์์ธกํ ์ ์์ด, ๋ค์ด์คํธ๋ฆผ ๋ฒค์น๋งํฌ๋ฅผ ์คํํ์ง ์์๋ ๋๋ ์ค์ฉ์ ์ธ ๋ชจ๋ธ ํ๊ฐ ๋๊ตฌ๋ฅผ ์ ๊ณตํ๋ค.
์๊ทน์ ๋น๊ณค ์ฌ๊ณ ์ฐฐ
Yang, Bisazza, Conklin & Smith(2024)๋ ์ ๊ฒฝ ์ธ์ด ๋ชจ๋ธ์ ๋งฅ๋ฝ์์ ์ธ์ดํ์์ ๊ฐ์ฅ ๋
ผ์์ด ๋ง์ ๋
ผ์ฆ ์ค ํ๋์ธ ์๊ทน์ ๋น๊ณค(Poverty of the Stimulus, PoS)์ ์ฌ๊ฒํ ํ๋ค. Chomsky์ ๊ด๋ จ๋ PoS ๋
ผ์ฆ์, ์๋์ด ๋ฐ๋ ์ธ์ด ์
๋ ฅ์ด ๊ทธ๋ค์ด ์ต๋ํ๋ ๋ฌธ๋ฒ์ ์ผ๋ฐํ๋ฅผ ์ค๋ช
ํ๊ธฐ์ ๋ถ์ถฉ๋ถํ๋ค๊ณ ์ฃผ์ฅํ๋ฉฐ, ์ผ๋ถ ์ธ์ด ์ง์์ด ์ ์ฒ์ ์ด๋ผ๋ ๊ฐ์ค์ ๋๊ธฐ๋ฅผ ๋ถ์ฌํ๋ค.
์ด ๋
ผ๋ฌธ์ ํตํฉ์ ์ธ ํ๊ฐ๋ฅผ ์ ๊ณตํ๋ค. ๋ง์ฝ LLM์ด (์ ์ฒ์ ์ธ ์ธ์ด ์ง์ ์์ด) ํ
์คํธ๋ง์ผ๋ก ๋์ผํ ์ผ๋ฐํ๋ฅผ ์ต๋ํ ์ ์๋ค๋ฉด, ์ด๋ PoS ๋
ผ์ฆ์ ๋์ ํ๋ ๊ฒ์ด๋ค. ๊ทธ๋ ์ง ๋ชปํ๋ค๋ฉด, ์ด๋ PoS ๋
ผ์ฆ์ ์ง์งํ๋ ๊ฒ์ด๋ค.
๊ฒฐ๊ณผ๋ ํผ์ฌ๋์ด ์์ผ๋ฉฐ, ๋ฐ๋ผ์ ์ ๋ณด์ ๊ฐ์น๊ฐ ์๋ค. LLM์ PoS ๋
ผ์ฆ์์ ์ ํต์ ์ผ๋ก ์ธ์ฉ๋์ด ์จ ๋ง์ ํ์โ์ฃผ์ด-์กฐ๋์ฌ ๋์น, ๊ฒฐ์ ์ ์ฝ, ์ฌ ํจ๊ณผโ์์ ์ฑ๊ณต์ ๊ฑฐ๋์ง๋ง, ํนํ ์ฅ๊ฑฐ๋ฆฌ ์์กด์ฑ๊ณผ ์ฌ๊ท ๊ตฌ์กฐ์ ๊ด๋ จ๋ ํ์์์๋ ์คํจํ๋ค. ์ ์๋ค์ ์ด ํจํด์ด ์ด๋ ํ์ชฝ์ ๋จ์ํ ์น๋ฆฌ๊ฐ ์๋๋ผ๊ณ ์ฃผ์ฅํ๋ค. ์ด๋ ๋ฌธ๋ฒ์ ์ผ๋ถ ์ธก๋ฉด์ ๋ถํฌ์ ๋ฐ์ดํฐ๋ก๋ถํฐ ํ์ต ๊ฐ๋ฅํ์ง๋ง(ํด๋น ํ์์ ๋ํ PoS ๋
ผ์ฆ์ ์ฝํ์ํด), ๋ค๋ฅธ ์ธก๋ฉด์ LLM์ด ๊ฒฐ์ฌํ๊ณ ์๋ ๊ท๋ฉ์ ํธํฅ์ ์ค์ ๋ก ํ์๋ก ํ ์ ์์์(ํด๋น ํ์์ ๋ํ PoS ๋
ผ์ฆ์ ์ง์งํจ) ์์ฌํ๋ค.
์ค์ฉ์ ํํฉ
Sattorova, Ulugbek, ugli(2025)๋ LLM ์๋๊ฐ ๊ณ์ฐ ์ธ์ดํ์ ์ค์ฒ์ ์ด๋ป๊ฒ ๋ณํ์์ผฐ๋์ง์ ๋ํ ์์ฉ์ ๊ด์ ์ ์ ๊ณตํ๋ค. ์ด๋ค์ ํด๋น ๋ถ์ผ๊ฐ ์ธ์ดํ์ ์ ๋ฌธ ์ง์์ ์๊ตฌํ๋ ๊ท์น ๊ธฐ๋ฐ ๋ฐ ํต๊ณ์ ์ ๊ทผ๋ฒ์์ ๊ณตํ์ ์ ๋ฌธ ์ง์์ ์๊ตฌํ๋ ์ ๊ฒฝ ์ ๊ทผ๋ฒ์ผ๋ก ์ด๋ํ๋ค๊ณ ๊ด์ฐฐํ๋ค. ์ด๋ฌํ ์ ํ์ ์ค์ง์ ์ธ ๊ฒฐ๊ณผ๋ฅผ ๋ณ๋๋ค. NLP ์์คํ
์ ๋ ์ ๋ฅํด์ก์ง๋ง ํด์ ๊ฐ๋ฅ์ฑ์ ๋ฎ์์ก๊ณ , NLP ํ์์ ์ธ์ดํ์์ ์ญํ ์ 10๋
์ ๋ณด๋ค ๋ถ๋ถ๋ช
ํด์ก๋ค.
์ด๋ค์ ํ๊ฐ์ ๋ฐ๋ฅด๋ฉด, ๊ตฌ๋ฌธ ์ค์ฌ์์ ์๋ฏธ ์ค์ฌ NLP๋ก์ ์ ํ์ ๊ธฐํ์ ๊ณต๋ฐฑ์ ๋ชจ๋ ๋ง๋ค์ด๋๋ค. ํ์ฌ ์์คํ
์ ๊ตฌ๋ฌธ ๊ณผ์ ๋ฅผ ์ ์ฒ๋ฆฌํ์ง๋ง, ์ง์ ํ ์๋ฏธ๋ก ์ ์ดํด๋ฅผ ์๊ตฌํ๋ ๊ณผ์ โ๋ถ์ , ์ํ, ์์ , ํ์ฉ๋ก ์ ์ถ๋ก โ์๋ ์ฌ์ ํ ์ด๋ ค์์ ๊ฒช๊ณ ์๋ค.
๋นํ์ ๋ถ์: ์ฃผ์ฅ๊ณผ ์ฆ๊ฑฐ
<
| ์ฃผ์ฅ | ์ฆ๊ฑฐ | ํ๊ฒฐ |
|---|
| LLM์ ์ฌ๋ฆฌ์ธ์ดํ์ ๊ณผ์ ์์ ์ธ๊ฐ๊ณผ ์ ์ฌํ ํจํด์ ๋ณด์ธ๋ค | Duan ์ธ์ ์ดํ ํ๋จ ๋ฐ ์ ํ ์คํ | โ
์ง์ง๋จ โ ์ดํ ๋ฐ ๊ตฌ๋ฌธ ๊ณผ์ ์ ๋ํด |
| LLM์ ์๋ฏธ๋ก ์ ์ด์ ๊ฐ์ง๋ฅผ ์ต๋ํ๋ค | Duan ์ธ์ ์ด์ ๊ฐ์ง ์คํ | โ ๏ธ ๋ถํ์ค โ ๋ฎ์ ์ฑ๋ฅ์ ํ๊ณ๋ฅผ ์์ฌํจ |
| ์ ๊ฒฝ ํํ์ ๊ตฌ๋ฌธ๊ณผ ์๋ฏธ๋ฅผ ์๋ก ๋ค๋ฅธ ์ธต์์ ์ธ์ฝ๋ฉํ๋ค | Conklin & Smith์ ์ ๋ณด ์ด๋ก ์ ๋ถ์ | โ
์ง์ง๋จ โ ํ๋ก๋น ์ฐ๊ตฌ์ ์ผ์น |
| LLM์ด ์๊ทน์ ๋น๊ณค ๋
ผ์์ ํด๊ฒฐํ๋ค | Yang ์ธ์ ํตํฉ์ ํ๊ฐ | โ ๋ฐ์ฆ๋จ โ ๊ฒฐ๊ณผ๊ฐ ํผ์ฌ๋จ; ์ผ๋ถ ํ์์ ํ์ต ๊ฐ๋ฅํ๊ณ ๋ค๋ฅธ ํ์์ ๊ทธ๋ ์ง ์์ |
๋ฏธํด๊ฒฐ ์ง๋ฌธ๊ณผ ํฅํ ๋ฐฉํฅ
"์ธ์ด ์ง์"์ด๋ ๋ฌด์์ธ๊ฐ? ๋ชจ๋ธ์ด ์ฌ๋ฆฌ์ธ์ดํ์ ๊ฒ์ฌ๋ฅผ ํต๊ณผํ ์ ์์ง๋ง ์ธ๊ฐ๊ณผ ๋ค๋ฅธ ๋ฉ์ปค๋์ฆ์ ํตํด ๊ทธ๋ ๊ฒ ํ๋ค๋ฉด, ๋์ผํ ์ง์์ ๊ฐ์ง๊ณ ์๋ ๊ฒ์ธ๊ฐ? ๊ธฐ๋ฅ์ ๋๋ฑ์ฑ ๋ฌธ์ ๋ ์ฌ์ ํ ๋ฏธํด๊ฒฐ๋ก ๋จ์ ์๋ค.๋ค์ค ๋ชจ๋ฌ ๊ธฐ๋ฐ: ํ์ฌ LLM์ ํ
์คํธ๋ง์ผ๋ก ํ์ตํ๋ค. LLM๊ณผ ์ธ๊ฐ ์ธ์ด ์ง์ ์ฌ์ด์ ๊ฐ๊ทน์ด ์ผ๋ง๋ ๊ฐ๊ฐ์ ๊ธฐ๋ฐ์ ๋ถ์ฌ์ ๊ธฐ์ธํ๋๊ฐ?
๊ต์ฐจ์ธ์ด์ ํ๋น์ฑ: ๋๋ถ๋ถ์ ํด์ ๊ฐ๋ฅ์ฑ ์ฐ๊ตฌ๋ ์์ด๋ฅผ ์ฌ์ฉํ๋ค. ์ ํ๋ก ์ ํน์ฑ์ด ๋ค๋ฅธ ์ธ์ด๋ค์ ๋ถํฌ ๋ฐ์ดํฐ๋ก๋ถํฐ ํ์ต ๊ฐ๋ฅํ ๊ฒ์ ๋ํด ์๋ก ๋ค๋ฅธ ํจํด์ ๋๋ฌ๋ผ ์ ์๋ค.NLP์์ ์ธ์ดํ์์ ์ญํ : Sattorova et al.์ด ์ง์ ํ๋ฏ, ์ด ๋ถ์ผ๋ ์ ์ ๋ ๊ณตํ ์ค์ฌ์ผ๋ก ๋ณํํ๊ณ ์๋ค. ์ด๊ฒ์ด ๊ณผํ์ ์์ด ๋ฌธ์ ์ธ๊ฐ, ์๋๋ฉด ์์ฐ์ค๋ฌ์ด ์งํ์ธ๊ฐ?์ค์ผ์ผ๋ง๊ณผ ์ฐฝ๋ฐ: ์ผ๋ถ ์ธ์ด์ ๋ฅ๋ ฅ์ ํน์ ๋ชจ๋ธ ๊ท๋ชจ์์ "์ฐฝ๋ฐ"ํ๋ ๊ฒ์ผ๋ก ๋ณด์ธ๋ค. ํน์ ๋ฅ๋ ฅ์ด ์ค์ผ์ผ ์๊ณ๊ฐ์ ๊ฐ๋ ์ด์ ๋ฅผ ์ดํดํ๋ฉด ๊ทธ๋ฌํ ๋ฅ๋ ฅ์ ์ด๋ ต๊ฒ ๋ง๋๋ ์์ธ์ ๋ฐํ ์ ์๋ค.์ฐ๊ตฌ์ ์ฃผ๋ ์์ฌ์
๊ณ์ฐ ์ธ์ดํ์์๊ฒ ์์ด LLM์ ์ธ์ด ์ด๋ก ์ ๊ฒ์ฆํ๋ ๋๊ตฌ์ด์ง, ์ด๋ก ์ ๋์ฒด๋ฌผ์ด ์๋๋ค. PoS ๋
ผ์์์ ๋์จ ์๊ฐ๋ฆฐ ๊ฒฐ๊ณผ๋ค์ LLM์ด ์ด๋ก ์ ์
์ฅ๋ค ์ฌ์ด๋ฅผ ์์ฐ์ ์ธ ๋ฐฉ์์ผ๋ก ์ค์ฌํ ์ ์์์ ๋ณด์ฌ์ค๋ค.
NLP ์์ง๋์ด์๊ฒ ์์ด ์ฌ๋ฆฌ์ธ์ดํ์ ์ ๊ทผ๋ฒ์ ํ์ค ๋ฒค์น๋งํฌ๋ฅผ ๋์ด์๋ ์์น์ ์
๊ฐํ ํ๊ฐ ๋ฐฉ๋ฒ์ ์ ๊ณตํ๋ค. ์์คํ
์ด ์๋ฏธ๋ก ์ ์ด์ ํ์ง์์ ์คํจํ๋ค๋ฉด, ์ด๋ ํด๊ฒฐํ ๊ฐ์น๊ฐ ์๋ ํน์ ์ํคํ
์ฒ์ ํ๊ณ๋ฅผ ๊ฐ๋ฆฌํจ๋ค.
ORAA ResearchBrain์ ํตํด ๊ด๋ จ ์ฐ๊ตฌ๋ฅผ ํ์ํ ์ ์๋ค.
References (4)
[1] Duan, X., Zhou, X., & Xiao, B. (2024). Unveiling Language Competence Neurons: A Psycholinguistic Approach to Model Interpretability. arXiv:2409.15827.
[2] Conklin, H. & Smith, K. (2024). Representations as Language: An Information-Theoretic Framework for Interpretability. arXiv:2406.02449.
[3] Yang, X., Bisazza, A., & Schneider, N. (2026). A Unified Assessment of the Poverty of the Stimulus Argument for Neural Language Models. [Preprint].
[4] Sattorova, Z., Ulugbek, Y., & ugli, V. (2025). From Syntax to Semantics: AI-assisted Computational Linguistics in the Era of Large Computational Language Models. Proc. ICCIES 2025, IEEE.