Trend AnalysisLinguistics & NLP
Large Language Models and Linguistic Competence: Can Statistical Machines Truly Understand Language?
Do large language models possess genuine linguistic competence, or merely simulate it through statistical pattern matching? Recent benchmarks and probing studies are bringing new empirical precision to this debate.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
The question of whether large language models (LLMs) possess genuine linguistic competence or merely approximate it through distributional statistics has become one of the most active debates in both computational and theoretical linguistics. Chomsky's distinction between competence (tacit knowledge of linguistic rules) and performance (actual language use) provides the traditional framing, but LLMs challenge this dichotomy: they achieve remarkable performance without any obvious rule-based competence. Recent work is moving beyond philosophical arguments toward empirical measurement of what LLMs do and do not represent internally.
Why It Matters
The stakes extend beyond academic linguistics. If LLMs genuinely acquire linguistic knowledge, this would suggest that distributional learning from text alone is sufficient to recover the structure of human language, a conclusion with profound implications for theories of language acquisition and the nature of linguistic knowledge. If they merely simulate competence through surface-level pattern matching, then their impressive performance masks fundamental limitations that will surface in safety-critical applications, education technology, and legal contexts where genuine understanding matters.
The practical dimension is equally pressing. As LLMs are deployed in translation, content generation, legal analysis, and medical communication, understanding whether they grasp linguistic structure or merely correlate with it determines how much we can trust their outputs in contexts that require genuine comprehension.
The Science
Benchmarking Linguistic Competence
Waldis et al. (2024) introduce Holmes, a benchmark specifically designed to assess LMs' linguistic competence through classifier-based probing of internal representations. Unlike standard NLP benchmarks that test task performance, Holmes examines whether models encode distinct linguistic phenomena in their internal states. The benchmark covers phenomena including part-of-speech, syntactic dependencies, semantic roles, and discourse relations. Their key finding is that different layers of language models encode different linguistic levels, with syntax tending to concentrate in middle layers and semantics in later layers. This layered encoding suggests that something more structured than flat pattern matching is occurring, but whether it constitutes competence in the Chomskyan sense remains debatable.
Interpreting Internal Mechanisms
Jing et al. (2025) take a complementary approach with LinguaLens, using sparse auto-encoders to interpret how LLMs internally process linguistic phenomena like reference disambiguation and metaphor recognition. Their method identifies interpretable features within the model's hidden states that correspond to specific linguistic operations. The results reveal that LLMs develop specialized internal circuits for different linguistic tasks. Metaphor processing, for instance, involves distinct feature combinations from literal language processing. This internal differentiation is noteworthy because it emerges without explicit linguistic training, suggesting that distributional learning does induce some form of structured linguistic representation.
Syntactic Processing: Strengths and Limits
Alhilal (2025) provides a focused examination of LLMs' handling of complex syntactic phenomena, including relative clauses, wh-movement, and center-embedding. The study reveals a characteristic pattern: LLMs handle common syntactic constructions with near-human accuracy but degrade significantly on deeply nested structures, garden-path sentences, and constructions that require long-distance dependency tracking. Center-embedded clauses beyond two levels of nesting produce systematic errors, a finding consistent with the hypothesis that LLMs rely on approximate heuristics rather than recursive syntactic rules.
Human-Machine Linguistic Profiling
Zanotto and Aroyehun (2025) approach the question from the output side, comparing the linguistic profiles of human-written and LLM-generated text across multiple dimensions. Their analysis reveals that while LLM outputs are increasingly indistinguishable from human text at the surface level, systematic differences persist in syntactic diversity, lexical richness patterns, and discourse-level coherence structures. LLM text tends toward more uniform syntactic structures and narrower vocabulary distributions, suggesting that statistical optimization may converge on a linguistic register that is fluent but less varied than human production.
Competence Assessment Framework
<
| Linguistic Level | LLM Performance | Evidence Quality | Interpretation |
|---|
| Morphology | Strong | Well-documented | Distributional patterns sufficient |
| Local syntax | Strong | Benchmark + probing | Likely pattern-based but effective |
| Long-distance dependencies | Moderate | Systematic degradation | Approximate heuristics, not rules |
| Semantic composition | Mixed | Task-dependent | Some aspects captured, others not |
| Pragmatic inference | Weak | Emerging benchmarks | Significant gaps remain |
| Discourse coherence | Moderate | Profiling studies | Surface fluency masks structural limits |
What To Watch
The field is converging on a nuanced position: LLMs acquire structured representations that go beyond simple n-gram statistics, but these representations are not equivalent to human linguistic competence. The next frontier involves causality. Current probing methods show what information is encoded; upcoming work using causal intervention techniques will reveal what information models actually use in processing. Additionally, the emergence of multilingual probing benchmarks like AraLingBench will test whether the competence patterns observed in English generalize across typologically diverse languages, or whether they reflect English-specific distributional properties.
Discover related work using ORAA ResearchBrain.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ ์๋ฌผ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ๊ณผ ๋์กฐํ์ฌ ๊ฒ์ฆํด์ผ ํ๋ค.
๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ๊ณผ ์ธ์ด ๋ฅ๋ ฅ: ํต๊ณ์ ๊ธฐ๊ณ๊ฐ ์ธ์ด๋ฅผ ์ง์ ์ผ๋ก ์ดํดํ ์ ์๋๊ฐ?
๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ(LLM)์ด ์ง์ ํ ์ธ์ด ๋ฅ๋ ฅ์ ๋ณด์ ํ๋์ง, ์๋๋ฉด ๋ถํฌ ํต๊ณ๋ฅผ ํตํด ์ด๋ฅผ ๋จ์ํ ๊ทผ์ฌํ๋์ง์ ๊ดํ ๋ฌธ์ ๋ ๊ณ์ฐ ์ธ์ดํ๊ณผ ์ด๋ก ์ธ์ดํ ๋ชจ๋์์ ๊ฐ์ฅ ํ๋ฐํ ๋
ผ์ ์ค ํ๋๊ฐ ๋์๋ค. ์ด์คํค(Chomsky)๊ฐ ์ ์ํ ์ธ์ด ๋ฅ๋ ฅ(competence, ์ธ์ด ๊ท์น์ ๋ํ ์๋ฌต์ ์ง์)๊ณผ ์ธ์ด ์ํ(performance, ์ค์ ์ธ์ด ์ฌ์ฉ)์ ๊ตฌ๋ถ์ ์ ํต์ ์ธ ๋
ผ์์ ํ์ ์ ๊ณตํ์ง๋ง, LLM์ ์ด ์ด๋ถ๋ฒ์ ๋์ ํ๋ค. LLM์ ๋ช
๋ฐฑํ ๊ท์น ๊ธฐ๋ฐ ๋ฅ๋ ฅ ์์ด๋ ๋๋ผ์ด ์ํ์ ๋ฌ์ฑํ๊ธฐ ๋๋ฌธ์ด๋ค. ์ต๊ทผ ์ฐ๊ตฌ๋ ์ฒ ํ์ ๋
ผ์์ ๋์ด, LLM์ด ๋ด๋ถ์ ์ผ๋ก ๋ฌด์์ ํ์ํ๊ณ ๋ฌด์์ ํ์ํ์ง ์๋์ง๋ฅผ ๊ฒฝํ์ ์ผ๋ก ์ธก์ ํ๋ ๋ฐฉํฅ์ผ๋ก ๋์๊ฐ๊ณ ์๋ค.
์ ์ค์ํ๊ฐ
์ด ๋ฌธ์ ์ ์ค์์ฑ์ ํ๋ฌธ์ ์ธ์ดํ์ ๋ฒ์๋ฅผ ๋์ด์ ๋ค. LLM์ด ์ง์ ์ผ๋ก ์ธ์ด ์ง์์ ์ต๋ํ๋ค๋ฉด, ์ด๋ ํ
์คํธ๋ง์ ์ด์ฉํ ๋ถํฌ ํ์ต๋ง์ผ๋ก๋ ์ธ๊ฐ ์ธ์ด์ ๊ตฌ์กฐ๋ฅผ ๋ณต์ํ๊ธฐ์ ์ถฉ๋ถํ๋ค๋ ๊ฒ์ ์์ฌํ๋ฉฐ, ์ด๋ ์ธ์ด ์ต๋ ์ด๋ก ๊ณผ ์ธ์ด ์ง์์ ๋ณธ์ง์ ๋ํด ์ฌ๋ํ ํจ์๋ฅผ ๊ฐ์ง๋ค. ๋ฐ๋๋ก LLM์ด ํ๋ฉด์ ์ธ ํจํด ๋งค์นญ์ ํตํด ๋ฅ๋ ฅ์ ๋ชจ๋ฐฉํ ๋ฟ์ด๋ผ๋ฉด, ์ธ์์ ์ธ ์ํ ์ด๋ฉด์๋ ๊ทผ๋ณธ์ ์ธ ํ๊ณ๊ฐ ์จ์ด ์์ผ๋ฉฐ, ์ด๋ ์ง์ ํ ์ดํด๊ฐ ์๊ตฌ๋๋ ์์ ์ค์ฌ ์์ฉ, ๊ต์ก ๊ธฐ์ , ๋ฒ์ ๋งฅ๋ฝ์์ ๋๋ฌ๋ ๊ฒ์ด๋ค.
์ค์ฉ์ ์ฐจ์์์์ ์๊ตฌ ๋ํ ์๊ธํ๋ค. LLM์ด ๋ฒ์ญ, ์ฝํ
์ธ ์์ฑ, ๋ฒ๋ฅ ๋ถ์, ์๋ฃ ์ปค๋ฎค๋์ผ์ด์
์ ํ์ฉ๋๊ณ ์๋ ์ํฉ์์, LLM์ด ์ธ์ด ๊ตฌ์กฐ๋ฅผ ์ดํดํ๋์ง ์๋๋ฉด ๋จ์ํ ์ด์ ์๊ด๊ด๊ณ๋ฅผ ๋งบ๋์ง๋ฅผ ํ์
ํ๋ ๊ฒ์ ์ง์ ํ ์ดํด๋ฅผ ์ํ๋ ๋งฅ๋ฝ์์ ๊ทธ ์ถ๋ ฅ ๊ฒฐ๊ณผ๋ฅผ ์ผ๋ง๋ ์ ๋ขฐํ ์ ์๋์ง๋ฅผ ๊ฒฐ์ ํ๋ค.
์ฐ๊ตฌ ๋ด์ฉ
์ธ์ด ๋ฅ๋ ฅ ๋ฒค์น๋งํน
Waldis et al. (2024)์ ๋ถ๋ฅ๊ธฐ ๊ธฐ๋ฐ ํ๋ก๋น(classifier-based probing)์ ํตํด ์ธ์ด ๋ชจ๋ธ ๋ด๋ถ ํ์์ ํ๊ฐํ๋๋ก ์ค๊ณ๋ ๋ฒค์น๋งํฌ Holmes๋ฅผ ์๊ฐํ๋ค. ๊ณผ์ ์ํ์ ๊ฒ์ฌํ๋ ํ์ค NLP ๋ฒค์น๋งํฌ์ ๋ฌ๋ฆฌ, Holmes๋ ๋ชจ๋ธ์ด ๋ด๋ถ ์ํ์ ๋ณ๊ฐ์ ์ธ์ด ํ์์ ์ธ์ฝ๋ฉํ๋์ง๋ฅผ ๊ฒํ ํ๋ค. ์ด ๋ฒค์น๋งํฌ๋ ํ์ฌ(part-of-speech), ํต์ฌ ์์กด์ฑ(syntactic dependencies), ์๋ฏธ์ญ(semantic roles), ๋ดํ ๊ด๊ณ(discourse relations) ๋ฑ์ ํ์์ ๋ค๋ฃฌ๋ค. ํต์ฌ ๋ฐ๊ฒฌ์ ์ธ์ด ๋ชจ๋ธ์ ์๋ก ๋ค๋ฅธ ์ธต์ด ์๋ก ๋ค๋ฅธ ์ธ์ด ์์ค์ ์ธ์ฝ๋ฉํ๋ค๋ ๊ฒ์ผ๋ก, ํต์ฌ ์ ๋ณด๋ ์ค๊ฐ ์ธต์, ์๋ฏธ ์ ๋ณด๋ ํ์ ์ธต์ ์ง์ค๋๋ ๊ฒฝํฅ์ด ์๋ค. ์ด๋ฌํ ์ธต๋ณ ์ธ์ฝ๋ฉ์ ๋จ์ํ ํ๋ฉด์ ํจํด ๋งค์นญ๋ณด๋ค ๋ ๊ตฌ์กฐํ๋ ๋ฌด์ธ๊ฐ๊ฐ ์ผ์ด๋๊ณ ์์์ ์์ฌํ์ง๋ง, ์ด๊ฒ์ด ์ด์คํค์ ์๋ฏธ์ ์ธ์ด ๋ฅ๋ ฅ์ ๊ตฌ์ฑํ๋์ง ์ฌ๋ถ๋ ์ฌ์ ํ ๋
ผ์์ ์ฌ์ง๊ฐ ์๋ค.
๋ด๋ถ ๋ฉ์ปค๋์ฆ์ ํด์
Jing et al. (2025)์ LinguaLens๋ฅผ ํตํด ๋ณด์์ ์ธ ์ ๊ทผ ๋ฐฉ์์ ์ทจํ๋ฉฐ, ํฌ์ ์๋ ์ธ์ฝ๋(sparse auto-encoders)๋ฅผ ์ฌ์ฉํ์ฌ LLM์ด ์ง์ ํด์(reference disambiguation)๋ ์์ ์ธ์(metaphor recognition)๊ณผ ๊ฐ์ ์ธ์ด ํ์์ ๋ด๋ถ์ ์ผ๋ก ์ฒ๋ฆฌํ๋ ๋ฐฉ์์ ํด์ํ๋ค. ์ด ๋ฐฉ๋ฒ์ ํน์ ์ธ์ด ์ฐ์ฐ์ ๋์ํ๋ ํด์ ๊ฐ๋ฅํ ํน์ง์ ๋ชจ๋ธ์ ์๋ ์ํ(hidden states) ๋ด์์ ์๋ณํ๋ค. ์ฐ๊ตฌ ๊ฒฐ๊ณผ์ ๋ฐ๋ฅด๋ฉด LLM์ ์๋ก ๋ค๋ฅธ ์ธ์ด ๊ณผ์ ์ ๋ํด ํนํ๋ ๋ด๋ถ ํ๋ก(circuits)๋ฅผ ๋ฐ์ ์ํจ๋ค. ์๋ฅผ ๋ค์ด, ์์ ์ฒ๋ฆฌ๋ ๋ฌธ์์ ์ธ์ด ์ฒ๋ฆฌ์ ๊ตฌ๋ณ๋๋ ํน์ง ์กฐํฉ์ ์๋ฐํ๋ค. ์ด๋ฌํ ๋ด๋ถ์ ๋ถํ๋ ๋ช
์์ ์ธ ์ธ์ด ํ๋ จ ์์ด ์ถํํ๋ค๋ ์ ์์ ์ฃผ๋ชฉํ ๋งํ๋ฉฐ, ๋ถํฌ ํ์ต์ด ์ด๋ค ํํ์ ๊ตฌ์กฐํ๋ ์ธ์ด ํ์์ ์ค์ ๋ก ์ ๋ํจ์ ์์ฌํ๋ค.
ํต์ฌ ์ฒ๋ฆฌ: ๊ฐ์ ๊ณผ ํ๊ณ
Alhilal (2025)์ ๊ด๊ณ์ , wh-์ด๋, ์ค์ฌ ๋ดํฌ(center-embedding)๋ฅผ ํฌํจํ ๋ณต์กํ ํต์ฌ ํ์์ ๋ํ LLM์ ์ฒ๋ฆฌ ๋ฐฉ์์ ์ง์ค์ ์ผ๋ก ๊ฒํ ํ๋ค. ์ด ์ฐ๊ตฌ๋ ํน์ง์ ์ธ ํจํด์ ๋ฐํ๋ธ๋ค. LLM์ ์ผ๋ฐ์ ์ธ ํต์ฌ ๊ตฌ๋ฌธ์ ์ธ๊ฐ์ ์คํ๋ ์ ํ๋๋ก ์ฒ๋ฆฌํ์ง๋ง, ๊น์ด ์ค์ฒฉ๋ ๊ตฌ์กฐ, ์ ์ ๊ฒฝ๋ก ๋ฌธ์ฅ(garden-path sentence), ์ฅ๊ฑฐ๋ฆฌ ์์กด ๊ด๊ณ ์ถ์ ์ด ์๊ตฌ๋๋ ๊ตฌ๋ฌธ์์๋ ์ฑ๋ฅ์ด ํ์ ํ ์ ํ๋๋ค. ๋ ๋จ๊ณ ์ด์์ ์ค์ฒฉ์ ํฌํจํ๋ ์ค์ฌ ๋ดํฌ์ ์ ์ฒด๊ณ์ ์ธ ์ค๋ฅ๋ฅผ ์ ๋ฐํ๋ฉฐ, ์ด๋ LLM์ด ์ฌ๊ท์ ํต์ฌ ๊ท์น์ด ์๋ ๊ทผ์ฌ ํด๋ฆฌ์คํฑ(approximate heuristics)์ ์์กดํ๋ค๋ ๊ฐ์ค๊ณผ ์ผ์นํ๋ ๊ฒฐ๊ณผ์ด๋ค.
์ธ๊ฐ-๊ธฐ๊ณ ์ธ์ด ํ๋กํ์ผ๋ง
Zanotto์ Aroyehun (2025)์ ์ถ๋ ฅ ์ธก๋ฉด์์ ์ด ๋ฌธ์ ์ ์ ๊ทผํ์ฌ, ์ธ๊ฐ์ด ์์ฑํ ํ
์คํธ์ LLM์ด ์์ฑํ ํ
์คํธ์ ์ธ์ด์ ํ๋กํ์ผ์ ๋ค์ํ ์ฐจ์์์ ๋น๊ตํ๋ค. ์ด๋ค์ ๋ถ์์ ๋ฐ๋ฅด๋ฉด, LLM์ ์ถ๋ ฅ์ ํ๋ฉด์ ์์ค์์ ์ธ๊ฐ ํ
์คํธ์ ์ ์ ๊ตฌ๋ณํ๊ธฐ ์ด๋ ค์์ง๊ณ ์์์๋ ๋ถ๊ตฌํ๊ณ , ํต์ฌ์ ๋ค์์ฑ, ์ดํ ํ๋ถ์ฑ ํจํด, ๋ดํ ์์ค์ ์์ง ๊ตฌ์กฐ์์๋ ์ฒด๊ณ์ ์ธ ์ฐจ์ด๊ฐ ์ง์์ ์ผ๋ก ๋ํ๋๋ค. LLM ํ
์คํธ๋ ๋ณด๋ค ๊ท ์ผํ ํต์ฌ ๊ตฌ์กฐ์ ์ข์ ์ดํ ๋ถํฌ๋ฅผ ๋ณด์ด๋ ๊ฒฝํฅ์ด ์์ผ๋ฉฐ, ์ด๋ ํต๊ณ์ ์ต์ ํ๊ฐ ์ ์ฐฝํ์ง๋ง ์ธ๊ฐ์ ์ธ์ด ์ฐ์ถ๋ณด๋ค ๋ค์์ฑ์ด ๋ฎ์ ์ธ์ด ๋ ์ง์คํฐ๋ก ์๋ ดํ ์ ์์์ ์์ฌํ๋ค.
์ธ์ด ๋ฅ๋ ฅ ํ๊ฐ ํ๋ ์์ํฌ
<
| ์ธ์ด ์์ค | LLM ์ฑ๋ฅ | ์ฆ๊ฑฐ ํ์ง | ํด์ |
|---|
| ํํ๋ก | ๊ฐํจ | ์ถฉ๋ถํ ๋ฌธ์ํ๋จ | ๋ถํฌ์ ํจํด์ผ๋ก ์ถฉ๋ถ |
| ๊ตญ์ ํต์ฌ | ๊ฐํจ | ๋ฒค์น๋งํฌ + ํ๋ก๋น | ํจํด ๊ธฐ๋ฐ์ด์ง๋ง ํจ๊ณผ์ ์ผ ๊ฐ๋ฅ์ฑ |
| ์ฅ๊ฑฐ๋ฆฌ ์์กด ๊ด๊ณ | ๋ณดํต | ์ฒด๊ณ์ ์ฑ๋ฅ ์ ํ | ๊ท์น์ด ์๋ ๊ทผ์ฌ ํด๋ฆฌ์คํฑ |
| ์๋ฏธ ํฉ์ฑ | ํผ์ฌ | ๊ณผ์ ์์กด์ | ์ผ๋ถ ์ธก๋ฉด์ ํฌ์ฐฉ, ๋๋จธ์ง๋ ๋ฏธํก |
| ํ์ฉ์ ์ถ๋ก | ์ฝํจ | ์ ํฅ ๋ฒค์น๋งํฌ | ์๋นํ ๊ฒฉ์ฐจ ์์กด |
| ๋ดํ ์์ง | ๋ณดํต | ํ๋กํ์ผ๋ง ์ฐ๊ตฌ | ํ๋ฉด์ ์ ์ฐฝ์ฑ์ด ๊ตฌ์กฐ์ ํ๊ณ๋ฅผ ์ํ |
์ฃผ๋ชฉํด์ผ ํ ๋ํฅ
์ด ๋ถ์ผ๋ ๋ค์๊ณผ ๊ฐ์ ๋ฏธ๋ฌํ ์
์ฅ์ผ๋ก ์๋ ดํ๊ณ ์๋ค. LLM์ ๋จ์ํ n-gram ํต๊ณ๋ฅผ ๋์ด์๋ ๊ตฌ์กฐํ๋ ํ์์ ํ๋ํ์ง๋ง, ์ด๋ฌํ ํ์์ ์ธ๊ฐ์ ์ธ์ด ๋ฅ๋ ฅ๊ณผ ๋๋ฑํ์ง ์๋ค. ๋ค์ ๊ฐ์ฒ ๊ณผ์ ๋ ์ธ๊ณผ์ฑ์ ์๋ค. ํ์ฌ์ ํ๋ก๋น ๋ฐฉ๋ฒ์ ์ด๋ค ์ ๋ณด๊ฐ ์ธ์ฝ๋ฉ๋์ด ์๋์ง๋ฅผ ๋ณด์ฌ์ฃผ๋ ๋ฐ ๊ทธ์น์ง๋ง, ์ธ๊ณผ์ ๊ฐ์
๊ธฐ๋ฒ(causal intervention techniques)์ ํ์ฉํ ํ์ ์ฐ๊ตฌ๋ ๋ชจ๋ธ์ด ์ฒ๋ฆฌ ๊ณผ์ ์์ ์ค์ ๋ก ํ์ฉํ๋ ์ ๋ณด๊ฐ ๋ฌด์์ธ์ง๋ฅผ ๋ฐํ๋ผ ๊ฒ์ด๋ค. ๋ํ AraLingBench์ ๊ฐ์ ๋ค๊ตญ์ด ํ๋ก๋น ๋ฒค์น๋งํฌ์ ๋ฑ์ฅ์ ์์ด์์ ๊ด์ฐฐ๋ ๋ฅ๋ ฅ ํจํด์ด ์ ํ๋ก ์ ์ผ๋ก ๋ค์ํ ์ธ์ด๋ค์ ๊ฑธ์ณ ์ผ๋ฐํ๋๋์ง, ์๋๋ฉด ์์ด ๊ณ ์ ์ ๋ถํฌ์ ํน์ฑ์ ๋ฐ์ํ๋์ง๋ฅผ ๊ฒ์ฆํ ๊ฒ์ด๋ค.
ORAA ResearchBrain์ ํตํด ๊ด๋ จ ์ฐ๊ตฌ๋ฅผ ํ์ํ๋ผ.
References (4)
[1] Waldis, A., Perlitz, Y., & Choshen, L. (2024). Holmes: A Benchmark to Assess the Linguistic Competence of Language Models. Transactions of the ACL, 12.
[2] Jing, Y., Yao, Z., & Ran, L. (2025). LinguaLens: Towards Interpreting Linguistic Mechanisms of Large Language Models via Sparse Auto-Encoder. Proc. EMNLP 2025.
[3] Alhilal, M. (2025). Understanding Syntax in Large Language Models: Successes and Limitations. IJESA, 4(1).
[4] Zanotto, S.E. & Aroyehun, S. (2025). Linguistic and Embedding-Based Profiling of Texts generated by Humans and Large Language Models.