Paper ReviewMathematics & StatisticsCausal Inference
Can LLMs Discover Causes? When Language Models Meet Observational Causal Inference
Traditional causal discovery requires large datasets and strong statistical assumptions. LLMs bring a new ingredient: domain knowledge encoded in pre-training. Susanti & Fรคrber test whether LLMs can use observational data for causal discovery, while REX integrates explainable AI with causal structure learning.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
Causal discoveryโinferring cause-and-effect relationships from dataโhas traditionally been the domain of specialized statistical algorithms: PC, GES, LiNGAM, and their many variants. These methods work directly on observational data, using conditional independence tests or structural equation models to infer causal graphs. They are mathematically principled but make strong assumptions (faithfulness, causal sufficiency, specific distributional forms) and require substantial data to achieve reliable results.
Large language models introduce something these statistical methods lack: domain knowledge. An LLM trained on scientific literature has absorbed extensive knowledge about causal relationships in specific domainsโit "knows" that smoking causes cancer, that interest rates affect inflation, that gene mutations drive drug resistance. Can this knowledge be combined with observational data to improve causal discovery beyond what either statistical methods or LLM knowledge alone can achieve?
Susanti & Fรคrber investigate this question directly, testing whether LLMs can leverage observational data for causal discovery. REX (Renero et al.) approaches from the complementary direction, using explainable AI techniques to enhance traditional causal discoveryโcreating a bridge between the interpretability of LLM reasoning and the rigor of statistical causal inference.
LLMs as Causal Reasoners
Susanti & Fรคrber design a systematic evaluation of LLMs' causal discovery capability under three conditions:
Knowledge-only: The LLM is given variable names and asked to infer causal relationships based purely on its pre-trained knowledge. No data is provided. This tests the LLM's domain knowledge.
Data-only: The LLM is given observational data (correlation matrices, summary statistics, or raw data samples) without meaningful variable names. This tests the LLM's ability to perform statistical causal inference from data.
Knowledge + Data: The LLM receives both meaningful variable names and observational data. This tests the synergy between domain knowledge and statistical evidence.
The findings reveal a consistent pattern:
- LLMs perform surprisingly well in the knowledge-only condition for well-studied domainsโaccurately identifying causal relationships that appear frequently in scientific literature
- LLMs perform poorly in the data-only conditionโthey are not effective statistical causal inference engines
- The knowledge + data condition shows modest improvement over knowledge-onlyโsuggesting that LLMs struggle to effectively integrate statistical evidence with domain knowledge
This finding is both encouraging (LLMs encode useful causal knowledge) and sobering (they cannot replace statistical causal methods for data-driven inference). The practical implication: LLMs are useful for generating
prior knowledge about causal structures, which can then be integrated with statistical methods as informative priors or structural constraints.
REX: Explainability Meets Causality
Renero et al.'s REX takes a different approach. Rather than asking LLMs to perform causal discovery, REX uses explainable AI (XAI) techniquesโSHAP values, feature importance, partial dependenceโto extract causal information from trained machine learning models.
The insight: a well-trained predictive model implicitly captures causal information in its learned structure. If a model accurately predicts Y from Xโ, Xโ, ..., Xโ, the model's feature importances and interaction patterns reflect (approximately) the causal influences of each Xแตข on Y. XAI techniques make these implicit causal patterns explicitโextractable as a causal graph.
REX integrates multiple XAI methods to produce robust causal estimates:
- SHAP values identify which features influence predictions (candidate causes)
- Partial dependence plots reveal the direction of influence (positive/negative)
- Feature interaction effects identify causal mediation and moderation
The combination of multiple XAI signals, aggregated through a consensus mechanism, produces causal graphs that are more robust than any single XAI method alone.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| LLMs encode useful causal domain knowledge | Susanti & Fรคrber: good performance on knowledge-only condition | โ
Supported |
| LLMs can perform statistical causal inference from data | Poor performance on data-only condition | โ Not supported |
| XAI techniques extract causal information from ML models | REX demonstrates on standard causal benchmarks | โ
Supported |
| LLM + data integration improves over LLM knowledge alone | Modest improvement documented | โ ๏ธ Limited improvement |
| These methods match dedicated causal discovery algorithms | Performance gaps remain on challenging benchmarks | โ ๏ธ Complementary, not replacement |
Open Questions
Domain specificity: LLMs' causal knowledge reflects their training data. For novel or under-studied causal relationships (new drug interactions, emerging economic mechanisms), LLM knowledge may be absent or incorrect. How do we identify the boundaries of LLM causal knowledge?Hallucinated causation: LLMs may assert causal relationships that are plausible but incorrectโconfusing correlation patterns in their training data with genuine causation. How do we distinguish genuine causal knowledge from hallucinated causation?Integration framework: What is the optimal way to combine LLM causal priors with statistical causal methods? Bayesian frameworks that use LLM outputs as informative priors are promising but require careful calibration of prior strength.Causal XAI validity: Under what conditions do XAI-derived causal estimates match true causal effects? The relationship between predictive feature importance and causal influence is complex and not always positive.What This Means for Your Research
For causal inference researchers, LLMs and XAI provide complementary information sources for causal discovery. LLMs contribute domain knowledge; XAI contributes data-driven pattern extraction. Neither replaces dedicated causal methods, but both can augment themโparticularly in the common scenario where domain knowledge is available but incomplete.
For ML practitioners who use predictive models, REX demonstrates that your trained models contain causal information that can be extracted. This is valuable even when the primary goal was prediction: understanding why the model makes its predictions is both scientifically informative and practically useful for model debugging.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํน์ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ํ์ ์์
์์ ์ธ์ฉํ๊ธฐ ์ ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๋ฐ๋์ ๊ฒ์ฆํด์ผ ํ๋ค.
LLM์ ์์ธ์ ๋ฐ๊ฒฌํ ์ ์๋๊ฐ? ์ธ์ด ๋ชจ๋ธ๊ณผ ๊ด์ธก์ ์ธ๊ณผ ์ถ๋ก ์ ๋ง๋จ
์ธ๊ณผ ๋ฐ๊ฒฌ(causal discovery)โ๋ฐ์ดํฐ๋ก๋ถํฐ ์ธ๊ณผ๊ด๊ณ๋ฅผ ์ถ๋ก ํ๋ ๊ฒโ์ ์ ํต์ ์ผ๋ก PC, GES, LiNGAM ๋ฐ ๊ทธ ๋ค์ํ ๋ณํ๋ค๊ณผ ๊ฐ์ ํน์ ํต๊ณ ์๊ณ ๋ฆฌ์ฆ์ ์์ญ์ด์๋ค. ์ด๋ฌํ ๋ฐฉ๋ฒ๋ค์ ๊ด์ธก ๋ฐ์ดํฐ์ ์ง์ ์๋ํ๋ฉฐ, ์กฐ๊ฑด๋ถ ๋
๋ฆฝ์ฑ ๊ฒ์ ์ด๋ ๊ตฌ์กฐ ๋ฐฉ์ ์ ๋ชจ๋ธ(structural equation model)์ ์ฌ์ฉํ์ฌ ์ธ๊ณผ ๊ทธ๋ํ๋ฅผ ์ถ๋ก ํ๋ค. ์ด ๋ฐฉ๋ฒ๋ค์ ์ํ์ ์ผ๋ก ์ ๊ตํ์ง๋ง ๊ฐํ ๊ฐ์ (์ถฉ์ค์ฑ(faithfulness), ์ธ๊ณผ ์ถฉ๋ถ์ฑ(causal sufficiency), ํน์ ๋ถํฌ ํํ)์ ์ ์ ๋ก ํ๋ฉฐ, ์ ๋ขฐํ ์ ์๋ ๊ฒฐ๊ณผ๋ฅผ ์ป๊ธฐ ์ํด ์๋นํ ์์ ๋ฐ์ดํฐ๋ฅผ ํ์๋ก ํ๋ค.
๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ(Large Language Model, LLM)์ ์ด๋ฌํ ํต๊ณ์ ๋ฐฉ๋ฒ๋ค์ด ๊ฐ์ถ์ง ๋ชปํ ๊ฒ์ ๋์
ํ๋ค: ๋ฐ๋ก ๋๋ฉ์ธ ์ง์์ด๋ค. ๊ณผํ ๋ฌธํ์ผ๋ก ํ์ต๋ LLM์ ํน์ ๋๋ฉ์ธ์ ์ธ๊ณผ๊ด๊ณ์ ๊ดํ ๊ด๋ฒ์ํ ์ง์์ ์ต๋ํ๋คโํก์ฐ์ด ์์ ์ ๋ฐํ๋ค๋ ๊ฒ, ๊ธ๋ฆฌ๊ฐ ์ธํ๋ ์ด์
์ ์ํฅ์ ๋ฏธ์น๋ค๋ ๊ฒ, ์ ์ ์ ๋์ฐ๋ณ์ด๊ฐ ์ฝ๋ฌผ ๋ด์ฑ์ ์ ๋ํ๋ค๋ ๊ฒ์ "์๊ณ " ์๋ค. ์ด๋ฌํ ์ง์์ ๊ด์ธก ๋ฐ์ดํฐ์ ๊ฒฐํฉํ๋ฉด, ํต๊ณ์ ๋ฐฉ๋ฒ์ด๋ LLM ์ง์ ๋จ๋
์ผ๋ก ๋ฌ์ฑํ ์ ์๋ ๊ฒ์ ๋์ด์๋ ์ธ๊ณผ ๋ฐ๊ฒฌ์ด ๊ฐ๋ฅํ ๊น?
Susanti & Fรคrber๋ LLM์ด ์ธ๊ณผ ๋ฐ๊ฒฌ์ ์ํด ๊ด์ธก ๋ฐ์ดํฐ๋ฅผ ํ์ฉํ ์ ์๋์ง๋ฅผ ์ง์ ๊ฒํ ํจ์ผ๋ก์จ ์ด ๋ฌธ์ ๋ฅผ ํ๊ตฌํ๋ค. REX(Renero et al.)๋ ๋ณด์์ ์ธ ๋ฐฉํฅ์์ ์ ๊ทผํ์ฌ, ์ค๋ช
๊ฐ๋ฅํ AI(explainable AI, XAI) ๊ธฐ๋ฒ์ ์ฌ์ฉํด ์ ํต์ ์ธ ์ธ๊ณผ ๋ฐ๊ฒฌ์ ๊ฐํํ๋คโ์ด๋ฅผ ํตํด LLM ์ถ๋ก ์ ํด์ ๊ฐ๋ฅ์ฑ๊ณผ ํต๊ณ์ ์ธ๊ณผ ์ถ๋ก ์ ์๋ฐ์ฑ ์ฌ์ด์ ๋ค๋ฆฌ๋ฅผ ๋๋๋ค.
์ธ๊ณผ ์ถ๋ก ์๋ก์์ LLM
Susanti & Fรคrber๋ ์ธ ๊ฐ์ง ์กฐ๊ฑด ํ์์ LLM์ ์ธ๊ณผ ๋ฐ๊ฒฌ ๋ฅ๋ ฅ์ ์ฒด๊ณ์ ์ผ๋ก ํ๊ฐํ๋ ์คํ์ ์ค๊ณํ๋ค:
์ง์๋ง ์ฌ์ฉ(Knowledge-only): LLM์ ๋ณ์ ์ด๋ฆ์ ์ ๊ณตํ๊ณ , ์ฌ์ ํ์ต๋ ์ง์๋ง์ ๋ฐํ์ผ๋ก ์ธ๊ณผ๊ด๊ณ๋ฅผ ์ถ๋ก ํ๋๋ก ์์ฒญํ๋ค. ๋ฐ์ดํฐ๋ ์ ๊ณต๋์ง ์๋๋ค. ์ด๋ LLM์ ๋๋ฉ์ธ ์ง์์ ๊ฒ์ฆํ๋ค.
๋ฐ์ดํฐ๋ง ์ฌ์ฉ(Data-only): LLM์ ์๋ฏธ ์๋ ๋ณ์ ์ด๋ฆ ์์ด ๊ด์ธก ๋ฐ์ดํฐ(์๊ด ํ๋ ฌ, ์์ฝ ํต๊ณ, ๋๋ ์์ ๋ฐ์ดํฐ ์ํ)๋ฅผ ์ ๊ณตํ๋ค. ์ด๋ LLM์ด ๋ฐ์ดํฐ๋ก๋ถํฐ ํต๊ณ์ ์ธ๊ณผ ์ถ๋ก ์ ์ํํ๋ ๋ฅ๋ ฅ์ ๊ฒ์ฆํ๋ค.
์ง์ + ๋ฐ์ดํฐ(Knowledge + Data): LLM์ ์๋ฏธ ์๋ ๋ณ์ ์ด๋ฆ๊ณผ ๊ด์ธก ๋ฐ์ดํฐ๋ฅผ ๋ชจ๋ ์ ๊ณตํ๋ค. ์ด๋ ๋๋ฉ์ธ ์ง์๊ณผ ํต๊ณ์ ์ฆ๊ฑฐ ์ฌ์ด์ ์๋์ง๋ฅผ ๊ฒ์ฆํ๋ค.
์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ ์ผ๊ด๋ ํจํด์ ๋๋ฌ๋ธ๋ค:
- LLM์ ์ง์๋ง ์ฌ์ฉ ์กฐ๊ฑด์์ ์ ์ฐ๊ตฌ๋ ๋๋ฉ์ธ์ ๋ํด ๋๋ผ์ธ ์ ๋๋ก ์ฐ์ํ ์ฑ๋ฅ์ ๋ณด์ธ๋คโ๊ณผํ ๋ฌธํ์ ์์ฃผ ๋ฑ์ฅํ๋ ์ธ๊ณผ๊ด๊ณ๋ฅผ ์ ํํ ์๋ณํ๋ค
- LLM์ ๋ฐ์ดํฐ๋ง ์ฌ์ฉ ์กฐ๊ฑด์์ ์ ์กฐํ ์ฑ๋ฅ์ ๋ณด์ธ๋คโLLM์ ํจ๊ณผ์ ์ธ ํต๊ณ์ ์ธ๊ณผ ์ถ๋ก ์์ง์ด ์๋๋ค
- ์ง์ + ๋ฐ์ดํฐ ์กฐ๊ฑด์ ์ง์๋ง ์ฌ์ฉ ์กฐ๊ฑด ๋๋น ์ํญ์ ๊ฐ์ ์ ๋ณด์ธ๋คโLLM์ด ํต๊ณ์ ์ฆ๊ฑฐ๋ฅผ ๋๋ฉ์ธ ์ง์๊ณผ ํจ๊ณผ์ ์ผ๋ก ํตํฉํ๋ ๋ฐ ์ด๋ ค์์ ๊ฒช๋๋ค๋ ๊ฒ์ ์์ฌํ๋ค
์ด ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ ๊ณ ๋ฌด์ ์ธ ๋์์(LLM์ด ์ ์ฉํ ์ธ๊ณผ ์ง์์ ์ธ์ฝ๋ฉํ๋ค) ๋์ ํ๊ธฐ๋ ํ๋ค(LLM์ ๋ฐ์ดํฐ ๊ธฐ๋ฐ ์ถ๋ก ์์ ํต๊ณ์ ์ธ๊ณผ ๋ฐฉ๋ฒ์ ๋์ฒดํ ์ ์๋ค). ์ค์ฉ์ ํจ์: LLM์ ์ธ๊ณผ ๊ตฌ์กฐ์ ๋ํ
์ฌ์ (prior) ์ง์์ ์์ฑํ๋ ๋ฐ ์ ์ฉํ๋ฉฐ, ์ด๋ ์ ๋ณด์ ์ฌ์ ํ๋ฅ (informative prior)์ด๋ ๊ตฌ์กฐ์ ์ ์ฝ(structural constraint)์ผ๋ก์ ํต๊ณ์ ๋ฐฉ๋ฒ์ ํตํฉ๋ ์ ์๋ค.
REX: ์ค๋ช
๊ฐ๋ฅ์ฑ๊ณผ ์ธ๊ณผ์ฑ์ ๋ง๋จ
Renero et al.์ REX๋ ๋ค๋ฅธ ์ ๊ทผ ๋ฐฉ์์ ์ทจํ๋ค. LLM์๊ฒ ์ธ๊ณผ ๋ฐ๊ฒฌ์ ์ํํ๋๋ก ์์ฒญํ๋ ๋์ , REX๋ ์ค๋ช
๊ฐ๋ฅํ AI(XAI) ๊ธฐ๋ฒโSHAP ๊ฐ, ํน์ง ์ค์๋(feature importance), ๋ถ๋ถ ์์กด๋(partial dependence)โ์ ์ฌ์ฉํ์ฌ ํ์ต๋ ๋จธ์ ๋ฌ๋ ๋ชจ๋ธ๋ก๋ถํฐ ์ธ๊ณผ ์ ๋ณด๋ฅผ ์ถ์ถํ๋ค.
ํต์ฌ ํต์ฐฐ: ์ ํ์ต๋ ์์ธก ๋ชจ๋ธ์ ๊ทธ ํ์ต๋ ๊ตฌ์กฐ ์์ ์ธ๊ณผ ์ ๋ณด๋ฅผ ์๋ฌต์ ์ผ๋ก ํฌ์ฐฉํ๋ค. ๋ชจ๋ธ์ด Xโ, Xโ, ..., Xโ๋ก๋ถํฐ Y๋ฅผ ์ ํํ๊ฒ ์์ธกํ๋ค๋ฉด, ๋ชจ๋ธ์ ํน์ง ์ค์๋์ ์ํธ์์ฉ ํจํด์ ๊ฐ Xแตข๊ฐ Y์ ๋ฏธ์น๋ ์ธ๊ณผ์ ์ํฅ์ (๊ทผ์ฌ์ ์ผ๋ก) ๋ฐ์ํ๋ค. XAI ๊ธฐ๋ฒ์ ์ด๋ฌํ ์๋ฌต์ ์ธ๊ณผ ํจํด์ ๋ช
์์ ์ผ๋ก ๋ง๋ ๋คโ์ธ๊ณผ ๊ทธ๋ํ๋ก ์ถ์ถ ๊ฐ๋ฅํ ํํ๋ก.
REX๋ ๊ฐ๊ฑดํ ์ธ๊ณผ ์ถ์ ์น๋ฅผ ์์ฑํ๊ธฐ ์ํด ์ฌ๋ฌ XAI ๋ฐฉ๋ฒ์ ํตํฉํ๋ค:
- SHAP ๊ฐ์ ์ด๋ค ํน์ฑ์ด ์์ธก์ ์ํฅ์ ๋ฏธ์น๋์ง ์๋ณํ๋ค (ํ๋ณด ์์ธ)
- ๋ถ๋ถ ์์กด์ฑ ํ๋กฏ(partial dependence plot)์ ์ํฅ์ ๋ฐฉํฅ์ ๋๋ฌ๋ธ๋ค (์/์)
- ํน์ฑ ์ํธ์์ฉ ํจ๊ณผ๋ ์ธ๊ณผ ๋งค๊ฐ(causal mediation)์ ์กฐ์ (moderation)์ ์๋ณํ๋ค
ํฉ์ ๋ฉ์ปค๋์ฆ์ ํตํด ์ง๊ณ๋ ๋ค์ค XAI ์ ํธ์ ์กฐํฉ์ ๋จ์ผ XAI ๋ฐฉ๋ฒ๋ง์ผ๋ก ์์ฑ๋ ๊ฒ๋ณด๋ค ๋ ๊ฐ๊ฑดํ ์ธ๊ณผ ๊ทธ๋ํ๋ฅผ ์์ฑํ๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
<
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| LLM์ ์ ์ฉํ ์ธ๊ณผ์ ๋๋ฉ์ธ ์ง์์ ์ธ์ฝ๋ฉํ๋ค | Susanti & Fรคrber: ์ง์๋ง ์กฐ๊ฑด์์ ์ฐ์ํ ์ฑ๋ฅ | โ
์ง์ง๋จ |
| LLM์ ๋ฐ์ดํฐ๋ก๋ถํฐ ํต๊ณ์ ์ธ๊ณผ ์ถ๋ก ์ ์ํํ ์ ์๋ค | ๋ฐ์ดํฐ๋ง ์กฐ๊ฑด์์ ๋ฎ์ ์ฑ๋ฅ | โ ์ง์ง๋์ง ์์ |
| XAI ๊ธฐ๋ฒ์ ML ๋ชจ๋ธ์์ ์ธ๊ณผ ์ ๋ณด๋ฅผ ์ถ์ถํ๋ค | REX๊ฐ ํ์ค ์ธ๊ณผ ๋ฒค์น๋งํฌ์์ ์
์ฆ | โ
์ง์ง๋จ |
| LLM + ๋ฐ์ดํฐ ํตํฉ์ด LLM ์ง์๋ง ์ฌ์ฉํ๋ ๊ฒ๋ณด๋ค ๊ฐ์ ๋๋ค | ์ํญ ๊ฐ์ ์ด ๋ฌธ์ํ๋จ | โ ๏ธ ์ ํ์ ๊ฐ์ |
| ์ด๋ฌํ ๋ฐฉ๋ฒ๋ค์ด ์ ์ฉ ์ธ๊ณผ ํ์ ์๊ณ ๋ฆฌ์ฆ์ ํ์ ํ๋ค | ๋์ ์ ์ธ ๋ฒค์น๋งํฌ์์ ์ฑ๋ฅ ๊ฒฉ์ฐจ๊ฐ ์กด์ฌ | โ ๏ธ ๋์ฒด์ฌ๊ฐ ์๋ ๋ณด์์ฌ |
๋ฏธํด๊ฒฐ ๊ณผ์
๋๋ฉ์ธ ํน์์ฑ: LLM์ ์ธ๊ณผ์ ์ง์์ ํ๋ จ ๋ฐ์ดํฐ๋ฅผ ๋ฐ์ํ๋ค. ์๋ก์ด ์ฝ๋ฌผ ์ํธ์์ฉ, ๋ถ์ํ๋ ๊ฒฝ์ ๋ฉ์ปค๋์ฆ ๋ฑ ์๋กญ๊ฑฐ๋ ์ฐ๊ตฌ๊ฐ ๋ถ์กฑํ ์ธ๊ณผ ๊ด๊ณ์ ๋ํด์๋ LLM์ ์ง์์ด ์๊ฑฐ๋ ๋ถ์ ํํ ์ ์๋ค. LLM ์ธ๊ณผ ์ง์์ ๊ฒฝ๊ณ๋ฅผ ์ด๋ป๊ฒ ์๋ณํ ๊ฒ์ธ๊ฐ?ํ๊ฐ๋ ์ธ๊ณผ๊ด๊ณ: LLM์ ๊ทธ๋ด๋ฏํ์ง๋ง ๋ถ์ ํํ ์ธ๊ณผ ๊ด๊ณ๋ฅผ ๋จ์ธํ ์ ์์ผ๋ฉฐ, ํ๋ จ ๋ฐ์ดํฐ์ ์๊ด ํจํด์ ์ง์ ํ ์ธ๊ณผ๊ด๊ณ์ ํผ๋ํ ์ ์๋ค. ์ง์ ํ ์ธ๊ณผ์ ์ง์๊ณผ ํ๊ฐ๋ ์ธ๊ณผ๊ด๊ณ๋ฅผ ์ด๋ป๊ฒ ๊ตฌ๋ณํ ๊ฒ์ธ๊ฐ?ํตํฉ ํ๋ ์์ํฌ: LLM์ ์ธ๊ณผ์ ์ฌ์ ์ ๋ณด(causal prior)๋ฅผ ํต๊ณ์ ์ธ๊ณผ ๋ฐฉ๋ฒ๊ณผ ๊ฒฐํฉํ๋ ์ต์ ์ ๋ฐฉ๋ฒ์ ๋ฌด์์ธ๊ฐ? LLM ์ถ๋ ฅ์ ์ ๋ณด์ ์ฌ์ ๋ถํฌ(informative prior)๋ก ํ์ฉํ๋ ๋ฒ ์ด์ง์ ํ๋ ์์ํฌ๋ ์ ๋งํ์ง๋ง ์ฌ์ ๋ถํฌ ๊ฐ๋์ ์ ์คํ ๋ณด์ ์ด ํ์ํ๋ค.์ธ๊ณผ์ XAI ํ๋น์ฑ: ์ด๋ค ์กฐ๊ฑด์์ XAI๋ก ๋์ถ๋ ์ธ๊ณผ ์ถ์ ์น๊ฐ ์ค์ ์ธ๊ณผ ํจ๊ณผ์ ์ผ์นํ๋๊ฐ? ์์ธก์ ํน์ฑ ์ค์๋์ ์ธ๊ณผ์ ์ํฅ ์ฌ์ด์ ๊ด๊ณ๋ ๋ณต์กํ๋ฉฐ ํญ์ ์์ ๊ด๊ณ์ ์์ง ์๋ค.์ฐ๊ตฌ์ ์ฃผ๋ ์์ฌ์
์ธ๊ณผ ์ถ๋ก ์ฐ๊ตฌ์๋ค์๊ฒ ์์ด LLM๊ณผ XAI๋ ์ธ๊ณผ ํ์์ ์ํ ์ํธ ๋ณด์์ ์ธ ์ ๋ณด ์ถ์ฒ๋ฅผ ์ ๊ณตํ๋ค. LLM์ ๋๋ฉ์ธ ์ง์์ ์ ๊ณตํ๊ณ , XAI๋ ๋ฐ์ดํฐ ๊ธฐ๋ฐ ํจํด ์ถ์ถ์ ์ ๊ณตํ๋ค. ์ด๋ ์ชฝ๋ ์ ์ฉ ์ธ๊ณผ ๋ฐฉ๋ฒ์ ๋์ฒดํ์ง๋ ์์ง๋ง, ํนํ ๋๋ฉ์ธ ์ง์์ด ์กด์ฌํ์ง๋ง ๋ถ์์ ํ ์ผ๋ฐ์ ์ธ ์๋๋ฆฌ์ค์์ ๋ ๋ฐฉ๋ฒ ๋ชจ๋ ์ด๋ฅผ ๋ณด๊ฐํ ์ ์๋ค.
์์ธก ๋ชจ๋ธ์ ์ฌ์ฉํ๋ ML ์ค๋ฌด์๋ค์๊ฒ REX๋ ํ๋ จ๋ ๋ชจ๋ธ์ ์ถ์ถ ๊ฐ๋ฅํ ์ธ๊ณผ ์ ๋ณด๊ฐ ๋ดํฌ๋์ด ์์์ ๋ณด์ฌ์ค๋ค. ์ด๋ ์ฃผ๋ ๋ชฉํ๊ฐ ์์ธก์ด์๋ ๊ฒฝ์ฐ์๋ ๊ฐ์น ์๋ค: ๋ชจ๋ธ์ด ์ ์์ธก์ ํ๋์ง ์ดํดํ๋ ๊ฒ์ ๊ณผํ์ ์ผ๋ก ์ ๋ณด๋ฅผ ์ ๊ณตํ๋ฉฐ ๋ชจ๋ธ ๋๋ฒ๊น
์๋ ์ค์ฉ์ ์ผ๋ก ์ ์ฉํ๋ค.
References (2)
[1] Susanti, Y. & Fรคrber, M. (2025). Can LLMs Leverage Observational Data? Towards Data-Driven Causal Discovery with LLMs. arXiv:2504.10936.
[2] Renero, J., Ochoa, I., Maestre, R. (2025). REX: Causal Discovery based on Machine Learning and Explainability techniques. Pattern Recognition.