Trend AnalysisLaw & Policy
Algorithmic Transparency and the Right to Explanation: Opening the Black Box by Law
The EU AI Act mandates transparency and explanation for high-risk AI systems. The GDPR's Article 22 provides rights around automated decision-making. But can complex neural networks actually be explained in legally meaningful terms? Three papers examine the tension between legal mandates and technical reality.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
When a bank's AI system denies a loan application, a criminal justice algorithm recommends a longer sentence, or a social media platform suppresses a post, the affected person has a straightforward question: why? The legal right to receive a meaningful answerโa "right to explanation"โhas become one of the most contested concepts in AI governance.
The EU's General Data Protection Regulation (GDPR), in force since 2018, contains provisions that some interpret as establishing such a right (Articles 13-15, 22). The EU AI Act, finalized in 2024, goes further by mandating transparency and explainability requirements for high-risk AI systems. But the gap between legal mandate and technical reality is vast: the most capable AI systems (deep neural networks, large language models) are precisely the ones least amenable to explanation in human-interpretable terms.
Three recent papers examine this tension from legal, technical, and practical perspectives.
Why It Matters
Algorithmic decision-making is expanding into domains with profound consequences for individuals: credit scoring, hiring, criminal sentencing, healthcare triage, welfare eligibility, immigration processing, and insurance pricing. In each domain, the decision affects fundamental rightsโeconomic opportunity, liberty, health, survival. If individuals cannot understand why a decision was made, they cannot meaningfully challenge it, and accountability becomes impossible.
The transparency imperative extends beyond individual rights. Democratic governance requires that systems exercising public power be subject to scrutiny. When algorithms allocate public resources, assess risk in the justice system, or moderate political speech, opacity undermines democratic accountability itself.
The EU AI Act Framework
Nannini (2024) provides the most detailed analysis to date of the transparency and explainability requirements in the EU AI Act. The paper identifies a fundamental structural tension: the Act mandates both transparency (making information about AI systems available) and explainability (making AI decisions comprehensible to affected persons), but these serve different functions and face different challenges.
The paper proposes a framework distinguishing four dimensions:
System-level transparency: Information about the AI system itselfโits purpose, capabilities, limitations, training data, and performance metrics. This is primarily addressed by the AI Act's conformity assessment and documentation requirements.
Decision-level explainability: Information about why a specific decision was made for a specific individual. This is the "right to explanation" in its strongest sense.
Process transparency: Information about the governance processes surrounding AI deploymentโwho decided to use the system, what human oversight exists, what review mechanisms are available.
Outcome transparency: Information about the AI system's aggregate outcomesโaccuracy rates, error patterns, disparate impact across groups.The paper argues that the AI Act's requirements are strongest on system-level transparency and weakest on decision-level explainability, precisely because the latter is the most technically challenging. High-risk AI systems must provide "sufficiently transparent" information to enable "deployers to interpret the system's output and use it appropriately" (Article 13), but what constitutes "sufficient" transparency for a deep neural network processing hundreds of features is undefined.
The Black Box Problem
Chaudhary (2024) provides a comprehensive analysis of algorithmic transparency as a concept and a practical challenge. The paper's broad influence reflects the breadth of its treatment: it surveys the technical explainability landscape (LIME, SHAP, attention mechanisms, counterfactual explanations) and evaluates each method's ability to satisfy legal transparency requirements.
Key findings include:
- Post-hoc explanations are approximations: Methods like LIME and SHAP do not reveal the actual reasoning of the model; they generate simplified approximations that may or may not reflect the model's true decision-making process. Legal frameworks that accept these as "explanations" may be providing false assurance.
- Accuracy-explainability trade-off: More accurate models (deep neural networks, ensemble methods) tend to be less interpretable. Legal mandates for explainability could push deployers toward less accurate but more interpretable modelsโpotentially harming the individuals the right to explanation is designed to protect.
- Context matters: What constitutes a meaningful explanation varies by domain. A credit decision explanation might focus on the applicant's financial features; a criminal risk assessment explanation might need to address constitutional protections. One-size-fits-all transparency requirements may satisfy none of these contexts.
The paper concludes that algorithmic transparency is necessary but not sufficient for accountability, and must be accompanied by institutional mechanisms (audit requirements, impact assessments, independent oversight) that do not depend on the interpretability of individual decisions.
Practical Limits of the Right
Engelfriet (2025) takes a deliberately skeptical position, arguing that the right to an explanation as currently conceived is "uninterpretable"โmeaning that it cannot be implemented in a way that is both legally meaningful and technically feasible for state-of-the-art AI systems.
The paper identifies three fundamental limits:
Faithfulness problem: Any explanation of a complex model's decision is necessarily a simplification. If the explanation does not faithfully represent the model's actual reasoning (and for neural networks, it typically cannot), providing it may satisfy a legal requirement while providing no genuine understanding.
Recipient problem: An explanation must be comprehensible to its recipient. But the mathematical operations of a neural network are not comprehensible to most peopleโor, the paper argues, to most judges. Simplifying to the point of comprehensibility risks distortion.
Gaming problem: If AI operators must explain their systems' decisions, they can design explanations that are technically compliant but substantively uninformativeโ"your application was denied based on a combination of factors including credit history and income level" satisfies a transparency requirement without enabling meaningful challenge.Engelfriet does not argue against transparency; rather, the paper argues that the right to explanation should be reconceived as a right to contestationโensuring that affected individuals have access to meaningful review mechanisms, rather than requiring explanations that the technology cannot genuinely provide.
Transparency Mechanisms Compared
<
| Mechanism | What It Provides | Legal Basis | Limitation |
|---|
| System documentation | How the AI works in general | AI Act Art. 11-13 | Does not explain individual decisions |
| Feature importance (SHAP/LIME) | Which inputs mattered most | GDPR Art. 13-15 (contested) | Post-hoc approximation; may not reflect true reasoning |
| Counterfactual explanation | What would need to change for a different outcome | Not yet mandated | Computationally expensive; may reveal gaming strategies |
| Audit and impact assessment | Aggregate fairness and accuracy | AI Act Art. 9; GDPR Art. 35 | Does not help individuals understand their case |
| Human review | A person reviews the AI decision | GDPR Art. 22; AI Act Art. 14 | "Rubber stamping" risk if reviewer cannot understand the AI |
What To Watch
The EU AI Act's implementing regulations, expected in 2025-2026, will need to operationalize "sufficient transparency" for high-risk systemsโdefining, for each domain, what level of explanation is legally required. The first enforcement actions under these provisions will reveal whether regulators interpret the requirement as demanding genuine interpretability or accept procedural compliance. Meanwhile, the technical field of explainable AI (XAI) continues to advance, with mechanistic interpretability and concept-based explanations offering potential paths toward more faithful explanations. Whether legal requirements and technical capabilities converge or continue to diverge will determine whether the right to explanation becomes a meaningful protection or a formalistic obligation.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ฌธ ๋
ผ๋ฌธ์ ํตํด ๊ฒ์ฆํด์ผ ํ๋ค.
์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ๊ณผ ์ค๋ช
์ ๋ฐ์ ๊ถ๋ฆฌ: ๋ฒ์ผ๋ก ๋ธ๋๋ฐ์ค ์ด๊ธฐ
์ํ์ AI ์์คํ
์ด ๋์ถ ์ ์ฒญ์ ๊ฑฐ๋ถํ๊ฑฐ๋, ํ์ฌ ์ฌ๋ฒ ์๊ณ ๋ฆฌ์ฆ์ด ๋ ๊ธด ํ๋์ ๊ถ๊ณ ํ๊ฑฐ๋, ์์
๋ฏธ๋์ด ํ๋ซํผ์ด ๊ฒ์๋ฌผ์ ์ต์ ํ ๋, ํผํด ๋น์ฌ์์๊ฒ๋ ๋จ์ํ ์ง๋ฌธ์ด ์๊ธด๋ค: ์? ์๋ฏธ ์๋ ๋ต๋ณ์ ๋ฐ์ ๋ฒ์ ๊ถ๋ฆฌโ"์ค๋ช
์ ๋ฐ์ ๊ถ๋ฆฌ"โ๋ AI ๊ฑฐ๋ฒ๋์ค์์ ๊ฐ์ฅ ๋
ผ์์ ์ธ ๊ฐ๋
์ค ํ๋๊ฐ ๋์๋ค.
2018๋
๋ถํฐ ์ํ๋ EU์ ์ผ๋ฐ ๋ฐ์ดํฐ ๋ณดํธ ๊ท์ (GDPR)์๋ ์ผ๋ถ์์ ๊ทธ๋ฌํ ๊ถ๋ฆฌ๋ฅผ ํ๋ฆฝํ๋ ๊ฒ์ผ๋ก ํด์ํ๋ ์กฐํญ์ด ํฌํจ๋์ด ์๋ค(์ 13-15์กฐ, ์ 22์กฐ). 2024๋
์ ์ต์ข
ํ์ ๋ EU AI Act๋ ๊ณ ์ํ AI ์์คํ
์ ๋ํ ํฌ๋ช
์ฑ ๋ฐ ์ค๋ช
๊ฐ๋ฅ์ฑ ์๊ฑด์ ์๋ฌดํํจ์ผ๋ก์จ ํ ๊ฑธ์ ๋ ๋์๊ฐ๋ค. ๊ทธ๋ฌ๋ ๋ฒ์ ์๋ฌด์ ๊ธฐ์ ์ ํ์ค ์ฌ์ด์ ๊ฐ๊ทน์ ํฌ๋ค. ๊ฐ์ฅ ์ฑ๋ฅ์ด ๋ฐ์ด๋ AI ์์คํ
(์ฌ์ธต ์ ๊ฒฝ๋ง, ๋ํ ์ธ์ด ๋ชจ๋ธ)์ ์ ํํ ์ธ๊ฐ์ด ํด์ํ ์ ์๋ ๋ฐฉ์์ผ๋ก ์ค๋ช
ํ๊ธฐ ๊ฐ์ฅ ์ด๋ ค์ด ์์คํ
๋ค์ด๋ค.
์ต๊ทผ ์ธ ํธ์ ๋
ผ๋ฌธ์ด ๋ฒ์ ยท๊ธฐ์ ์ ยท์ค์ฉ์ ๊ด์ ์์ ์ด๋ฌํ ๊ธด์ฅ ๊ด๊ณ๋ฅผ ๊ฒํ ํ๋ค.
์ ์ค์ํ๊ฐ
์๊ณ ๋ฆฌ์ฆ ์์ฌ๊ฒฐ์ ์ ๊ฐ์ธ์๊ฒ ์ค๋ํ ๊ฒฐ๊ณผ๋ฅผ ์ด๋ํ๋ ์์ญ์ผ๋ก ํ๋๋๊ณ ์๋ค: ์ ์ฉ ํ๊ฐ, ์ฑ์ฉ, ํ์ฌ ์ ๊ณ , ์๋ฃ ์ค์ฆ๋ ๋ถ๋ฅ, ๋ณต์ง ์๊ธ ์๊ฒฉ, ์ด๋ฏผ ์ฒ๋ฆฌ, ๋ณดํ ๊ฐ๊ฒฉ ์ฑ
์ ์ด ๊ทธ๋ฌํ ์์ญ์ ํด๋นํ๋ค. ๊ฐ ์์ญ์์ ์์ฌ๊ฒฐ์ ์ ๊ฒฝ์ ์ ๊ธฐํ, ์์ , ๊ฑด๊ฐ, ์์กด์ด๋ผ๋ ๊ธฐ๋ณธ๊ถ์ ์ํฅ์ ๋ฏธ์น๋ค. ๊ฐ์ธ์ด ๊ฒฐ์ ์ด ๋ด๋ ค์ง ์ด์ ๋ฅผ ์ดํดํ ์ ์๋ค๋ฉด ์ด๋ฅผ ์๋ฏธ ์๊ฒ ์ด์ ์ ๊ธฐํ ์ ์์ผ๋ฉฐ, ์ฑ
์ ์ถ๊ถ์ ๋ถ๊ฐ๋ฅํด์ง๋ค.
ํฌ๋ช
์ฑ์ ์์ฒญ์ ๊ฐ์ธ์ ๊ถ๋ฆฌ๋ฅผ ๋์ด์ ๋ค. ๋ฏผ์ฃผ์ ๊ฑฐ๋ฒ๋์ค๋ ๊ณต๊ถ๋ ฅ์ ํ์ฌํ๋ ์์คํ
์ด ๊ฐ์๋ฅผ ๋ฐ์ ๊ฒ์ ์๊ตฌํ๋ค. ์๊ณ ๋ฆฌ์ฆ์ด ๊ณต๊ณต ์์์ ๋ฐฐ๋ถํ๊ฑฐ๋, ์ฌ๋ฒ ์ฒด๊ณ์์ ์ํ์ ํ๊ฐํ๊ฑฐ๋, ์ ์น์ ๋ฐ์ธ์ ์กฐ์ ํ ๋, ๋ถํฌ๋ช
์ฑ์ ๋ฏผ์ฃผ์ ์ฑ
์ ์์ฒด๋ฅผ ํผ์ํ๋ค.
EU AI Act ํ๋ ์์ํฌ
Nannini(2024)๋ EU AI Act์ ํฌ๋ช
์ฑ ๋ฐ ์ค๋ช
๊ฐ๋ฅ์ฑ ์๊ฑด์ ๋ํด ํ์ฌ๊น์ง ๊ฐ์ฅ ์์ธํ ๋ถ์์ ์ ๊ณตํ๋ค. ์ด ๋
ผ๋ฌธ์ ๊ทผ๋ณธ์ ์ธ ๊ตฌ์กฐ์ ๊ธด์ฅ ๊ด๊ณ๋ฅผ ๋ฐํ๋ธ๋ค: AI Act๋ ํฌ๋ช
์ฑ(AI ์์คํ
์ ๊ดํ ์ ๋ณด๋ฅผ ์ด์ฉ ๊ฐ๋ฅํ๊ฒ ๋ง๋๋ ๊ฒ)๊ณผ ์ค๋ช
๊ฐ๋ฅ์ฑ(AI ๊ฒฐ์ ์ ํผํด ๋น์ฌ์๊ฐ ์ดํดํ ์ ์๊ฒ ๋ง๋๋ ๊ฒ) ๋ชจ๋๋ฅผ ์๋ฌดํํ์ง๋ง, ์ด ๋ ๊ฐ์ง๋ ์๋ก ๋ค๋ฅธ ๊ธฐ๋ฅ์ ์ํํ๋ฉฐ ์๋ก ๋ค๋ฅธ ๋์ ์ ์ง๋ฉดํ๋ค.
์ด ๋
ผ๋ฌธ์ ๋ค ๊ฐ์ง ์ฐจ์์ ๊ตฌ๋ถํ๋ ํ๋ ์์ํฌ๋ฅผ ์ ์ํ๋ค:
์์คํ
์์ค์ ํฌ๋ช
์ฑ: AI ์์คํ
์์ฒด์ ๊ดํ ์ ๋ณดโ๋ชฉ์ , ์ญ๋, ํ๊ณ, ํ๋ จ ๋ฐ์ดํฐ, ์ฑ๋ฅ ์งํ. ์ด๋ ์ฃผ๋ก AI Act์ ์ ํฉ์ฑ ํ๊ฐ ๋ฐ ๋ฌธ์ํ ์๊ฑด์ ํตํด ๋ค๋ฃจ์ด์ง๋ค.
๊ฒฐ์ ์์ค์ ์ค๋ช
๊ฐ๋ฅ์ฑ: ํน์ ๊ฐ์ธ์ ๋ํด ํน์ ๊ฒฐ์ ์ด ๋ด๋ ค์ง ์ด์ ์ ๊ดํ ์ ๋ณด. ์ด๊ฒ์ด ๊ฐ์ฅ ๊ฐํ ์๋ฏธ์ "์ค๋ช
์ ๋ฐ์ ๊ถ๋ฆฌ"์ด๋ค.
ํ๋ก์ธ์ค ํฌ๋ช
์ฑ: AI ๋ฐฐ์น๋ฅผ ๋๋ฌ์ผ ๊ฑฐ๋ฒ๋์ค ํ๋ก์ธ์ค์ ๊ดํ ์ ๋ณดโ๋๊ฐ ์์คํ
์ฌ์ฉ์ ๊ฒฐ์ ํ๋์ง, ์ด๋ค ์ธ๊ฐ ๊ฐ๋
์ด ์กด์ฌํ๋์ง, ์ด๋ค ๊ฒํ ๋ฉ์ปค๋์ฆ์ด ์ด์ฉ ๊ฐ๋ฅํ์ง.
๊ฒฐ๊ณผ ํฌ๋ช
์ฑ: AI ์์คํ
์ ์งํฉ์ ๊ฒฐ๊ณผ์ ๊ดํ ์ ๋ณดโ์ ํ๋, ์ค๋ฅ ํจํด, ์ง๋จ ๊ฐ ๋ถ๊ท ํํ ์ํฅ.์ด ๋
ผ๋ฌธ์ AI Act์ ์๊ฑด์ด ์์คํ
์์ค์ ํฌ๋ช
์ฑ์์ ๊ฐ์ฅ ๊ฐํ๊ณ ๊ฒฐ์ ์์ค์ ์ค๋ช
๊ฐ๋ฅ์ฑ์์ ๊ฐ์ฅ ์ฝํ๋ค๊ณ ์ฃผ์ฅํ๋๋ฐ, ์ด๋ ์ ํํ ํ์๊ฐ ๊ธฐ์ ์ ์ผ๋ก ๊ฐ์ฅ ๋์ ์ ์ด๊ธฐ ๋๋ฌธ์ด๋ค. ๊ณ ์ํ AI ์์คํ
์ "๋ฐฐํฌ์๊ฐ ์์คํ
์ ์ถ๋ ฅ์ ํด์ํ๊ณ ์ ์ ํ๊ฒ ํ์ฉํ ์ ์๋๋ก" "์ถฉ๋ถํ ํฌ๋ช
ํ" ์ ๋ณด๋ฅผ ์ ๊ณตํด์ผ ํ์ง๋ง(์ 13์กฐ), ์๋ฐฑ ๊ฐ์ ํน์ง(feature)์ ์ฒ๋ฆฌํ๋ ์ฌ์ธต ์ ๊ฒฝ๋ง์ ์์ด ๋ฌด์์ด "์ถฉ๋ถํ" ํฌ๋ช
์ฑ์ ๊ตฌ์ฑํ๋์ง๋ ์ ์๋์ง ์์ ์ฑ๋ก ๋จ์ ์๋ค.
๋ธ๋๋ฐ์ค ๋ฌธ์
Chaudhary (2024)๋ ์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ์ ๊ฐ๋
์ ยท์ค์ฒ์ ๊ณผ์ ๋ก์ ์ข
ํฉ์ ์ผ๋ก ๋ถ์ํ๋ค. ์ด ๋
ผ๋ฌธ์ด ๊ด๋ฒ์ํ ์ํฅ์ ๋ฏธ์น๋ ๊ฒ์ ๋ค๋ฃจ๋ ๋ด์ฉ์ ํญ๋์์ ๋ฐ์ํ๋ค. ๋
ผ๋ฌธ์ ๊ธฐ์ ์ ์ค๋ช
๊ฐ๋ฅ์ฑ(explainability) ๋ถ์ผ๋ฅผ ๊ฐ๊ดํ๋ฉฐ(LIME, SHAP, ์ดํ
์
๋ฉ์ปค๋์ฆ, ๋ฐ์ฌ์ค์ ์ค๋ช
), ๊ฐ ๋ฐฉ๋ฒ์ด ๋ฒ์ ํฌ๋ช
์ฑ ์๊ฑด์ ์ถฉ์กฑํ ์ ์๋์ง ํ๊ฐํ๋ค.
์ฃผ์ ์ฐ๊ตฌ ๊ฒฐ๊ณผ๋ ๋ค์๊ณผ ๊ฐ๋ค:
- ์ฌํ์ (post-hoc) ์ค๋ช
์ ๊ทผ์ฌ์น์ด๋ค: LIME ๋ฐ SHAP๊ณผ ๊ฐ์ ๋ฐฉ๋ฒ์ ๋ชจ๋ธ์ ์ค์ ์ถ๋ก ๊ณผ์ ์ ๋๋ฌ๋ด์ง ์๋๋ค. ์ด๋ฌํ ๋ฐฉ๋ฒ๋ค์ ๋จ์ํ๋ ๊ทผ์ฌ์น๋ฅผ ์์ฑํ ๋ฟ์ด๋ฉฐ, ์ด๊ฒ์ด ๋ชจ๋ธ์ ์ค์ ์์ฌ๊ฒฐ์ ๊ณผ์ ์ ๋ฐ์ํ ์๋ ์๊ณ ๊ทธ๋ ์ง ์์ ์๋ ์๋ค. ์ด๋ฅผ "์ค๋ช
"์ผ๋ก ์์ฉํ๋ ๋ฒ์ ์ฒด๊ณ๋ ํ์์ ์์ฌ์ ์ ๊ณตํ๋ ๊ฒ์ผ ์ ์๋ค.
- ์ ํ์ฑ-์ค๋ช
๊ฐ๋ฅ์ฑ ๊ฐ์ ์์ถฉ ๊ด๊ณ: ๋ ์ ํํ ๋ชจ๋ธ(์ฌ์ธต ์ ๊ฒฝ๋ง, ์์๋ธ ๋ฐฉ๋ฒ)์ ํด์ ๊ฐ๋ฅ์ฑ์ด ๋ฎ์ ๊ฒฝํฅ์ด ์๋ค. ์ค๋ช
๊ฐ๋ฅ์ฑ์ ๋ํ ๋ฒ์ ์๋ฌด๋ ๋ฐฐํฌ์๋ก ํ์ฌ๊ธ ๋ ์ ํํ์ง๋ง ๋ ํด์ํ๊ธฐ ์ฌ์ด ๋ชจ๋ธ์ ์ ํํ๋๋ก ์ ๋ํ ์ ์์ผ๋ฉฐ, ์ด๋ ์ค๋ช
๊ถ๋ฆฌ๊ฐ ๋ณดํธํ๊ณ ์ ํ๋ ๋น์ฌ์๋ค์๊ฒ ์คํ๋ ค ํผํด๋ฅผ ์ค ์ ์๋ค.
- ๋งฅ๋ฝ์ด ์ค์ํ๋ค: ์๋ฏธ ์๋ ์ค๋ช
์ ๊ตฌ์ฑํ๋ ์์๋ ์์ญ๋ง๋ค ๋ค๋ฅด๋ค. ์ ์ฉ ๊ฒฐ์ ์ ๋ํ ์ค๋ช
์ ์ ์ฒญ์์ ์ฌ๋ฌด์ ํน์ฑ์ ์ด์ ์ ๋ง์ถ ์ ์๋ ๋ฐ๋ฉด, ๋ฒ์ฃ ์ํ ํ๊ฐ์ ๋ํ ์ค๋ช
์ ํ๋ฒ์ ๋ณดํธ๋ฅผ ๋ค๋ฃจ์ด์ผ ํ ์๋ ์๋ค. ํ์ผ์ ์ธ ํฌ๋ช
์ฑ ์๊ฑด์ ์ด๋ฌํ ๋งฅ๋ฝ ์ค ์ด๋ ๊ฒ๋ ์ถฉ์กฑํ์ง ๋ชปํ ์ ์๋ค.
๋
ผ๋ฌธ์ ์๊ณ ๋ฆฌ์ฆ ํฌ๋ช
์ฑ์ด ์ฑ
๋ฌด์ฑ์ ์ํด ํ์ํ์ง๋ง ์ถฉ๋ถํ์ง๋ ์์ผ๋ฉฐ, ๊ฐ๋ณ ๊ฒฐ์ ์ ํด์ ๊ฐ๋ฅ์ฑ์ ์์กดํ์ง ์๋ ์ ๋์ ๋ฉ์ปค๋์ฆ(๊ฐ์ฌ ์๊ฑด, ์ํฅ ํ๊ฐ, ๋
๋ฆฝ์ ๊ฐ๋
)์ด ํจ๊ป ๋ท๋ฐ์นจ๋์ด์ผ ํ๋ค๊ณ ๊ฒฐ๋ก ์ง๋๋ค.
๊ถ๋ฆฌ์ ์ค์ง์ ํ๊ณ
Engelfriet (2025)๋ ์๋์ ์ผ๋ก ํ์์ ์ธ ์
์ฅ์ ์ทจํ๋ฉด์, ํ์ฌ ๊ตฌ์๋ ํํ์ ์ค๋ช
๊ถ๋ฆฌ๋ "ํด์ ๋ถ๊ฐ๋ฅํ๋ค(uninterpretable)"๊ณ ์ฃผ์ฅํ๋ค. ์ฆ, ์ต์ AI ์์คํ
์ ๋ํด ๋ฒ์ ์ผ๋ก ์๋ฏธ ์์ผ๋ฉด์ ๋์์ ๊ธฐ์ ์ ์ผ๋ก ์คํ ๊ฐ๋ฅํ ๋ฐฉ์์ผ๋ก ์ดํ๋ ์ ์๋ค๋ ๊ฒ์ด๋ค.
๋
ผ๋ฌธ์ ์ธ ๊ฐ์ง ๊ทผ๋ณธ์ ์ธ ํ๊ณ๋ฅผ ์ ์ํ๋ค:
์ถฉ์ค์ฑ(faithfulness) ๋ฌธ์ : ๋ณต์กํ ๋ชจ๋ธ์ ๊ฒฐ์ ์ ๋ํ ์ค๋ช
์ ํ์ฐ์ ์ผ๋ก ๋จ์ํ๋ฅผ ์๋ฐํ๋ค. ์ค๋ช
์ด ๋ชจ๋ธ์ ์ค์ ์ถ๋ก ์ ์ถฉ์คํ ๋ฐ์ํ์ง ๋ชปํ๋ค๋ฉด(์ ๊ฒฝ๋ง์ ๊ฒฝ์ฐ ์ผ๋ฐ์ ์ผ๋ก ๋ถ๊ฐ๋ฅํ๋ค), ์ค๋ช
์ ์ ๊ณตํ๋ ๊ฒ์ ๋ฒ์ ์๊ฑด์ ์ถฉ์กฑํ๋ฉด์๋ ์ค์ง์ ์ธ ์ดํด๋ฅผ ์ ํ ์ ๊ณตํ์ง ๋ชปํ๋ ๊ฒฐ๊ณผ๋ฅผ ๋ณ์ ์ ์๋ค.
์์ ์(recipient) ๋ฌธ์ : ์ค๋ช
์ ๊ทธ๊ฒ์ ๋ฐ๋ ์ฌ๋์ด ์ดํดํ ์ ์์ด์ผ ํ๋ค. ๊ทธ๋ฌ๋ ์ ๊ฒฝ๋ง์ ์ํ์ ์ฐ์ฐ์ ๋๋ถ๋ถ์ ์ฌ๋๋ค์๊ฒ, ๊ทธ๋ฆฌ๊ณ ๋
ผ๋ฌธ์ ์ฃผ์ฅ์ ๋ฐ๋ฅด๋ฉด ๋๋ถ๋ถ์ ํ์ฌ๋ค์๊ฒ๋ ์ดํดํ๊ธฐ ์ด๋ ต๋ค. ์ดํด ๊ฐ๋ฅํ ์์ค์ผ๋ก ๋จ์ํํ๋ค ๋ณด๋ฉด ์๊ณก์ ์ํ์ด ๋ฐ์ํ๋ค.
๊ฒ์ด๋ฐ(gaming) ๋ฌธ์ : AI ์ด์์๊ฐ ์์คํ
์ ๊ฒฐ์ ์ ์ค๋ช
ํด์ผ ํ๋ค๋ฉด, ๊ธฐ์ ์ ์ผ๋ก๋ ๊ท์ ์ ์ค์ํ์ง๋ง ์ค์ง์ ์ผ๋ก๋ ์ ๋ณด๋ฅผ ์ ๊ณตํ์ง ์๋ ์ค๋ช
์ ์ค๊ณํ ์ ์๋ค. ์์ปจ๋ "๊ทํ์ ์ ์ฒญ์ ์ ์ฉ ์ด๋ ฅ ๋ฐ ์๋ ์์ค์ ํฌํจํ ๋ณตํฉ์ ์ธ ์์ธ์ ๊ทผ๊ฑฐํ์ฌ ๊ฑฐ์ ๋์์ต๋๋ค"๋ผ๋ ์ค๋ช
์ ํฌ๋ช
์ฑ ์๊ฑด์ ์ถฉ์กฑํ๋ฉด์๋ ์๋ฏธ ์๋ ์ด์ ์ ๊ธฐ๋ฅผ ๋ถ๊ฐ๋ฅํ๊ฒ ๋ง๋ ๋ค.Engelfriet์ ํฌ๋ช
์ฑ ์์ฒด์ ๋ฐ๋ํ๋ ๊ฒ์ด ์๋๋ค. ์คํ๋ ค ์ด ๋
ผ๋ฌธ์ ์ค๋ช
๊ถ๋ฆฌ๊ฐ ์ด์ ์ ๊ธฐ ๊ถ๋ฆฌ(right to contestation)๋ก ์ฌ๊ฐ๋
ํ๋์ด์ผ ํ๋ค๊ณ ์ฃผ์ฅํ๋ค. ์ฆ, ๊ธฐ์ ์ด ์ค์ง์ ์ผ๋ก ์ ๊ณตํ ์ ์๋ ์ค๋ช
์ ์๊ตฌํ๋ ๋์ , ์ํฅ์ ๋ฐ๋ ๋น์ฌ์๋ค์ด ์๋ฏธ ์๋ ์ฌ์ฌ ๋ฉ์ปค๋์ฆ์ ์ ๊ทผํ ์ ์๋๋ก ๋ณด์ฅํด์ผ ํ๋ค๋ ๊ฒ์ด๋ค.
ํฌ๋ช
์ฑ ๋ฉ์ปค๋์ฆ ๋น๊ต
<
| ๋ฉ์ปค๋์ฆ | ์ ๊ณต ๋ด์ฉ | ๋ฒ์ ๊ทผ๊ฑฐ | ํ๊ณ |
|---|
| ์์คํ
๋ฌธ์ํ | AI์ ์ผ๋ฐ์ ์๋ ๋ฐฉ์ | AI Act ์ 11-13์กฐ | ๊ฐ๋ณ ๊ฒฐ์ ์ ์ค๋ช
ํ์ง ๋ชปํจ |
| ํน์ฑ ์ค์๋(SHAP/LIME) | ์ด๋ค ์
๋ ฅ๊ฐ์ด ๊ฐ์ฅ ์ค์ํ๋์ง | GDPR ์ 13-15์กฐ(๋
ผ์ ์ค) | ์ฌํ์ ๊ทผ์ฌ์น; ์ค์ ์ถ๋ก ์ ๋ฐ์ํ์ง ๋ชปํ ์ ์์ |
| ๋ฐ์ฌ์ค์ ์ค๋ช
| ๋ค๋ฅธ ๊ฒฐ๊ณผ๋ฅผ ์ํด ๋ฌด์์ด ๋ฌ๋ผ์ ธ์ผ ํ๋์ง | ์์ง ์๋ฌดํ๋์ง ์์ | ๊ณ์ฐ ๋น์ฉ์ด ๋์; ๊ฒ์ด๋ฐ ์ ๋ต์ ๋
ธ์ถํ ์ ์์ |
| ๊ฐ์ฌ ๋ฐ ์ํฅ ํ๊ฐ | ์ง๊ณ์ ๊ณต์ ์ฑ ๋ฐ ์ ํ๋ | AI Act ์ 9์กฐ; GDPR ์ 35์กฐ | ๊ฐ์ธ์ด ์์ ์ ์ฌ๋ก๋ฅผ ์ดํดํ๋ ๋ฐ ๋์์ด ๋์ง ์์ |
| ์ธ๊ฐ ๊ฒํ | ์ฌ๋์ด AI ๊ฒฐ์ ์ ๊ฒํ ํจ | GDPR ์ 22์กฐ; AI Act ์ 14์กฐ | ๊ฒํ ์๊ฐ AI๋ฅผ ์ดํดํ ์ ์๋ ๊ฒฝ์ฐ "ํ์์ ์น์ธ(rubber stamping)" ์ํ |
์ฃผ๋ชฉํด์ผ ํ ์ฌํญ
2025~2026๋
์ ์์๋๋ EU AI Act์ ์ดํ ๊ท์ ์ ๊ณ ์ํ ์์คํ
์ ๋ํ "์ถฉ๋ถํ ํฌ๋ช
์ฑ"์ ๊ตฌ์ฒดํํด์ผ ํ๋๋ฐ, ๊ฐ ๋๋ฉ์ธ๋ณ๋ก ๋ฒ์ ์ผ๋ก ์๊ตฌ๋๋ ์ค๋ช
์ ์์ค์ ์ ์ํด์ผ ํ ๊ฒ์ด๋ค. ์ด ์กฐํญ์ ๋ฐ๋ฅธ ์ฒซ ๋ฒ์งธ ์งํ ์กฐ์น๋ค์ ๊ท์ ๋น๊ตญ์ด ํด๋น ์๊ฑด์ ์ง์ ํ ํด์ ๊ฐ๋ฅ์ฑ์ ์๊ตฌํ๋ ๊ฒ์ผ๋ก ํด์ํ๋์ง, ์๋๋ฉด ์ ์ฐจ์ ์ค์๋ฅผ ์์ฉํ๋์ง๋ฅผ ๋๋ฌ๋ผ ๊ฒ์ด๋ค. ํํธ, ์ค๋ช
๊ฐ๋ฅํ AI(XAI) ๊ธฐ์ ๋ถ์ผ๋ ์ง์์ ์ผ๋ก ๋ฐ์ ํ๊ณ ์์ผ๋ฉฐ, ๊ธฐ๊ณ๋ก ์ ํด์ ๊ฐ๋ฅ์ฑ(mechanistic interpretability)๊ณผ ๊ฐ๋
๊ธฐ๋ฐ ์ค๋ช
(concept-based explanations)์ด ๋ณด๋ค ์ถฉ์คํ ์ค๋ช
์ ํฅํ ์ ์ฌ์ ๊ฒฝ๋ก๋ฅผ ์ ์ํ๊ณ ์๋ค. ๋ฒ์ ์๊ฑด๊ณผ ๊ธฐ์ ์ ์ญ๋์ด ์๋ ดํ ๊ฒ์ธ์ง ์๋๋ฉด ๊ณ์ ๊ดด๋ฆฌ๋ฅผ ๋ณด์ผ ๊ฒ์ธ์ง์ ๋ฐ๋ผ, ์ค๋ช
์ ๋ฐ์ ๊ถ๋ฆฌ๊ฐ ์ค์ง์ ์ธ ๋ณดํธ ์๋จ์ด ๋ ์ง ํน์ ํ์์ ์ธ ์๋ฌด์ ๊ทธ์น ์ง๊ฐ ๊ฒฐ์ ๋ ๊ฒ์ด๋ค.
References (3)
[1] Nannini, L. (2024). Habemus a Right to an Explanation: so What? โ A Framework on Transparency-Explainability Functionality and Tensions in the EU AI Act. Proceedings of AIES, 7(1), 31700.
[2] Chaudhary, G. (2024). Unveiling the Black Box: Bringing Algorithmic Transparency to AI. Masaryk University Journal of Law and Technology, 2024-1-4.
[3] Engelfriet, A. (2025). An Uninterpretable Right: Legal and Practical Limits of the Right to an Explanation. Proceedings of IJCNN.