This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
In courtrooms across the United States, algorithmic risk assessment tools inform decisions about who receives bail, who is sentenced to prison, and who is released on parole. COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), PSA (Public Safety Assessment), and their successors analyze defendant dataโcriminal history, age, employment status, social tiesโand generate risk scores that judges use as inputs to their decisions.
The promise is objectivity: algorithms do not have bad days, harbor racial prejudice, or vary their assessments based on when they last ate lunch (unlike human judges, whose sentencing decisions have been shown to correlate with the time since their last meal). The concern is that objectivity about a biased world merely systematizes the biasโproducing decisions that are consistently unfair rather than inconsistently unfair.
Can AI Mitigate or Exacerbate Bias?
Gao (2025) explores AI's dual role in criminal sentencingโacknowledging that AI-driven tools can both reduce and amplify bias depending on design choices, data quality, and implementation context. As AI-driven tools increasingly integrate into global criminal justice systems, algorithmic justice has become a critical concern.
The paper identifies conditions under which AI reduces bias: when it replaces human decision-makers who exhibit demonstrable racial or socioeconomic prejudice, when it uses validated risk factors with empirical predictive power, and when its outputs are subject to meaningful human review.
It also identifies conditions under which AI amplifies bias: when training data reflects historical discrimination (e.g., higher arrest rates for Black Americans produce higher predicted risk scores), when proxy variables (zip code, employment status) correlate with protected characteristics (race, ethnicity), and when risk scores are treated as objective truth rather than probabilistic estimates.
Algorithmic Inequity
Schneider (2025) critically examines the phenomenon of algorithmic inequity within legal systems, focusing on how AI systems can perpetuate or deepen existing social inequalities when deployed in judicial contexts.
The analysis identifies a structural problem: AI systems trained on criminal justice data learn patterns from a system that has historically over-policed and over-incarcerated Black and Brown communities. A risk assessment tool that predicts recidivism based on prior arrests is, in effect, predicting future police attention rather than future criminal behavior. The prediction is accurateโpeople who have been arrested before are more likely to be arrested againโbut the accuracy reflects policing patterns, not individual dangerousness.
This creates a feedback loop: algorithmic risk assessment โ higher sentences for high-risk individuals โ increased contact with the criminal justice system โ higher future risk scores. The algorithm does not merely predict recidivism; it contributes to producing it.
Suggestive vs. Decisional Algorithms
Comoglio (2025) introduces an important distinction: between suggestive algorithms (which recommend outcomes for human judges to consider), predictive algorithms (which estimate probabilities of future events), and decisional algorithms (which autonomously determine legal outcomes). The paper argues that the legal and ethical analysis should differ depending on which type is deployed.
Suggestive algorithms preserve judicial discretion: the judge receives the risk score as one input among many and retains the authority to override it. The risk is that judges defer to algorithmic recommendationsโeither because they trust the technology or because they want to deflect responsibility for unpopular decisions.
Decisional algorithms eliminate judicial discretion entirely. No jurisdiction currently uses fully automated sentencing, but automated bail decisions, automated parole risk classification, and automated fine calculation are in use or under development. The democratic legitimacy concerns for decisional algorithms are qualitatively different from those for suggestive algorithms.
Fairness Verification
Zheng (2025) addresses the technical challenge of ensuring that AI criminal justice systems are fair. AI is increasingly utilized in criminal justice to support decisions related to bail, sentencing, and parole. However, these systems often perpetuate historical biases, particularly racial disparities embedded in the training data.
The paper proposes fairness verification algorithms and bias mitigation mechanisms. Many existing models lack effective mechanisms for ensuring fairness while maintaining predictive accuracy. The technical challenge is that different fairness metrics (demographic parity, equalized odds, predictive parity) are mathematically incompatibleโa system cannot satisfy all fairness criteria simultaneously. This means that "fair AI" requires a choice about which kind of fairness to prioritizeโa choice that is fundamentally political, not technical.
Democratic Legitimacy
Vidaki and Papakonstantinou (2025) raise a question that technical fairness analyses often neglect: can AI in judicial decision-making be democratically legitimate? The question goes beyond whether algorithmic decisions are accurate or fair to whether they are legitimateโwhether they carry the authority that democratic societies require of their justice systems.
Democratic legitimacy in criminal justice derives from several sources: legislation enacted by elected representatives, judicial reasoning that can be scrutinized and appealed, procedural protections that ensure defendants are heard, and the personal accountability of judges who exercise judgment on behalf of the community. Algorithmic decision-making disrupts each of these sources: the algorithm's logic may be proprietary, its reasoning may be opaque, and no individual bears personal responsibility for its outputs.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| AI can reduce human bias in sentencing | Gao (2025): possible under specific design and implementation conditions | โ ๏ธ Uncertain (conditional) |
| AI risk assessment encodes historical discrimination | Schneider (2025), Zheng (2025): training data reflects discriminatory policing and sentencing patterns | โ
Supported |
| Suggestive algorithms preserve judicial discretion | Comoglio (2025): formally yes, but judicial deference to algorithms is documented | โ ๏ธ Uncertain |
| Technical fairness metrics can resolve algorithmic bias | Zheng (2025): different fairness metrics are mathematically incompatible; choice is political | โ Refuted (as purely technical solution) |
| Algorithmic judicial decision-making is democratically legitimate | Vidaki & Papakonstantinou (2025): multiple sources of democratic legitimacy are disrupted | โ Refuted (without reform) |
Open Questions
Should defendants have a right to know their algorithmic risk score? Transparency would enable challenge but might also create self-fulfilling prophecies if individuals internalize their "risk" classification.Can algorithmic risk assessment be designed for rehabilitation rather than punishment? Current tools predict recidivism. Could AI tools instead predict which interventions (education, employment support, counseling) would reduce reoffending for each individual?Who is liable when an algorithm contributes to a wrongful conviction? The developer, the jurisdiction that deployed the tool, or the judge who relied on it? Current law provides no clear answer.Should AI in criminal justice be subject to the same standards as medical devices? Both affect human welfare. Should algorithmic risk assessment tools undergo independent validation and regulatory approval before deployment?Implications
The research reviewed here suggests that AI in criminal justice is neither the objective oracle its advocates promise nor the discrimination machine its critics fear. It is a tool whose effects depend on design choices, implementation contexts, and governance structures. The question is not whether to use AI in criminal justice but under what conditions, with what safeguards, and with what accountability mechanisms.
The evidence supports several design principles: training data should be audited for historical bias before use; fairness metrics should be chosen through democratic deliberation, not technical default; algorithmic outputs should be treated as recommendations, not decisions; and defendants should have meaningful rights to challenge algorithmic assessments.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๋ฐ๋์ ๊ฒ์ฆํด์ผ ํ๋ค.
๋ฒ์ ์ AI: ์๊ณ ๋ฆฌ์ฆ์ด ์ ์๋ฅผ ์คํํ ์ ์๋๊ฐ, ์๋๋ฉด ๋ถ์๋ฅผ ๋ด์ฌํํ๋๊ฐ?
๋ฏธ๊ตญ ์ ์ญ์ ๋ฒ์ ์์ ์๊ณ ๋ฆฌ์ฆ ์ํ ํ๊ฐ ๋๊ตฌ๋ ๋๊ฐ ๋ณด์์ ๋ฐ๊ณ , ๋๊ฐ ๊ต๋์์ ์๊ฐ๋๋ฉฐ, ๋๊ฐ ๊ฐ์๋ฐฉ์ผ๋ก ์๋ฐฉ๋ ์ง์ ๊ดํ ๊ฒฐ์ ์ ์ํฅ์ ๋ฏธ์น๋ค. COMPAS(Correctional Offender Management Profiling for Alternative Sanctions), PSA(Public Safety Assessment), ๊ทธ๋ฆฌ๊ณ ๊ทธ ํ์ ๋๊ตฌ๋ค์ ํผ๊ณ ์ธ ๋ฐ์ดํฐโ์ ๊ณผ ๊ธฐ๋ก, ๋์ด, ๊ณ ์ฉ ์ํ, ์ฌํ์ ์ ๋ ๊ด๊ณโ๋ฅผ ๋ถ์ํ์ฌ ํ์ฌ๋ค์ด ํ๋จ์ ์ฐธ๊ณ ์๋ฃ๋ก ํ์ฉํ๋ ์ํ ์ ์๋ฅผ ์ฐ์ถํ๋ค.
์ด๋ฌํ ๋๊ตฌ๋ค์ด ๋ด์ธ์ฐ๋ ์ฅ์ ์ ๊ฐ๊ด์ฑ์ด๋ค. ์ฆ, ์๊ณ ๋ฆฌ์ฆ์ ์ปจ๋์
์ด ๋์ ๋ ์ด ์๊ณ , ์ธ์ข
์ ํธ๊ฒฌ์ ํ์ง ์์ผ๋ฉฐ, ๋ง์ง๋ง์ผ๋ก ์์ฌํ ์๊ฐ์ ๋ฐ๋ผ ํ๊ฐ๊ฐ ๋ฌ๋ผ์ง์ง ์๋๋ค๋ ๊ฒ์ด๋ค(์ธ๊ฐ ํ์ฌ์ ๋ฌ๋ฆฌ, ์ด๋ค์ ์ํ ๊ฒฐ์ ์ ๋ง์ง๋ง ์์ฌ ์ดํ ๊ฒฝ๊ณผ ์๊ฐ๊ณผ ์๊ด๊ด๊ณ๊ฐ ์๋ ๊ฒ์ผ๋ก ๋ฐํ์ง ๋ฐ ์๋ค). ๋ค๋ง ์ฐ๋ ค๋๋ ์ ์, ํธํฅ๋ ์ธ๊ณ์ ๋ํ ๊ฐ๊ด์ฑ์ด ๋จ์ง ๊ทธ ํธํฅ์ ์ฒด๊ณํํ ๋ฟ์ด๋ผ๋ ๊ฒ์ด๋ค. ์ฆ, ๋ถ์ผ๊ด์ ์ผ๋ก ๋ถ๊ณต์ ํ ๊ฒฐ์ ์ด ์๋๋ผ ์ผ๊ด๋๊ฒ ๋ถ๊ณต์ ํ ๊ฒฐ์ ์ ๋ง๋ค์ด๋ธ๋ค๋ ๊ฒ์ด๋ค.
AI๋ ํธํฅ์ ์ํํ ์ ์๋๊ฐ, ์๋๋ฉด ์ฌํ์ํค๋๊ฐ?
Gao(2025)๋ ํ์ฌ ์ํ์์ AI์ ์ด์ค์ ์ญํ ์ ํ๊ตฌํ๋ฉฐ, AI ๊ธฐ๋ฐ ๋๊ตฌ๊ฐ ์ค๊ณ ๋ฐฉ์, ๋ฐ์ดํฐ ํ์ง, ๊ตฌํ ๋งฅ๋ฝ์ ๋ฐ๋ผ ํธํฅ์ ์ค์ด๊ธฐ๋ ํ๊ณ ์ฆํญ์ํค๊ธฐ๋ ํ ์ ์์์ ์ธ์ ํ๋ค. AI ๊ธฐ๋ฐ ๋๊ตฌ๊ฐ ์ ์ธ๊ณ ํ์ฌ ์ฌ๋ฒ ์์คํ
์ ์ ์ ๋ ํตํฉ๋จ์ ๋ฐ๋ผ ์๊ณ ๋ฆฌ์ฆ ์ ์(algorithmic justice)๋ ํต์ฌ์ ์ธ ๋ฌธ์ ๋ก ๋ถ์ํ๊ณ ์๋ค.
ํด๋น ๋
ผ๋ฌธ์ AI๊ฐ ํธํฅ์ ์ค์ด๋ ์กฐ๊ฑด๋ค์ ๊ท๋ช
ํ๋ค. ์ฆ, ๋ช
๋ฐฑํ ์ธ์ข
์ ยท์ฌํ๊ฒฝ์ ์ ํธ๊ฒฌ์ ๋ณด์ด๋ ์ธ๊ฐ ์์ฌ๊ฒฐ์ ์๋ฅผ ๋์ฒดํ ๋, ๊ฒฝํ์ ์์ธก๋ ฅ์ ๊ฐ์ถ ๊ฒ์ฆ๋ ์ํ ์์ธ์ ํ์ฉํ ๋, ๊ทธ๋ฆฌ๊ณ AI์ ์ฐ์ถ ๊ฒฐ๊ณผ๊ฐ ์ค์ง์ ์ธ ์ธ๊ฐ ๊ฒํ ์ ๋์์ด ๋ ๋์ด๋ค.
๋ํ AI๊ฐ ํธํฅ์ ์ฆํญ์ํค๋ ์กฐ๊ฑด๋ค๋ ๊ท๋ช
ํ๋ค. ์ฆ, ํ๋ จ ๋ฐ์ดํฐ๊ฐ ์ญ์ฌ์ ์ฐจ๋ณ์ ๋ฐ์ํ ๋(์์ปจ๋, ํ์ธ ๋ฏธ๊ตญ์ธ์ ๋์ ์ฒดํฌ์จ์ด ๋ ๋์ ์์ธก ์ํ ์ ์๋ก ์ด์ด์ง๋ ๊ฒฝ์ฐ), ๋๋ฆฌ ๋ณ์(์ฐํธ๋ฒํธ, ๊ณ ์ฉ ์ํ)๊ฐ ๋ณดํธ ํน์ฑ(์ธ์ข
, ๋ฏผ์กฑ)๊ณผ ์๊ด๊ด๊ณ๋ฅผ ๊ฐ์ง ๋, ๊ทธ๋ฆฌ๊ณ ์ํ ์ ์๊ฐ ํ๋ฅ ์ ์ถ์ ์น๊ฐ ์๋ ๊ฐ๊ด์ ์ฌ์ค๋ก ์ทจ๊ธ๋ ๋์ด๋ค.
์๊ณ ๋ฆฌ์ฆ์ ๋ถํ๋ฑ
Schneider(2025)๋ ๋ฒ์ ์์คํ
๋ด ์๊ณ ๋ฆฌ์ฆ์ ๋ถํ๋ฑ(algorithmic inequity) ํ์์ ๋นํ์ ์ผ๋ก ๊ฒํ ํ๋ฉฐ, AI ์์คํ
์ด ์ฌ๋ฒ์ ๋งฅ๋ฝ์์ ํ์ฉ๋ ๋ ๊ธฐ์กด์ ์ฌํ์ ๋ถํ๋ฑ์ ์ด๋ป๊ฒ ์ง์์ํค๊ฑฐ๋ ์ฌํ์ํฌ ์ ์๋์ง์ ์ด์ ์ ๋ง์ถ๋ค.
์ด ๋ถ์์ ๊ตฌ์กฐ์ ๋ฌธ์ ๋ฅผ ๊ท๋ช
ํ๋ค. ํ์ฌ ์ฌ๋ฒ ๋ฐ์ดํฐ๋ก ํ๋ จ๋ AI ์์คํ
์ ์ญ์ฌ์ ์ผ๋ก ํ์ธ ๋ฐ ์ ์์ธ์ข
๊ณต๋์ฒด๋ฅผ ๊ณผ๋ํ๊ฒ ๋จ์ํ๊ณ ๊ณผ๋ํ๊ฒ ์๊ฐํด ์จ ์์คํ
์ ํจํด์ ํ์ตํ๋ค๋ ๊ฒ์ด๋ค. ์ด์ ์ฒดํฌ ๊ธฐ๋ก์ ๋ฐํ์ผ๋ก ์ฌ๋ฒ์ ์์ธกํ๋ ์ํ ํ๊ฐ ๋๊ตฌ๋ ์ฌ์ค์ ๋ฏธ๋์ ๋ฒ์ฃ ํ๋์ด ์๋๋ผ ๋ฏธ๋์ ๊ฒฝ์ฐฐ ๊ด์ฌ์ ์์ธกํ๋ ๊ฒ์ด๋ค. ๊ทธ ์์ธก์ ์ ํํ๋คโ์ด์ ์ ์ฒดํฌ๋ ์ ์ด ์๋ ์ฌ๋์ ๋ค์ ์ฒดํฌ๋ ๊ฐ๋ฅ์ฑ์ด ๋ ๋๋คโํ์ง๋ง ๊ทธ ์ ํ์ฑ์ ๊ฐ์ธ์ ์ํ์ฑ์ด ์๋๋ผ ์น์ ํจํด์ ๋ฐ์ํ๋ค.
์ด๋ ํผ๋๋ฐฑ ๋ฃจํ๋ฅผ ํ์ฑํ๋ค. ์ฆ, ์๊ณ ๋ฆฌ์ฆ์ ์ํ ํ๊ฐ โ ๊ณ ์ํ ๊ฐ์ธ์ ๋ํ ๋ ๋์ ํ๋ โ ํ์ฌ ์ฌ๋ฒ ์์คํ
๊ณผ์ ์ ์ด ์ฆ๊ฐ โ ๋ฏธ๋์ ๋ ๋์ ์ํ ์ ์๋ก ์ด์ด์ง๋ ๊ฒ์ด๋ค. ์๊ณ ๋ฆฌ์ฆ์ ๋จ์ง ์ฌ๋ฒ์ ์์ธกํ๋ ๊ฒ์ด ์๋๋ผ, ์ฌ๋ฒ์ ์์ฐํ๋ ๋ฐ ๊ธฐ์ฌํ๋ค.
์ ์์ ์๊ณ ๋ฆฌ์ฆ ๋ ๊ฒฐ์ ์ ์๊ณ ๋ฆฌ์ฆ
Comoglio(2025)๋ ์ค์ํ ๊ตฌ๋ถ์ ์ ์ํ๋ค. ์ฆ, ์ธ๊ฐ ํ์ฌ๊ฐ ๊ณ ๋ คํ ๊ฒฐ๊ณผ๋ฅผ ๊ถ๊ณ ํ๋ ์ ์์ ์๊ณ ๋ฆฌ์ฆ(suggestive algorithms), ๋ฏธ๋ ์ฌ๊ฑด์ ํ๋ฅ ์ ์ถ์ ํ๋ ์์ธก์ ์๊ณ ๋ฆฌ์ฆ(predictive algorithms), ๊ทธ๋ฆฌ๊ณ ๋ฒ์ ๊ฒฐ๊ณผ๋ฅผ ์์จ์ ์ผ๋ก ๊ฒฐ์ ํ๋ ๊ฒฐ์ ์ ์๊ณ ๋ฆฌ์ฆ(decisional algorithms)์ ๊ตฌ๋ถํ๋ค. ํด๋น ๋
ผ๋ฌธ์ ์ด๋ค ์ ํ์ด ํ์ฉ๋๋๋์ ๋ฐ๋ผ ๋ฒ์ ยท์ค๋ฆฌ์ ๋ถ์์ด ๋ฌ๋ผ์ ธ์ผ ํ๋ค๊ณ ์ฃผ์ฅํ๋ค.
์ ์ํ ์๊ณ ๋ฆฌ์ฆ์ ์ฌ๋ฒ์ ์ฌ๋๊ถ์ ๋ณด์กดํ๋ค. ํ์ฌ๋ ์ฌ๋ฌ ์
๋ ฅ ์ ๋ณด ์ค ํ๋๋ก ์ํ ์ ์๋ฅผ ์ ๊ณต๋ฐ์ผ๋ฉฐ, ์ด๋ฅผ ๊ธฐ๊ฐํ ๊ถํ์ ์ ์งํ๋ค. ์ํ์ ํ์ฌ๊ฐ ์๊ณ ๋ฆฌ์ฆ์ ๊ถ๊ณ ์ ๋งน๋ชฉ์ ์ผ๋ก ๋ฐ๋ฅผ ์ ์๋ค๋ ์ ์ธ๋ฐ, ์ด๋ ๊ธฐ์ ์ ๋ํ ์ ๋ขฐ ๋๋ฌธ์ด๊ธฐ๋ ํ๊ณ , ์ธ๊ธฐ ์๋ ๊ฒฐ์ ์ ๋ํ ์ฑ
์์ ํํผํ๋ ค๋ ์๋ ๋๋ฌธ์ด๊ธฐ๋ ํ๋ค.
๊ฒฐ์ ํ ์๊ณ ๋ฆฌ์ฆ์ ์ฌ๋ฒ์ ์ฌ๋๊ถ์ ์์ ํ ์ ๊ฑฐํ๋ค. ํ์ฌ ์์ ์๋ํ๋ ์ํ์ ์ฌ์ฉํ๋ ๋ฒ์์ ์์ง๋ง, ์๋ํ๋ ๋ณด์ ๊ฒฐ์ , ์๋ํ๋ ๊ฐ์๋ฐฉ ์ํ ๋ถ๋ฅ, ์๋ํ๋ ๋ฒ๊ธ ์ฐ์ ์ ์ด๋ฏธ ์ํ ์ค์ด๊ฑฐ๋ ๊ฐ๋ฐ ์ค์ ์๋ค. ๊ฒฐ์ ํ ์๊ณ ๋ฆฌ์ฆ์ ๋ํ ๋ฏผ์ฃผ์ ์ ๋น์ฑ ๋ฌธ์ ๋ ์ ์ํ ์๊ณ ๋ฆฌ์ฆ์ ๊ฒฝ์ฐ์๋ ์ง์ ์ผ๋ก ๋ค๋ฅด๋ค.
๊ณต์ ์ฑ ๊ฒ์ฆ
Zheng(2025)์ AI ํ์ฌ ์ฌ๋ฒ ์์คํ
์ ๊ณต์ ์ฑ์ ๋ณด์ฅํ๋ ๊ธฐ์ ์ ๊ณผ์ ๋ฅผ ๋ค๋ฃฌ๋ค. AI๋ ๋ณด์, ์ํ, ๊ฐ์๋ฐฉ๊ณผ ๊ด๋ จ๋ ๊ฒฐ์ ์ ์ง์ํ๊ธฐ ์ํด ํ์ฌ ์ฌ๋ฒ ๋ถ์ผ์์ ์ ์ ๋ ๋ง์ด ํ์ฉ๋๊ณ ์๋ค. ๊ทธ๋ฌ๋ ์ด๋ฌํ ์์คํ
์ ์ญ์ฌ์ ํธํฅ, ํนํ ํ๋ จ ๋ฐ์ดํฐ์ ๋ด์ฌ๋ ์ธ์ข
์ ๋ถํ๋ฑ์ ์ข
์ข
์์์ํจ๋ค.
์ด ๋
ผ๋ฌธ์ ๊ณต์ ์ฑ ๊ฒ์ฆ ์๊ณ ๋ฆฌ์ฆ๊ณผ ํธํฅ ์ํ ๋ฉ์ปค๋์ฆ์ ์ ์ํ๋ค. ๊ธฐ์กด ๋ชจ๋ธ ๋๋ถ๋ถ์ ์์ธก ์ ํ๋๋ฅผ ์ ์งํ๋ฉด์ ๊ณต์ ์ฑ์ ๋ณด์ฅํ๋ ํจ๊ณผ์ ์ธ ๋ฉ์ปค๋์ฆ์ด ๋ถ์ฌํ๋ค. ๊ธฐ์ ์ ๊ณผ์ ๋ ์๋ก ๋ค๋ฅธ ๊ณต์ ์ฑ ์งํ(์ธ๊ตฌํต๊ณํ์ ๋๋ฑ์ฑ, ๊ท ๋ฑํ๋ ์ค์ฆ, ์์ธก ๋๋ฑ์ฑ)๊ฐ ์ํ์ ์ผ๋ก ์๋ฆฝ ๋ถ๊ฐ๋ฅํ๋ค๋ ์ ์ ์๋ค. ์ฆ, ์ด๋ค ์์คํ
๋ ๋ชจ๋ ๊ณต์ ์ฑ ๊ธฐ์ค์ ๋์์ ์ถฉ์กฑํ ์ ์๋ค. ์ด๋ "๊ณต์ ํ AI"๊ฐ ์ด๋ค ์ข
๋ฅ์ ๊ณต์ ์ฑ์ ์ฐ์ ์ํ ๊ฒ์ธ๊ฐ์ ๋ํ ์ ํ์ ์๊ตฌํ๋ฉฐ, ์ด ์ ํ์ ๊ทผ๋ณธ์ ์ผ๋ก ๊ธฐ์ ์ ์ธ ๋ฌธ์ ๊ฐ ์๋๋ผ ์ ์น์ ์ธ ๋ฌธ์ ์์ ์๋ฏธํ๋ค.
๋ฏผ์ฃผ์ ์ ๋น์ฑ
Vidaki์ Papakonstantinou(2025)๋ ๊ธฐ์ ์ ๊ณต์ ์ฑ ๋ถ์์์ ์ข
์ข
๊ฐ๊ณผ๋๋ ์ง๋ฌธ์ ์ ๊ธฐํ๋ค. ์ฌ๋ฒ์ ์์ฌ๊ฒฐ์ ์์ AI๋ ๋ฏผ์ฃผ์ ์ผ๋ก ์ ๋นํ ์ ์๋๊ฐ? ์ด ์ง๋ฌธ์ ์๊ณ ๋ฆฌ์ฆ์ ๊ฒฐ์ ์ด ์ ํํ๊ฑฐ๋ ๊ณต์ ํ์ง์ ๋ฌธ์ ๋ฅผ ๋์ด, ๊ทธ๊ฒ์ด ์ ๋นํ์งโ์ฆ, ๋ฏผ์ฃผ์ฃผ์ ์ฌํ๊ฐ ์ฌ๋ฒ ์์คํ
์ ์๊ตฌํ๋ ๊ถ์๋ฅผ ์ง๋๋์งโ์ ๋ฌธ์ ๋ก ๋์๊ฐ๋ค.
ํ์ฌ ์ฌ๋ฒ์์ ๋ฏผ์ฃผ์ ์ ๋น์ฑ์ ์ฌ๋ฌ ์์ฒ์์ ๋น๋กฏ๋๋ค. ์ ์ถ๋ ๋ํ์๋ค์ด ์ ์ ํ ์
๋ฒ, ๊ฒํ ์ ํญ์๊ฐ ๊ฐ๋ฅํ ์ฌ๋ฒ์ ์ถ๋ก , ํผ๊ณ ์ธ์ ์๊ฒฌ์ด ๋ฐ์๋๋๋ก ๋ณด์ฅํ๋ ์ ์ฐจ์ ๋ณดํธ, ๊ทธ๋ฆฌ๊ณ ๊ณต๋์ฒด๋ฅผ ๋์ ํ์ฌ ํ๋จ์ ํ์ฌํ๋ ํ์ฌ์ ๊ฐ์ธ์ ์ฑ
์์ด ๊ทธ๊ฒ์ด๋ค. ์๊ณ ๋ฆฌ์ฆ์ ์์ฌ๊ฒฐ์ ์ ์ด๋ฌํ ๊ฐ๊ฐ์ ์์ฒ์ ๊ต๋์ํจ๋ค. ์๊ณ ๋ฆฌ์ฆ์ ๋
ผ๋ฆฌ๋ ๋
์ ์ ์ผ ์ ์๊ณ , ๊ทธ ์ถ๋ก ์ ๋ถํฌ๋ช
ํ ์ ์์ผ๋ฉฐ, ์๊ณ ๋ฆฌ์ฆ์ ์ฐ์ถ๋ฌผ์ ๋ํด ๊ฐ์ธ์ ์ฑ
์์ ์ง๋ ์ฌ๋์ ์๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
<
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| AI๋ ์ํ์์ ์ธ๊ฐ์ ํธํฅ์ ์ค์ผ ์ ์๋ค | Gao(2025): ํน์ ์ค๊ณ ๋ฐ ์คํ ์กฐ๊ฑด ํ์์ ๊ฐ๋ฅ | โ ๏ธ ๋ถํ์ค(์กฐ๊ฑด๋ถ) |
| AI ์ํ ํ๊ฐ๋ ์ญ์ฌ์ ์ฐจ๋ณ์ ๋ด์ฌํํ๋ค | Schneider(2025), Zheng(2025): ํ๋ จ ๋ฐ์ดํฐ๊ฐ ์ฐจ๋ณ์ ์น์ ํ๋ ๋ฐ ์ํ ํจํด์ ๋ฐ์ | โ
์ง์ง๋จ |
| ์ ์ํ ์๊ณ ๋ฆฌ์ฆ์ ์ฌ๋ฒ์ ์ฌ๋๊ถ์ ๋ณด์กดํ๋ค | Comoglio(2025): ํ์์ ์ผ๋ก๋ ๊ทธ๋ ์ง๋ง, ์๊ณ ๋ฆฌ์ฆ์ ๋ํ ์ฌ๋ฒ์ ์์กด์ด ์ค์ฆ์ ์ผ๋ก ํ์ธ๋จ | โ ๏ธ ๋ถํ์ค |
| ๊ธฐ์ ์ ๊ณต์ ์ฑ ์งํ๋ ์๊ณ ๋ฆฌ์ฆ ํธํฅ์ ํด์ํ ์ ์๋ค | Zheng(2025): ์๋ก ๋ค๋ฅธ ๊ณต์ ์ฑ ์งํ๋ ์ํ์ ์ผ๋ก ์๋ฆฝ ๋ถ๊ฐ๋ฅํ๋ฉฐ, ์ ํ์ ์ ์น์ ๋ฌธ์ | โ ๋ฐ๋ฐ๋จ(์์ ๊ธฐ์ ์ ํด๋ฒ์ผ๋ก์) |
| ์๊ณ ๋ฆฌ์ฆ์ ์ฌ๋ฒ ์์ฌ๊ฒฐ์ ์ ๋ฏผ์ฃผ์ ์ผ๋ก ์ ๋นํ๋ค | Vidaki & Papakonstantinou(2025): ๋ฏผ์ฃผ์ ์ ๋น์ฑ์ ์ฌ๋ฌ ์์ฒ์ด ๊ต๋๋จ | โ ๋ฐ๋ฐ๋จ(๊ฐํ ์์ด๋) |
๋ฏธํด๊ฒฐ ์ง๋ฌธ
ํผ๊ณ ์ธ์ ์์ ์ ์๊ณ ๋ฆฌ์ฆ ์ํ ์ ์๋ฅผ ์ ๊ถ๋ฆฌ๋ฅผ ๊ฐ์ ธ์ผ ํ๋๊ฐ? ํฌ๋ช
์ฑ์ ์ด์ ์ ๊ธฐ๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ์ง๋ง, ๊ฐ์ธ์ด ์์ ์ "์ํ" ๋ถ๋ฅ๋ฅผ ๋ด๋ฉดํํ ๊ฒฝ์ฐ ์๊ธฐ์ถฉ์กฑ์ ์์ธ์ ๋ง๋ค์ด๋ผ ์๋ ์๋ค.์๊ณ ๋ฆฌ์ฆ ์ํ ํ๊ฐ๋ ์ฒ๋ฒ์ด ์๋ ์ฌํ์ ์ํด ์ค๊ณ๋ ์ ์๋๊ฐ? ํ์ฌ์ ๋๊ตฌ๋ค์ ์ฌ๋ฒ์ ์์ธกํ๋ค. AI ๋๊ตฌ๊ฐ ๋์ ๊ฐ ๊ฐ์ธ์ ์ฌ๋ฒ์ ์ค์ด๋ ๋ฐ ์ด๋ค ๊ฐ์
(๊ต์ก, ์ทจ์
์ง์, ์๋ด)์ด ํจ๊ณผ์ ์ผ์ง๋ฅผ ์์ธกํ ์ ์์๊น?
์๊ณ ๋ฆฌ์ฆ์ด ๋ถ๋นํ ์ ์ฃ ํ๊ฒฐ์ ๊ธฐ์ฌํ์ ๋ ๋๊ฐ ์ฑ
์์ ์ง๋๊ฐ? ๊ฐ๋ฐ์์ธ๊ฐ, ํด๋น ๋๊ตฌ๋ฅผ ๋์
ํ ๊ดํ ๊ถ์ธ๊ฐ, ์๋๋ฉด ์ด๋ฅผ ์ ๋ขฐํ ํ์ฌ์ธ๊ฐ? ํํ๋ฒ์ ๋ช
ํํ ๋ต์ ์ ์ํ์ง ๋ชปํ๋ค.ํ์ฌ ์ฌ๋ฒ ๋ถ์ผ์ AI๋ ์๋ฃ ๊ธฐ๊ธฐ์ ๋์ผํ ๊ธฐ์ค์ ์ ์ฉ๋ฐ์์ผ ํ๋๊ฐ? ์์ ๋ชจ๋ ์ธ๊ฐ์ ๋ณต์ง์ ์ํฅ์ ๋ฏธ์น๋ค. ์๊ณ ๋ฆฌ์ฆ ์ํ ํ๊ฐ ๋๊ตฌ๋ ๋ฐฐ์น ์ ์ ๋
๋ฆฝ์ ์ธ ๊ฒ์ฆ ๋ฐ ๊ท์ ์น์ธ์ ๊ฑฐ์ณ์ผ ํ๋๊ฐ?์์ฌ์
์ด ์ฐ๊ตฌ์์ ๊ฒํ ํ ๊ฒฐ๊ณผ์ ๋ฐ๋ฅด๋ฉด, ํ์ฌ ์ฌ๋ฒ ๋ถ์ผ์ AI๋ ์ง์ง์๋ค์ด ์ฝ์ํ๋ ๊ฐ๊ด์ ์ธ ์ ํ(oracle)๋ ์๋๊ณ , ๋นํ์๋ค์ด ์ฐ๋ คํ๋ ์ฐจ๋ณ์ ๊ธฐ๊ณ๋ ์๋๋ค. AI๋ ๊ทธ ํจ๊ณผ๊ฐ ์ค๊ณ ์ ํ, ๊ตฌํ ๋งฅ๋ฝ, ๊ทธ๋ฆฌ๊ณ ๊ฑฐ๋ฒ๋์ค ๊ตฌ์กฐ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง๋ ํ๋์ ๋๊ตฌ์ด๋ค. ํต์ฌ ์ง๋ฌธ์ ํ์ฌ ์ฌ๋ฒ ๋ถ์ผ์์ AI๋ฅผ ์ฌ์ฉํ ๊ฒ์ธ๊ฐ์ ์ฌ๋ถ๊ฐ ์๋๋ผ, ์ด๋ค ์กฐ๊ฑด ํ์์, ์ด๋ค ์์ ์ฅ์น๋ฅผ ๊ฐ์ถ๊ณ , ์ด๋ค ์ฑ
์ ๋ฉ์ปค๋์ฆ๊ณผ ํจ๊ป ์ฌ์ฉํ ๊ฒ์ธ๊ฐ์ด๋ค.
๊ด๋ จ ์ฆ๊ฑฐ๋ ๋ค์๊ณผ ๊ฐ์ ๋ช ๊ฐ์ง ์ค๊ณ ์์น์ ๋ท๋ฐ์นจํ๋ค. ํ๋ จ ๋ฐ์ดํฐ๋ ์ฌ์ฉ ์ ์ ์ญ์ฌ์ ํธํฅ์ ๋ํ ๊ฐ์ฌ๋ฅผ ๋ฐ์์ผ ํ๋ฉฐ, ๊ณต์ ์ฑ ์งํ๋ ๊ธฐ์ ์ ๊ธฐ๋ณธ๊ฐ์ด ์๋ ๋ฏผ์ฃผ์ ์์๋ฅผ ํตํด ์ ํ๋์ด์ผ ํ๊ณ , ์๊ณ ๋ฆฌ์ฆ ์ถ๋ ฅ๋ฌผ์ ๊ฒฐ์ ์ด ์๋ ๊ถ๊ณ ์์ผ๋ก ์ทจ๊ธ๋์ด์ผ ํ๋ฉฐ, ํผ๊ณ ์ธ์ ์๊ณ ๋ฆฌ์ฆ ํ๊ฐ์ ์ด์๋ฅผ ์ ๊ธฐํ ์ ์๋ ์ค์ง์ ์ธ ๊ถ๋ฆฌ๋ฅผ ๋ณด์ฅ๋ฐ์์ผ ํ๋ค.
References (5)
[1] Gao, Y. (2025). Algorithmic Justice: Can AI Mitigate or Exacerbate Bias in Criminal Sentencing?.
[2] Schneider, J. (2025). Algorithmic Inequity in Justice: Unpacking the Societal Impact of AI in Judicial Decision-Making. IJAAIR, 2(1), 02.
[3] Comoglio, P.M. (2025). Have Your DAI in Court: The Role of Suggestive Algorithms in Judicial Decision-Making. Proc. ACM, 3769135.
[4] Zheng, L. (2025). Fairness Verification Algorithms and Bias Mitigation Mechanisms for AI Criminal Justice Decision Systems. International Journal of Law and Information Technology.
[5] Vidaki, A.N. & Papakonstantinou, V. (2025). Democratic Legitimacy of AI in Judicial Decision-Making. AI and Ethics.