Methodology GuideAI & Machine LearningMachine/Deep Learning
Conformal Prediction: Distribution-Free Uncertainty That Actually Works
Most ML models give you a prediction but no reliable measure of how wrong it might be. Conformal prediction offers something remarkable: finite-sample coverage guarantees with no distributional assumptions. In 2025, the method is conquering its two remaining weaknessesโdistribution shift and label corruption.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
Every prediction is wrong. The only question is by how muchโand whether the system tells you. Most machine learning models produce point predictions with no reliable indication of their uncertainty. A neural network that predicts tomorrow's stock price at $142.37 gives you no principled way to know whether the true value might be $142 or $120. Bayesian methods offer uncertainty estimates but require distributional assumptions that are routinely violated. Ensemble methods provide heuristic uncertainty but no formal guarantees.
Conformal prediction is different. It provides prediction setsโintervals for regression, collections of labels for classificationโthat are guaranteed to contain the true value with a user-specified probability. Not asymptotically. Not under Gaussian assumptions. Guaranteed in finite samples, for any underlying distribution. The only requirement: exchangeability of the calibration and test data.
In 2025, conformal prediction is transitioning from a theoretical curiosity to a practical tool, as researchers systematically dismantle the two remaining barriers to real-world deployment: distribution shift and data corruption.
The core idea is disarmingly simple. Split your labeled data into training and calibration sets. Train any predictive model on the training set. On the calibration set, compute nonconformity scoresโa measure of how "surprising" each true label is given the model's prediction (e.g., the absolute residual |y - ลท| for regression). Then, for a new test point, construct a prediction set by including all labels whose nonconformity score would be below the (1-ฮฑ) quantile of the calibration scores.
The result: a prediction interval that covers the true value with probability at least (1-ฮฑ), regardless of the model's quality or the data distribution. A bad model produces wide intervals; a good model produces narrow ones. But both provide valid coverage.
This universality is conformal prediction's greatest strength and its most counterintuitive property. It seems too good to be trueโand the catch is the exchangeability requirement. If the calibration data and test data are drawn from different distributions, the coverage guarantee breaks.
Conquering Distribution Shift
Zhang & Zhou tackle the most practically important violation of exchangeability: temporal distribution shift in industrial time series. Manufacturing processes drift over timeโsensor calibration degrades, raw materials change suppliers, equipment ages. A conformal prediction interval calibrated on last month's data may not provide valid coverage for next month's predictions.
Their approach uses adaptive conformal prediction with a dynamic learning rate that tracks the empirical coverage in a sliding window. When coverage drops below the target, the algorithm widens prediction intervals; when coverage exceeds the target, it narrows them. The adaptation is principledโnot heuristicโand they prove that the long-run average coverage converges to the target rate even under continuous drift.
Correia & Louizos propose a more theoretically ambitious solution using optimal transport. Their insight: even when labeled calibration data and unlabeled test data come from different distributions, we can estimate the transport map between them using the unlabeled test features. This map allows reweighting calibration nonconformity scores to reflect the test distribution, restoring approximate coverage guarantees.
The optimal transport approach is particularly elegant because it requires no labels from the test distributionโonly unlabeled features. In many practical settings (deploying a medical model at a new hospital, applying a financial model to a new market), unlabeled data from the target domain is abundant even when labeled data is scarce.
Beyond Standard Settings
Everink et al. extend conformal prediction to inverse imaging problemsโtasks like MRI reconstruction, deblurring, and super-resolution where the goal is to recover a clean image from corrupted observations. These problems involve massive uncertainty (there are infinitely many clean images consistent with a blurry observation), and existing methods provide pixel-level uncertainty maps that are difficult to calibrate.
Their self-supervised approach constructs conformal prediction sets in the image space itself, providing regions of pixel values that are guaranteed to contain the true image with specified probability. The method requires no ground-truth clean images for calibrationโonly the corrupted observationsโmaking it applicable in settings where ground truth is unavailable by definition.
Feldman et al. address a different practical concern: corrupted labels. Real-world datasets contain annotation errorsโmislabeled training examples, missing values, noisy measurements. Standard conformal prediction assumes correct calibration labels and fails silently when this assumption is violated. Their framework provides robust coverage guarantees under specified rates of label corruption, using imputation techniques to handle missing labels and reweighting to handle noisy ones.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| Conformal prediction provides finite-sample coverage guarantees | Mathematical proof under exchangeability; widely replicated | โ
Proven |
| Adaptive methods maintain coverage under temporal drift | Zhang & Zhou demonstrate convergent coverage on industrial data | โ
Supported |
| Optimal transport restores coverage under distribution shift | Correia & Louizos prove approximate coverage bounds | โ
Supported (theoretical) |
| Conformal prediction works for imaging inverse problems | Everink et al. demonstrate on MRI and deblurring | โ
Supported |
| Standard conformal prediction is robust to label noise | Feldman et al. show it fails; their method corrects this | โ Standard CP is not robust; corrected version is |
Open Questions
Conditional coverage: Standard conformal prediction guarantees marginal coverage (averaged over all test points) but not conditional coverage (for specific subgroups). A model might provide valid overall coverage while systematically undercovering rare but important subpopulations. How do we achieve group-conditional coverage without requiring group labels?Prediction set size as a metric: Valid but uninformatively wide prediction sets are useless. The field needs standardized metrics that reward informativeness (narrow sets) alongside validity (correct coverage).Integration with decision-making: Coverage guarantees are stated in terms of prediction accuracy. But decisions depend on costsโand the cost of under-coverage may differ dramatically from the cost of over-coverage. How do we build cost-sensitive conformal prediction?Conformal prediction for generative models: Can we provide coverage guarantees for the outputs of language models or image generators? The high-dimensional, discrete (language) or continuous (image) output spaces present novel challenges.Computational scalability: Full conformal prediction requires retraining the model for every test pointโcomputationally prohibitive for large models. Split conformal prediction is efficient but potentially less powerful. Is there a middle ground?What This Means for Your Research
If you deploy machine learning models in any domain where prediction errors have consequencesโmedicine, finance, engineering, policyโconformal prediction should be in your toolkit. It is the only method that provides genuine coverage guarantees without distributional assumptions.
The 2025 advances address the two objections that previously limited practical adoption: "my data has distribution shift" (solved by adaptive and optimal transport methods) and "my labels are noisy" (solved by robust calibration). The remaining challengeโconditional coverage for subgroupsโis an active research frontier with high practical relevance.
For the broader AI community, conformal prediction embodies a principle that deserves wider adoption: it is better to admit uncertainty honestly than to provide precise predictions that are unreliably calibrated. In a field obsessed with pushing accuracy numbers higher, conformal prediction insists that knowing what you don't know is at least as important as knowing what you do.
๋ฉด์ฑ
์กฐํญ: ์ด ํฌ์คํธ๋ ์ ๋ณด ์ ๊ณต์ ๋ชฉ์ ์ผ๋ก ํ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ๊ตฌ์ฒด์ ์ธ ๋ฐ๊ฒฌ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ๊ณผ ๋์กฐํ์ฌ ๊ฒ์ฆํด์ผ ํ๋ค.
๋ฑ๊ฐ ์์ธก(Conformal Prediction): ์ค์ ๋ก ์๋ํ๋ ๋ถํฌ ๋ฌด๊ฐ์ ๋ถํ์ค์ฑ
๋ชจ๋ ์์ธก์ ํ๋ฆฐ๋ค. ์ ์ผํ ๋ฌธ์ ๋ ์ผ๋ง๋ ํ๋ฆฌ๋๊ฐ, ๊ทธ๋ฆฌ๊ณ ์์คํ
์ด ๊ทธ ์ฌ์ค์ ์๋ ค์ฃผ๋๊ฐ์ด๋ค. ๋๋ถ๋ถ์ ๋จธ์ ๋ฌ๋ ๋ชจ๋ธ์ ๋ถํ์ค์ฑ์ ๋ํ ์ ๋ขฐํ ์ ์๋ ์งํ ์์ด ์ ์์ธก๋ง์ ์์ฑํ๋ค. ๋ด์ผ์ ์ฃผ๊ฐ๋ฅผ $142.37๋ก ์์ธกํ๋ ์ ๊ฒฝ๋ง์ ์ค์ ๊ฐ์ด $142์ผ์ง $120์ผ์ง๋ฅผ ์์น์ ์ผ๋ก ํ๋จํ ์ด๋ ํ ๋ฐฉ๋ฒ๋ ์ ๊ณตํ์ง ์๋๋ค. ๋ฒ ์ด์ฆ ๋ฐฉ๋ฒ๋ก ์ ๋ถํ์ค์ฑ ์ถ์ ์ ์ ๊ณตํ์ง๋ง, ์ผ์์ ์ผ๋ก ์๋ฐ๋๋ ๋ถํฌ ๊ฐ์ ์ ํ์๋ก ํ๋ค. ์์๋ธ ๋ฐฉ๋ฒ์ ํด๋ฆฌ์คํฑํ ๋ถํ์ค์ฑ์ ์ ๊ณตํ์ง๋ง ๊ณต์์ ์ธ ๋ณด์ฅ์ ์๋ค.
๋ฑ๊ฐ ์์ธก์ ๋ค๋ฅด๋ค. ๋ฑ๊ฐ ์์ธก์ ์์ธก ์งํฉโํ๊ท์ ๊ฒฝ์ฐ ๊ตฌ๊ฐ, ๋ถ๋ฅ์ ๊ฒฝ์ฐ ๋ ์ด๋ธ ์งํฉโ์ ์ ๊ณตํ๋ฉฐ, ์ด ์งํฉ์ ์ฌ์ฉ์๊ฐ ์ง์ ํ ํ๋ฅ ๋ก ์ค์ ๊ฐ์ ํฌํจํ๋๋ก ๋ณด์ฅ๋๋ค. ์ ๊ทผ์ ์ผ๋ก ๋ณด์ฅ๋๋ ๊ฒ์ด ์๋๋ค. ๊ฐ์ฐ์์ ๊ฐ์ ํ์์ ๋ณด์ฅ๋๋ ๊ฒ๋ ์๋๋ค. ์์์ ๊ธฐ์ ๋ถํฌ์ ๋ํด ์ ํ ํ๋ณธ์์ ๋ณด์ฅ๋๋ค. ์ ์ผํ ์๊ฑด์ ์บ๋ฆฌ๋ธ๋ ์ด์
๋ฐ์ดํฐ์ ํ
์คํธ ๋ฐ์ดํฐ์ ๊ตํ ๊ฐ๋ฅ์ฑ(exchangeability)์ด๋ค.
2025๋
, ๋ฑ๊ฐ ์์ธก์ ์ด๋ก ์ ํธ๊ธฐ์ฌ์์ ์ค์ฉ์ ๋๊ตฌ๋ก ์ ํ๋๊ณ ์๋ค. ์ฐ๊ตฌ์๋ค์ด ์ค์ธ๊ณ ๋ฐฐํฌ๋ฅผ ๊ฐ๋ก๋ง๋ ๋ ๊ฐ์ง ๋จ์ ์ฅ๋ฒฝ์ธ ๋ถํฌ ๋ณํ์ ๋ฐ์ดํฐ ์ค์ผ์ ์ฒด๊ณ์ ์ผ๋ก ํด๊ฒฐํ๊ณ ์๊ธฐ ๋๋ฌธ์ด๋ค.
๋ถํ ๋ฑ๊ฐ ์์ธก(Split Conformal Prediction)์ ์ฐ์ํจ
ํต์ฌ ์์ด๋์ด๋ ๋๋ ๋งํผ ๋จ์ํ๋ค. ๋ ์ด๋ธ๋ ๋ฐ์ดํฐ๋ฅผ ํ๋ จ ์ธํธ์ ์บ๋ฆฌ๋ธ๋ ์ด์
์ธํธ๋ก ๋ถํ ํ๋ค. ํ๋ จ ์ธํธ์์ ์์์ ์์ธก ๋ชจ๋ธ์ ํ์ต์ํจ๋ค. ์บ๋ฆฌ๋ธ๋ ์ด์
์ธํธ์์ ๋น์์๋ ์ ์(nonconformity scores)๋ฅผ ๊ณ์ฐํ๋ค. ์ด๋ ๋ชจ๋ธ์ ์์ธก์ ๋น์ถ์ด ๊ฐ ์ค์ ๋ ์ด๋ธ์ด ์ผ๋ง๋ "๋๋ผ์ด์ง"๋ฅผ ์ธก์ ํ๋ ์งํ์ด๋ค(์: ํ๊ท์ ๊ฒฝ์ฐ ์ ๋ ์์ฐจ |y - ลท|). ๊ทธ๋ฐ ๋ค์, ์๋ก์ด ํ
์คํธ ํฌ์ธํธ์ ๋ํด, ๋น์์๋ ์ ์๊ฐ ์บ๋ฆฌ๋ธ๋ ์ด์
์ ์์ (1-ฮฑ) ๋ถ์์ ์๋์ ํด๋นํ๋ ๋ชจ๋ ๋ ์ด๋ธ์ ํฌํจํ๋ ์์ธก ์งํฉ์ ๊ตฌ์ฑํ๋ค.
๊ฒฐ๊ณผ๋ ๋ชจ๋ธ์ ํ์ง์ด๋ ๋ฐ์ดํฐ ๋ถํฌ์ ๊ด๊ณ์์ด ์ ์ด๋ (1-ฮฑ)์ ํ๋ฅ ๋ก ์ค์ ๊ฐ์ ํฌํจํ๋ ์์ธก ๊ตฌ๊ฐ์ด๋ค. ์ฑ๋ฅ์ด ๋์ ๋ชจ๋ธ์ ๋์ ๊ตฌ๊ฐ์ ์์ฑํ๊ณ , ์ฑ๋ฅ์ด ์ข์ ๋ชจ๋ธ์ ์ข์ ๊ตฌ๊ฐ์ ์์ฑํ๋ค. ๊ทธ๋ฌ๋ ๋ ๋ค ์ ํจํ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ์ ๊ณตํ๋ค.
์ด ๋ณดํธ์ฑ์ ๋ฑ๊ฐ ์์ธก์ ๊ฐ์ฅ ํฐ ๊ฐ์ ์ด์ ๊ฐ์ฅ ๋ฐ์ง๊ด์ ์ธ ํน์ฑ์ด๋ค. ๋๋ฌด ์ข์์ ์ฌ์ค์ด ์๋ ๊ฒ์ฒ๋ผ ๋ณด์ธ๋ค. ๊ทธ ํจ์ ์ ๊ตํ ๊ฐ๋ฅ์ฑ ์๊ฑด์ด๋ค. ์บ๋ฆฌ๋ธ๋ ์ด์
๋ฐ์ดํฐ์ ํ
์คํธ ๋ฐ์ดํฐ๊ฐ ์๋ก ๋ค๋ฅธ ๋ถํฌ์์ ์ถ์ถ๋๋ฉด ์ปค๋ฒ๋ฆฌ์ง ๋ณด์ฅ์ด ๊นจ์ง๋ค.
๋ถํฌ ๋ณํ ๊ทน๋ณต
Zhang & Zhou๋ ๊ตํ ๊ฐ๋ฅ์ฑ์ ๊ฐ์ฅ ์ค์ง์ ์ผ๋ก ์ค์ํ ์๋ฐ ์ฌ๋ก, ์ฆ ์ฐ์
์ฉ ์๊ณ์ด์์์ ์๊ฐ์ ๋ถํฌ ๋ณํ๋ฅผ ๋ค๋ฃฌ๋ค. ์ ์กฐ ๊ณต์ ์ ์๊ฐ์ด ์ง๋จ์ ๋ฐ๋ผ ๋ณํํ๋คโ์ผ์ ์บ๋ฆฌ๋ธ๋ ์ด์
์ด ์ ํ๋๊ณ , ์์์ฌ ๊ณต๊ธ์
์ฒด๊ฐ ๋ณ๊ฒฝ๋๋ฉฐ, ์ฅ๋น๊ฐ ๋
ธํํ๋๋ค. ์ง๋๋ฌ ๋ฐ์ดํฐ๋ก ์บ๋ฆฌ๋ธ๋ ์ด์
๋ ๋ฑ๊ฐ ์์ธก ๊ตฌ๊ฐ์ ๋ค์ ๋ฌ ์์ธก์ ๋ํด ์ ํจํ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ์ ๊ณตํ์ง ๋ชปํ ์ ์๋ค.
์ด๋ค์ ์ ๊ทผ๋ฒ์ ์ฌ๋ผ์ด๋ฉ ์๋์ฐ ๋ด์์ ์คํ์ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ์ถ์ ํ๋ ๋์ ํ์ต๋ฅ ์ ๊ฐ์ง ์ ์ํ ๋ฑ๊ฐ ์์ธก์ ์ฌ์ฉํ๋ค. ์ปค๋ฒ๋ฆฌ์ง๊ฐ ๋ชฉํ์น ์๋๋ก ๋จ์ด์ง๋ฉด ์๊ณ ๋ฆฌ์ฆ์ ์์ธก ๊ตฌ๊ฐ์ ๋ํ๊ณ , ์ปค๋ฒ๋ฆฌ์ง๊ฐ ๋ชฉํ์น๋ฅผ ์ด๊ณผํ๋ฉด ์ขํ๋ค. ์ด ์ ์์ ํด๋ฆฌ์คํฑ์ด ์๋ ์์น์ ๊ธฐ๋ฐํ๋ฉฐ, ์ง์์ ์ธ ๋ณํ ํ์์๋ ์ฅ๊ธฐ ํ๊ท ์ปค๋ฒ๋ฆฌ์ง๊ฐ ๋ชฉํ ๋น์จ๋ก ์๋ ดํจ์ ์ฆ๋ช
ํ๋ค.
Correia & Louizos๋ ์ต์ ์์ก(optimal transport)์ ์ฌ์ฉํ๋ ๋ณด๋ค ์ด๋ก ์ ์ผ๋ก ์ผ์ฌ์ฐฌ ํด๊ฒฐ์ฑ
์ ์ ์ํ๋ค. ์ด๋ค์ ํต์ฐฐ์ ๋ค์๊ณผ ๊ฐ๋ค: ๋ ์ด๋ธ๋ ์บ๋ฆฌ๋ธ๋ ์ด์
๋ฐ์ดํฐ์ ๋ ์ด๋ธ๋์ง ์์ ํ
์คํธ ๋ฐ์ดํฐ๊ฐ ์๋ก ๋ค๋ฅธ ๋ถํฌ์์ ๋์จ ๊ฒฝ์ฐ์๋, ๋ ์ด๋ธ๋์ง ์์ ํ
์คํธ ํผ์ฒ๋ฅผ ์ฌ์ฉํ์ฌ ๋ ๋ถํฌ ์ฌ์ด์ ์์ก ๋งต์ ์ถ์ ํ ์ ์๋ค. ์ด ๋งต์ ํตํด ์บ๋ฆฌ๋ธ๋ ์ด์
๋น์์๋ ์ ์๋ฅผ ํ
์คํธ ๋ถํฌ์ ๋ง๊ฒ ์ฌ๊ฐ์คํ์ฌ ๊ทผ์ฌ์ ์ธ ์ปค๋ฒ๋ฆฌ์ง ๋ณด์ฅ์ ๋ณต์ํ ์ ์๋ค.
์ต์ ์์ก(optimal transport) ์ ๊ทผ๋ฒ์ ํ
์คํธ ๋ถํฌ๋ก๋ถํฐ ๋ ์ด๋ธ์ด ํ์ ์๊ณ , ๋ ์ด๋ธ์ด ์๋ ํน์ง(feature)๋ง ํ์ํ๋ค๋ ์ ์์ ํนํ ์ฐ์ํ๋ค. ๋ง์ ์ค์ฉ์ ํ๊ฒฝ(์๋ก์ด ๋ณ์์ ์๋ฃ ๋ชจ๋ธ์ ๋ฐฐํฌํ๊ฑฐ๋, ์๋ก์ด ์์ฅ์ ๊ธ์ต ๋ชจ๋ธ์ ์ ์ฉํ๋ ๊ฒฝ์ฐ)์์, ๋ ์ด๋ธ์ด ์๋ ๋ฐ์ดํฐ๊ฐ ๋ถ์กฑํ ๊ฒฝ์ฐ์๋ ํ๊น ๋๋ฉ์ธ์ ๋ ์ด๋ธ ์๋ ๋ฐ์ดํฐ๋ ํ๋ถํ๋ค.
ํ์ค ์ค์ ์ ๋์ด์
Everink ๋ฑ์ ์ํ ์์ธก(conformal prediction)์ ์ญ ์ด๋ฏธ์ง ๋ฌธ์ (inverse imaging problems)โMRI ๋ณต์, ๋ธ๋ฌ ์ ๊ฑฐ(deblurring), ์ดํด์๋(super-resolution)์ฒ๋ผ ์์๋ ๊ด์ธก์ผ๋ก๋ถํฐ ๊นจ๋ํ ์ด๋ฏธ์ง๋ฅผ ๋ณต์ํ๋ ๊ฒ์ด ๋ชฉํ์ธ ์์
โ๋ก ํ์ฅํ๋ค. ์ด๋ฌํ ๋ฌธ์ ๋ค์ ๋ฐฉ๋ํ ๋ถํ์ค์ฑ์ ์๋ฐํ๋ฉฐ(ํ๋ฆฟํ ๊ด์ธก๊ณผ ์ผ์นํ๋ ๊นจ๋ํ ์ด๋ฏธ์ง๊ฐ ๋ฌดํํ ๋ง์ด ์กด์ฌํ๋ค), ๊ธฐ์กด ๋ฐฉ๋ฒ๋ค์ ๋ณด์ ํ๊ธฐ ์ด๋ ค์ด ํฝ์
์์ค์ ๋ถํ์ค์ฑ ๋งต์ ์ ๊ณตํ๋ค.
์ด๋ค์ ์๊ธฐ ์ง๋(self-supervised) ์ ๊ทผ๋ฒ์ ์ด๋ฏธ์ง ๊ณต๊ฐ ์์ฒด์์ ์ํ ์์ธก ์งํฉ์ ๊ตฌ์ฑํ์ฌ, ์ง์ ๋ ํ๋ฅ ๋ก ์ค์ ์ด๋ฏธ์ง๋ฅผ ํฌํจํ๋๋ก ๋ณด์ฅ๋ ํฝ์
๊ฐ์ ์์ญ์ ์ ๊ณตํ๋ค. ์ด ๋ฐฉ๋ฒ์ ๋ณด์ ์ ์ํ ์ ๋ต(ground-truth) ๊นจ๋ํ ์ด๋ฏธ์ง๊ฐ ํ์ ์๊ณ , ์์๋ ๊ด์ธก๋ง์ผ๋ก๋ ์ถฉ๋ถํ์ฌ, ์ ์์ ์ ๋ต์ ๊ตฌํ ์ ์๋ ํ๊ฒฝ์์๋ ์ ์ฉ ๊ฐ๋ฅํ๋ค.
Feldman ๋ฑ์ ๋ ๋ค๋ฅธ ์ค์ฉ์ ๋ฌธ์ ์ธ ์ค์ผ๋ ๋ ์ด๋ธ(corrupted labels)์ ๋ค๋ฃฌ๋ค. ์ค์ ๋ฐ์ดํฐ์
์๋ ์ฃผ์ ์ค๋ฅโ์๋ชป ๋ ์ด๋ธ๋ ํ๋ จ ์์ , ๋๋ฝ๋ ๊ฐ, ์ก์์ด ์๋ ์ธก์ ๊ฐโ๊ฐ ํฌํจ๋์ด ์๋ค. ํ์ค ์ํ ์์ธก์ ์ฌ๋ฐ๋ฅธ ๋ณด์ ๋ ์ด๋ธ์ ๊ฐ์ ํ๋ฉฐ, ์ด ๊ฐ์ ์ด ์๋ฐ๋ ๊ฒฝ์ฐ ์ค๋ฅ๋ฅผ ๋๋ฌ๋ด์ง ์๊ณ ์คํจํ๋ค. ์ด๋ค์ ํ๋ ์์ํฌ๋ ์ง์ ๋ ๋ ์ด๋ธ ์ค์ผ ๋น์จ ํ์์ ๊ฐ๊ฑดํ ์ปค๋ฒ๋ฆฌ์ง ๋ณด์ฅ์ ์ ๊ณตํ๋ฉฐ, ๋๋ฝ๋ ๋ ์ด๋ธ์ ์ฒ๋ฆฌํ๊ธฐ ์ํ ๋์ฒด(imputation) ๊ธฐ๋ฒ๊ณผ ์ก์์ด ์๋ ๋ ์ด๋ธ์ ์ฒ๋ฆฌํ๊ธฐ ์ํ ์ฌ๊ฐ์ค(reweighting) ๊ธฐ๋ฒ์ ์ฌ์ฉํ๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
<
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| ์ํ ์์ธก์ ์ ํ ํ๋ณธ ์ปค๋ฒ๋ฆฌ์ง ๋ณด์ฅ์ ์ ๊ณตํ๋ค | ๊ตํ ๊ฐ๋ฅ์ฑ(exchangeability) ํ์์์ ์ํ์ ์ฆ๋ช
; ๊ด๋ฒ์ํ๊ฒ ์ฌํ๋จ | โ
์ฆ๋ช
๋จ |
| ์ ์ํ ๋ฐฉ๋ฒ์ ์๊ฐ์ ๋๋ฆฌํํธ(temporal drift) ํ์์๋ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ์ ์งํ๋ค | Zhang & Zhou๊ฐ ์ฐ์
๋ฐ์ดํฐ์์ ์๋ ดํ๋ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ์
์ฆํจ | โ
์ง์ง๋จ |
| ์ต์ ์์ก์ ๋ถํฌ ์ด๋(distribution shift) ํ์์๋ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ๋ณต์ํ๋ค | Correia & Louizos๊ฐ ๊ทผ์ฌ ์ปค๋ฒ๋ฆฌ์ง ๊ฒฝ๊ณ๋ฅผ ์ฆ๋ช
ํจ | โ
์ง์ง๋จ (์ด๋ก ์ ) |
| ์ํ ์์ธก์ ์ด๋ฏธ์ง ์ญ ๋ฌธ์ ์ ์ ์ฉ ๊ฐ๋ฅํ๋ค | Everink ๋ฑ์ด MRI์ ๋ธ๋ฌ ์ ๊ฑฐ์์ ์
์ฆํจ | โ
์ง์ง๋จ |
| ํ์ค ์ํ ์์ธก์ ๋ ์ด๋ธ ์ก์์ ๊ฐ๊ฑดํ๋ค | Feldman ๋ฑ์ด ์คํจํจ์ ๋ณด์; ์ด๋ค์ ๋ฐฉ๋ฒ์ด ์ด๋ฅผ ์์ ํจ | โ ํ์ค CP๋ ๊ฐ๊ฑดํ์ง ์์; ์์ ๋ ๋ฒ์ ์ ๊ฐ๊ฑดํจ |
๋ฏธํด๊ฒฐ ๋ฌธ์
์กฐ๊ฑด๋ถ ์ปค๋ฒ๋ฆฌ์ง(conditional coverage): ํ์ค ์ํ ์์ธก์ ์ฃผ๋ณ(marginal) ์ปค๋ฒ๋ฆฌ์ง(๋ชจ๋ ํ
์คํธ ํฌ์ธํธ์ ๋ํ ํ๊ท )๋ฅผ ๋ณด์ฅํ์ง๋ง, ์กฐ๊ฑด๋ถ(conditional) ์ปค๋ฒ๋ฆฌ์ง(ํน์ ํ์ ์ง๋จ์ ๋ํ)๋ ๋ณด์ฅํ์ง ์๋๋ค. ๋ชจ๋ธ์ด ์ ์ฒด์ ์ผ๋ก ์ ํจํ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ์ ๊ณตํ๋ฉด์๋ ๋๋ฌผ์ง๋ง ์ค์ํ ํ์ ์ง๋จ์ ์ฒด๊ณ์ ์ผ๋ก ๊ณผ์ ์ปค๋ฒํ ์ ์๋ค. ๊ทธ๋ฃน ๋ ์ด๋ธ ์์ด๋ ๊ทธ๋ฃน ์กฐ๊ฑด๋ถ ์ปค๋ฒ๋ฆฌ์ง๋ฅผ ๋ฌ์ฑํ๋ ค๋ฉด ์ด๋ป๊ฒ ํด์ผ ํ๋๊ฐ?์งํ๋ก์์ ์์ธก ์งํฉ ํฌ๊ธฐ: ์ ํจํ์ง๋ง ์ง๋์น๊ฒ ๋์ ์์ธก ์งํฉ์ ๋ฌด์ฉํ๋ค. ์ด ๋ถ์ผ์๋ ์ ํจ์ฑ(validity)(์ฌ๋ฐ๋ฅธ ์ปค๋ฒ๋ฆฌ์ง)๊ณผ ํจ๊ป ์ ๋ณด์ฑ(informativeness)(์ข์ ์งํฉ)์ ๋ณด์์ ์ฃผ๋ ํ์คํ๋ ์งํ๊ฐ ํ์ํ๋ค.์์ฌ๊ฒฐ์ ๊ณผ์ ํตํฉ: ์ปค๋ฒ๋ฆฌ์ง ๋ณด์ฅ์ ์์ธก ์ ํ๋์ ๊ด์ ์์ ๋ช
์๋๋ค. ๊ทธ๋ฌ๋ ์์ฌ๊ฒฐ์ ์ ๋น์ฉ(costs)์ ์์กดํ๋ฉฐ, ๊ณผ์ ์ปค๋ฒ๋ฆฌ์ง์ ๋น์ฉ์ ๊ณผ๋ ์ปค๋ฒ๋ฆฌ์ง์ ๋น์ฉ๊ณผ ๊ทน์ ์ผ๋ก ๋ค๋ฅผ ์ ์๋ค. ๋น์ฉ ๋ฏผ๊ฐ ์ํ ์์ธก(cost-sensitive conformal prediction)์ ์ด๋ป๊ฒ ๊ตฌ์ถํ ์ ์๋๊ฐ?์์ฑ ๋ชจ๋ธ์ ์ํ ์ํ ์์ธก: ์ธ์ด ๋ชจ๋ธ์ด๋ ์ด๋ฏธ์ง ์์ฑ ๋ชจ๋ธ์ ์ถ๋ ฅ์ ๋ํ ์ปค๋ฒ๋ฆฌ์ง ๋ณด์ฅ์ ์ ๊ณตํ ์ ์๋๊ฐ? ๊ณ ์ฐจ์์ ์ด์ฐ์ (์ธ์ด) ๋๋ ์ฐ์์ (์ด๋ฏธ์ง) ์ถ๋ ฅ ๊ณต๊ฐ์ ์๋ก์ด ๋์ ๊ณผ์ ๋ฅผ ์ ์ํ๋ค.๊ณ์ฐ ํ์ฅ์ฑ(computational scalability): ์์ ์ํ ์์ธก(full conformal prediction)์ ๋ชจ๋ ํ
์คํธ ํฌ์ธํธ์ ๋ํด ๋ชจ๋ธ์ ์ฌํ๋ จํด์ผ ํ๋ฉฐ, ์ด๋ ๋ํ ๋ชจ๋ธ์ ๋ํด ๊ณ์ฐ์ ์ผ๋ก ๊ธ์ง์ ์ด๋ค. ๋ถํ ์ํ ์์ธก(split conformal prediction)์ ํจ์จ์ ์ด์ง๋ง ์ ์ฌ์ ์ผ๋ก ์ฑ๋ฅ์ด ๋ฎ๋ค. ์ค๊ฐ ์ง์ ์ด ์กด์ฌํ๋๊ฐ?์ฐ๊ตฌ์ ๋ํ ์์ฌ์
์์ธก ์ค๋ฅ๊ฐ ๊ฒฐ๊ณผ์ ์ํฅ์ ๋ฏธ์น๋ ๋๋ฉ์ธโ์ํ, ๊ธ์ต, ๊ณตํ, ์ ์ฑ
โ์์ ๋จธ์ ๋ฌ๋ ๋ชจ๋ธ์ ๋ฐฐํฌํ๋ค๋ฉด, ์ปจํฌ๋ฉ ์์ธก(conformal prediction)์ ๋ฐ๋์ ๊ฐ์ถ์ด์ผ ํ ๋๊ตฌ์ด๋ค. ์ด๋ ๋ถํฌ ๊ฐ์ ์์ด
์ง์ ํ ์ปค๋ฒ๋ฆฌ์ง ๋ณด์ฅ์ ์ ๊ณตํ๋ ์ ์ผํ ๋ฐฉ๋ฒ์ด๋ค.
2025๋
์ ๋ฐ์ ์ ์ด์ ์ ์ค์ฉ์ ๋์
์ ์ ํํ๋ ๋ ๊ฐ์ง ์ด์๋ฅผ ํด๊ฒฐํ๋ค: "๋ด ๋ฐ์ดํฐ์ ๋ถํฌ ์ด๋(distribution shift)์ด ์๋ค"(์ ์ํ ๋ฐ ์ต์ ์ด์ก(optimal transport) ๋ฐฉ๋ฒ์ผ๋ก ํด๊ฒฐ)์ "๋ด ๋ ์ด๋ธ์ ๋
ธ์ด์ฆ๊ฐ ์๋ค"(๊ฐ๊ฑดํ ๋ณด์ (robust calibration)์ผ๋ก ํด๊ฒฐ). ๋จ์ ๊ณผ์ ์ธ ์๋ธ๊ทธ๋ฃน์ ๋ํ ์กฐ๊ฑด๋ถ ์ปค๋ฒ๋ฆฌ์ง(conditional coverage)๋ ์ค์ง์ ๊ด๋ จ์ฑ์ด ๋์ ํ๋ฐํ ์ฐ๊ตฌ ๋ถ์ผ์ด๋ค.
๋ ๋์ AI ์ปค๋ฎค๋ํฐ์ ์์ด, ์ปจํฌ๋ฉ ์์ธก์ ๋ ๋๋ฆฌ ์ฑํ๋ ๋งํ ์์น์ ๊ตฌํํ๋ค: ๋ถํ์ค์ฑ์ ์์งํ๊ฒ ์ธ์ ํ๋ ๊ฒ์ด, ์ ๋ขฐํ ์ ์์ด ๋ณด์ ๋ ์ ๋ฐํ ์์ธก์ ์ ๊ณตํ๋ ๊ฒ๋ณด๋ค ๋ซ๋ค. ์ ํ๋ ์์น๋ฅผ ๋์ด๋ ๋ฐ ์ง์ฐฉํ๋ ๋ถ์ผ์์, ์ปจํฌ๋ฉ ์์ธก์ ๋ชจ๋ฅด๋ ๊ฒ์ ์๋ ๊ฒ์ด ์๋ ๊ฒ์ ์๋ ๊ฒ๋งํผ ์ค์ํ๋ค๊ณ ์ฃผ์ฅํ๋ค.
References (4)
[1] Zhang, R. & Zhou, P. (2025). Uncertainty Quantification Based on Conformal Prediction for Industrial Time Series With Distribution Shift. IEEE TII.
[2] Correia, A. & Louizos, C. (2025). Non-exchangeable Conformal Prediction with Optimal Transport. arXiv:2507.10425.
[3] Everink, J., Tamo Amougou, B., Pereyra, M. (2025). Self-supervised Conformal Prediction for Uncertainty Quantification in Imaging Problems. arXiv:2502.05127.
[4] Feldman, S., Bates, S., Romano, Y. (2025). Conformal Prediction with Corrupted Labels. arXiv:2505.04733.