Paper ReviewComputer SystemsExperimental Design
Gigapixel Pathology at Scale: Distributed Computing for Whole-Slide Image Analysis
A single whole-slide pathology image can exceed 10 gigapixelsโfar too large for any single GPU to process. ComPRePS 2.0 demonstrates how HPC clusters can process these images in parallel, enabling computational pathology at the scale needed for population-level cancer screening.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
The digitization of pathology has created a data challenge unlike anything else in medicine. A single whole-slide image (WSI)โa microscopy scan of a tissue sample at diagnostic resolutionโtypically contains 1 to 10 gigapixels, with large specimens at 40ร magnification reaching 10 gigapixels or more. A moderate-sized hospital generates thousands of WSIs daily. A national cancer screening program processes millions annually.
Processing these images with AIโdetecting cancer cells, grading tumors, quantifying biomarkersโrequires computational resources that no single machine can provide. A single WSI may take minutes to process on a high-end GPU; multiplied by thousands or millions of images, the total computation is enormous. The bottleneck is not the AI model (which is relatively compact) but the data pipeline: reading multi-gigabyte image files, tiling them into processable patches, distributing patches across compute nodes, running inference, and aggregating results back into slide-level predictions.
Kumar et al.'s ComPRePS 2.0 tackles this pipeline challenge head-on, demonstrating how HPC clusters can be organized to process histopathological data at the scale required for clinical deployment.
The Data Pipeline Challenge
Processing a WSI with AI involves a pipeline that is I/O-intensive, compute-intensive, and coordination-intensive in roughly equal measure:
Reading: WSIs are stored in pyramidal formats (SVS, NDPI, MRXS) where the full-resolution image is accompanied by lower-resolution overview layers. Reading the full-resolution layer requires streaming gigabytes of compressed image data from storageโa process that is often storage-bandwidth-limited rather than compute-limited.
Tiling: The full-resolution image is divided into overlapping tiles (typically 256ร256 or 512ร512 pixels) that can be processed independently by the AI model. A single WSI may produce 50,000 to 200,000 tiles. Managing this tile setโtracking coordinates, handling overlap regions, maintaining tissue masks to skip background tilesโrequires careful bookkeeping.
Inference: Each tile is processed by a deep learning model that classifies tissue type, detects cellular features, or segments structures. Individual tile inference is fast (milliseconds on a GPU), but the volume of tiles makes total inference time substantial.
Aggregation: Tile-level predictions must be aggregated into slide-level resultsโcombining thousands of tile predictions into a single diagnosis, tumor grade, or biomarker quantification. The aggregation logic must handle tile boundaries (features that span multiple tiles) and spatial context (a cluster of positive tiles is more significant than isolated positives).
The ComPRePS 2.0 Architecture
ComPRePS 2.0 distributes this pipeline across an HPC cluster with three key design decisions:
Task-level parallelism: Each WSI is processed as an independent task. Tasks are distributed across cluster nodes by a job scheduler that balances load and respects resource constraints (GPU memory, storage bandwidth).
Pipeline parallelism within tasks: Within a single WSI, the read-tile-infer-aggregate stages overlap: while one batch of tiles is being processed by the GPU, the next batch is being read and tiled by the CPU, and the previous batch's results are being aggregated. This pipelining hides I/O latency behind compute time.
Storage optimization: WSIs are pre-processed to extract tissue masks and tile coordinates before the inference phase begins. This pre-processing can be done once and cached, avoiding redundant computation when the same slide is processed with different AI models.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| WSI processing is computationally intensive at clinical scale | Data volume analysis for hospital and population-scale pathology | โ
Well-documented |
| HPC clusters can parallelize WSI processing effectively | ComPRePS 2.0 demonstrates parallel processing across cluster nodes | โ
Supported |
| Pipeline parallelism hides I/O latency | Overlapping read/compute/aggregate stages demonstrated | โ
Supported |
| Current computational pathology systems meet clinical throughput requirements | Processing speed depends on cluster size and model complexity | โ ๏ธ Achievable but resource-intensive |
Open Questions
Real-time pathology: Can computational pathology achieve fast enough turnaround for intra-operative consultationโwhere a surgeon waits for a diagnosis while the patient is on the operating table? This requires processing in minutes, not hours.Cloud vs. on-premises: Clinical data governance often requires processing within the hospital network. Should computational pathology run on cloud HPC (scalable but raises data sovereignty concerns) or on-premises clusters (secure but limited in scale)?Multi-stain integration: Pathologists use multiple staining techniques (H&E, IHC, special stains) on consecutive tissue sections. AI systems that integrate multi-stain information require cross-slide registrationโaligning images from different stains of adjacent tissue sectionsโwhich adds geometric complexity to the processing pipeline.Quality control: Not all WSIs are suitable for AI analysisโout-of-focus regions, tissue folds, air bubbles, and staining artifacts can cause incorrect predictions. Automated quality control that detects and flags problematic regions before inference improves reliability but adds processing overhead.What This Means for Your Research
For computational pathology researchers, the systems infrastructure for processing WSIs at scale is as important as the AI models that analyze them. A model that achieves 99% accuracy on a curated benchmark but cannot process a hospital's daily slide volume is not clinically useful. ComPRePS 2.0 demonstrates that the infrastructure challenge is solvable with careful pipeline design.
For HPC researchers, digital pathology provides a domain with clear throughput requirements, well-defined pipeline stages, and enormous data volumesโcharacteristics that map well onto HPC cluster architectures. The challenge of processing petabytes of image data with AI models is shared with satellite remote sensing, genomics, and other data-intensive scientific domains.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ํน์ ๋ฐ๊ฒฌ, ํต๊ณ, ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๋ฐ๋์ ํ์ธํด์ผ ํ๋ค.
๋๊ท๋ชจ ๊ธฐ๊ฐํฝ์
๋ณ๋ฆฌํ: ์ ์ฒด ์ฌ๋ผ์ด๋ ์ด๋ฏธ์ง ๋ถ์์ ์ํ ๋ถ์ฐ ์ปดํจํ
๋ณ๋ฆฌํ์ ๋์งํธํ๋ ์ํ ๋ถ์ผ์์ ์ ๋ก์๋ ๋ฐ์ดํฐ ์ฒ๋ฆฌ ๊ณผ์ ๋ฅผ ๋ง๋ค์ด๋๋ค. ๋จ์ผ ์ ์ฒด ์ฌ๋ผ์ด๋ ์ด๋ฏธ์ง(WSI)โ์ง๋จ ํด์๋๋ก ์กฐ์ง ์ํ์ ์ค์บํ ํ๋ฏธ๊ฒฝ ์ด๋ฏธ์งโ๋ ์ผ๋ฐ์ ์ผ๋ก 1~10 ๊ธฐ๊ฐํฝ์
์ ํฌํจํ๋ฉฐ, 40ร ๋ฐฐ์จ์ ๋ํ ํ๋ณธ์ 10 ๊ธฐ๊ฐํฝ์
์ด์์ ๋ฌํ๊ธฐ๋ ํ๋ค. ์ค๊ฐ ๊ท๋ชจ์ ๋ณ์์ ํ๋ฃจ์ ์์ฒ ์ฅ์ WSI๋ฅผ ์์ฑํ๋ฉฐ, ๊ตญ๊ฐ ์ ๊ฒ์ง ํ๋ก๊ทธ๋จ์ ์ฐ๊ฐ ์๋ฐฑ๋ง ์ฅ์ ์ฒ๋ฆฌํ๋ค.
์์ธํฌ ํ์ง, ์ข
์ ๋ฑ๊ธ ๋ถ๋ฅ, ๋ฐ์ด์ค๋ง์ปค ์ ๋ํ ๋ฑ AI๋ฅผ ์ด์ฉํ ์ด๋ฏธ์ง ์ฒ๋ฆฌ์๋ ๋จ์ผ ์ฅ๋น๋ก๋ ๊ฐ๋นํ ์ ์๋ ์ปดํจํ
์์์ด ํ์ํ๋ค. ๋จ์ผ WSI๋ฅผ ๊ณ ์ฑ๋ฅ GPU์์ ์ฒ๋ฆฌํ๋ ๋ฐ ์ ๋ถ์ด ์์๋ ์ ์์ผ๋ฉฐ, ์ด๋ฅผ ์์ฒ~์๋ฐฑ๋ง ์ฅ์ผ๋ก ๊ณฑํ๋ฉด ์ ์ฒด ์ฐ์ฐ๋์ ๋ฐฉ๋ํด์ง๋ค. ๋ณ๋ชฉ ์ง์ ์ AI ๋ชจ๋ธ(์๋์ ์ผ๋ก ์๊ท๋ชจ) ์์ฒด๊ฐ ์๋๋ผ ๋ฐ์ดํฐ ํ์ดํ๋ผ์ธ์ ์๋ค. ์ฆ, ์ ๊ธฐ๊ฐ๋ฐ์ดํธ์ ๋ฌํ๋ ์ด๋ฏธ์ง ํ์ผ ์ฝ๊ธฐ, ์ฒ๋ฆฌ ๊ฐ๋ฅํ ํจ์น๋ก์ ํ์ผ๋ง, ์ปดํจํ
๋
ธ๋ ๊ฐ ํจ์น ๋ถ์ฐ, ์ถ๋ก ์ํ, ๊ทธ๋ฆฌ๊ณ ์ฌ๋ผ์ด๋ ์์ค์ ์์ธก์ผ๋ก์ ๊ฒฐ๊ณผ ์ง๊ณ๊ฐ ๊ทธ๊ฒ์ด๋ค.
Kumar et al.์ ComPRePS 2.0์ ์ด ํ์ดํ๋ผ์ธ ๊ณผ์ ์ ์ ๋ฉด์ผ๋ก ๋์ ํ์ฌ, ์์ ๋ฐฐํฌ์ ํ์ํ ๊ท๋ชจ๋ก ์กฐ์ง๋ณ๋ฆฌํ ๋ฐ์ดํฐ๋ฅผ ์ฒ๋ฆฌํ๊ธฐ ์ํด HPC ํด๋ฌ์คํฐ๋ฅผ ๊ตฌ์ฑํ๋ ๋ฐฉ๋ฒ์ ์ ์ํ๋ค.
๋ฐ์ดํฐ ํ์ดํ๋ผ์ธ ๊ณผ์
AI๋ฅผ ํ์ฉํ WSI ์ฒ๋ฆฌ๋ ๋๋ต ๋๋ฑํ ๋น์ค์ผ๋ก I/O ์ง์ฝ์ , ์ปดํจํ
์ง์ฝ์ , ์กฐ์ ์ง์ฝ์ ์ธ ํ์ดํ๋ผ์ธ์ ํฌํจํ๋ค.
์ฝ๊ธฐ: WSI๋ ํผ๋ผ๋ฏธ๋ํ ํฌ๋งท(SVS, NDPI, MRXS)์ผ๋ก ์ ์ฅ๋๋ฉฐ, ์ ์ฒด ํด์๋ ์ด๋ฏธ์ง์ ๋ฎ์ ํด์๋์ ๊ฐ์ ๋ ์ด์ด๊ฐ ํจ๊ป ํฌํจ๋๋ค. ์ ์ฒด ํด์๋ ๋ ์ด์ด๋ฅผ ์ฝ์ผ๋ ค๋ฉด ์ ์ฅ์์์ ์ ๊ธฐ๊ฐ๋ฐ์ดํธ์ ์์ถ๋ ์ด๋ฏธ์ง ๋ฐ์ดํฐ๋ฅผ ์คํธ๋ฆฌ๋ฐํด์ผ ํ๋ฉฐ, ์ด ๊ณผ์ ์ ์ปดํจํ
๋ณด๋ค ์ ์ฅ์ ๋์ญํญ์ ์ํด ๋ณ๋ชฉ์ด ๋ฐ์ํ๋ ๊ฒฝ์ฐ๊ฐ ๋ง๋ค.
ํ์ผ๋ง: ์ ์ฒด ํด์๋ ์ด๋ฏธ์ง๋ AI ๋ชจ๋ธ์ด ๋
๋ฆฝ์ ์ผ๋ก ์ฒ๋ฆฌํ ์ ์๋ ์ค์ฒฉ ํ์ผ(์ผ๋ฐ์ ์ผ๋ก 256ร256 ๋๋ 512ร512 ํฝ์
)๋ก ๋ถํ ๋๋ค. ๋จ์ผ WSI๋ 50,000~200,000๊ฐ์ ํ์ผ์ ์์ฑํ ์ ์๋ค. ์ขํ ์ถ์ , ์ค์ฒฉ ์์ญ ์ฒ๋ฆฌ, ๋ฐฐ๊ฒฝ ํ์ผ์ ๊ฑด๋๋ฐ๊ธฐ ์ํ ์กฐ์ง ๋ง์คํฌ ์ ์ง ๋ฑ ์ด ํ์ผ ์งํฉ์ ๊ด๋ฆฌํ๋ ค๋ฉด ์ธ์ฌํ ๊ธฐ๋ก ๊ด๋ฆฌ๊ฐ ํ์ํ๋ค.
์ถ๋ก : ๊ฐ ํ์ผ์ ์กฐ์ง ์ ํ์ ๋ถ๋ฅํ๊ฑฐ๋ ์ธํฌ ํน์ง์ ํ์งํ๊ฑฐ๋ ๊ตฌ์กฐ๋ฅผ ๋ถํ ํ๋ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ์ํด ์ฒ๋ฆฌ๋๋ค. ๊ฐ๋ณ ํ์ผ ์ถ๋ก ์ ๋น ๋ฅด์ง๋ง(GPU์์ ๋ฐ๋ฆฌ์ด ๋จ์), ํ์ผ์ ์์ด ๋ง์ ์ด ์ถ๋ก ์๊ฐ์ ์๋นํ ๊ธธ์ด์ง๋ค.
์ง๊ณ: ํ์ผ ์์ค์ ์์ธก์ ์ฌ๋ผ์ด๋ ์์ค์ ๊ฒฐ๊ณผ๋ก ์ง๊ณ๋์ด์ผ ํ๋ค. ์์ฒ ๊ฐ์ ํ์ผ ์์ธก์ ๋จ์ผ ์ง๋จ, ์ข
์ ๋ฑ๊ธ, ๋๋ ๋ฐ์ด์ค๋ง์ปค ์ ๋ํ๋ก ํตํฉํ๋ ๊ฒ์ด๋ค. ์ง๊ณ ๋ก์ง์ ํ์ผ ๊ฒฝ๊ณ(์ฌ๋ฌ ํ์ผ์ ๊ฑธ์ณ ์๋ ํน์ง)์ ๊ณต๊ฐ์ ๋งฅ๋ฝ(์์ฑ ํ์ผ์ ๊ตฐ์ง์ ๊ณ ๋ฆฝ๋ ์์ฑ๋ณด๋ค ๋ ํฐ ์๋ฏธ๋ฅผ ๊ฐ์ง)์ ์ฒ๋ฆฌํด์ผ ํ๋ค.
ComPRePS 2.0 ์ํคํ
์ฒ
ComPRePS 2.0์ ์ธ ๊ฐ์ง ํต์ฌ ์ค๊ณ ๊ฒฐ์ ์ ํตํด ์ด ํ์ดํ๋ผ์ธ์ HPC ํด๋ฌ์คํฐ์ ๋ถ์ฐํ๋ค.
ํ์คํฌ ์์ค ๋ณ๋ ฌ์ฑ: ๊ฐ WSI๋ ๋
๋ฆฝ์ ์ธ ํ์คํฌ๋ก ์ฒ๋ฆฌ๋๋ค. ํ์คํฌ๋ ๋ถํ๋ฅผ ๊ท ํ ์๊ฒ ์กฐ์ ํ๊ณ ์์ ์ ์ฝ(GPU ๋ฉ๋ชจ๋ฆฌ, ์ ์ฅ์ ๋์ญํญ)์ ์ค์ํ๋ ์์
์ค์ผ์ค๋ฌ์ ์ํด ํด๋ฌ์คํฐ ๋
ธ๋์ ๋ถ์ฐ๋๋ค.
ํ์คํฌ ๋ด ํ์ดํ๋ผ์ธ ๋ณ๋ ฌ์ฑ: ๋จ์ผ WSI ๋ด์์ ์ฝ๊ธฐ-ํ์ผ๋ง-์ถ๋ก -์ง๊ณ ๋จ๊ณ๊ฐ ์ค์ฒฉ๋๋ค. GPU๊ฐ ํ ๋ฐฐ์น์ ํ์ผ์ ์ฒ๋ฆฌํ๋ ๋์ CPU๋ ๋ค์ ๋ฐฐ์น๋ฅผ ์ฝ๊ณ ํ์ผ๋งํ๋ฉฐ, ์ด์ ๋ฐฐ์น์ ๊ฒฐ๊ณผ๋ ์ง๊ณ๋๋ค. ์ด๋ฌํ ํ์ดํ๋ผ์ด๋์ I/O ์ง์ฐ์ ์ปดํจํ
์๊ฐ ๋ค์ ์จ๊ธด๋ค.
์ ์ฅ์ ์ต์ ํ: WSI๋ ์ถ๋ก ๋จ๊ณ๊ฐ ์์๋๊ธฐ ์ ์ ์กฐ์ง ๋ง์คํฌ์ ํ์ผ ์ขํ๋ฅผ ์ถ์ถํ๊ธฐ ์ํด ์ ์ฒ๋ฆฌ๋๋ค. ์ด ์ ์ฒ๋ฆฌ๋ ํ ๋ฒ ์ํํ์ฌ ์บ์ฑํ ์ ์์ผ๋ฏ๋ก, ๋์ผํ ์ฌ๋ผ์ด๋๋ฅผ ์๋ก ๋ค๋ฅธ AI ๋ชจ๋ธ๋ก ์ฒ๋ฆฌํ ๋ ์ค๋ณต ์ฐ์ฐ์ ๋ฐฉ์งํ๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| WSI ์ฒ๋ฆฌ๋ ์์ ๊ท๋ชจ์์ ๊ณ์ฐ ์ง์ฝ์ ์ด๋ค | ๋ณ์ ๋ฐ ์ธ๊ตฌ ๊ท๋ชจ ๋ณ๋ฆฌํ์ ์ํ ๋ฐ์ดํฐ ๋ณผ๋ฅจ ๋ถ์ | โ
์ถฉ๋ถํ ์
์ฆ๋จ |
| HPC ํด๋ฌ์คํฐ๋ WSI ์ฒ๋ฆฌ๋ฅผ ํจ๊ณผ์ ์ผ๋ก ๋ณ๋ ฌํํ ์ ์๋ค | ComPRePS 2.0์ด ํด๋ฌ์คํฐ ๋
ธ๋ ์ ๋ฐ์ ๊ฑธ์น ๋ณ๋ ฌ ์ฒ๋ฆฌ๋ฅผ ์์ฐ | โ
์ง์ง๋จ |
| ํ์ดํ๋ผ์ธ ๋ณ๋ ฌ ์ฒ๋ฆฌ๋ I/O ์ง์ฐ์ ์จ๊ธด๋ค | ์ฝ๊ธฐ/๊ณ์ฐ/์ง๊ณ ๋จ๊ณ์ ์ค์ฒฉ์ด ์์ฐ๋จ | โ
์ง์ง๋จ |
| ํ์ฌ ๊ณ์ฐ ๋ณ๋ฆฌํ ์์คํ
์ ์์ ์ฒ๋ฆฌ๋ ์๊ตฌ ์ฌํญ์ ์ถฉ์กฑํ๋ค | ์ฒ๋ฆฌ ์๋๋ ํด๋ฌ์คํฐ ํฌ๊ธฐ ๋ฐ ๋ชจ๋ธ ๋ณต์ก๋์ ๋ฐ๋ผ ๋ฌ๋ผ์ง๋ค | โ ๏ธ ๋ฌ์ฑ ๊ฐ๋ฅํ๋ ์์ ์ง์ฝ์ |
๋ฏธํด๊ฒฐ ๋ฌธ์
์ค์๊ฐ ๋ณ๋ฆฌํ: ๊ณ์ฐ ๋ณ๋ฆฌํ์ ์์ ์ค ํ์งโ์ธ๊ณผ์๊ฐ ํ์๊ฐ ์์ ๋ ์์ ์๋ ๋์ ์ง๋จ์ ๊ธฐ๋ค๋ฆฌ๋ ์ํฉโ์ ์ถฉ๋ถํ ๋น ๋ฅธ ์ฒ๋ฆฌ ์๊ฐ์ ๋ฌ์ฑํ ์ ์๋๊ฐ? ์ด๋ ๋ช ์๊ฐ์ด ์๋ ๋ช ๋ถ ๋ด์ ์ฒ๋ฆฌ๋ฅผ ํ์๋ก ํ๋ค.ํด๋ผ์ฐ๋ ๋ ์จํ๋ ๋ฏธ์ค: ์์ ๋ฐ์ดํฐ ๊ฑฐ๋ฒ๋์ค๋ ๋ณ์ ๋คํธ์ํฌ ๋ด์์์ ์ฒ๋ฆฌ๋ฅผ ์๊ตฌํ๋ ๊ฒฝ์ฐ๊ฐ ๋ง๋ค. ๊ณ์ฐ ๋ณ๋ฆฌํ์ ํด๋ผ์ฐ๋ HPC(ํ์ฅ ๊ฐ๋ฅํ์ง๋ง ๋ฐ์ดํฐ ์ฃผ๊ถ ์ฐ๋ ค๋ฅผ ์ผ๊ธฐํจ)์์ ์คํ๋์ด์ผ ํ๋๊ฐ, ์๋๋ฉด ์จํ๋ ๋ฏธ์ค ํด๋ฌ์คํฐ(์์ ํ์ง๋ง ๊ท๋ชจ๊ฐ ์ ํ๋จ)์์ ์คํ๋์ด์ผ ํ๋๊ฐ?๋ค์ค ์ผ์ ํตํฉ: ๋ณ๋ฆฌํ์๋ค์ ์ฐ์ ์กฐ์ง ์ ํธ์ ๋ค์ค ์ผ์ ๊ธฐ๋ฒ(H&E, IHC, ํน์ ์ผ์)์ ์ฌ์ฉํ๋ค. ๋ค์ค ์ผ์ ์ ๋ณด๋ฅผ ํตํฉํ๋ AI ์์คํ
์ ์ธ์ ์กฐ์ง ์ ํธ์ ์๋ก ๋ค๋ฅธ ์ผ์์ผ๋ก๋ถํฐ ํ๋ํ ์ด๋ฏธ์ง๋ฅผ ์ ๋ ฌํ๋ ์ฌ๋ผ์ด๋ ๊ฐ ๋ ์ง์คํธ๋ ์ด์
์ ํ์๋ก ํ๋ฉฐ, ์ด๋ ์ฒ๋ฆฌ ํ์ดํ๋ผ์ธ์ ๊ธฐํํ์ ๋ณต์ก์ฑ์ ์ถ๊ฐํ๋ค.ํ์ง ๊ด๋ฆฌ: ๋ชจ๋ WSI๊ฐ AI ๋ถ์์ ์ ํฉํ ๊ฒ์ ์๋๋คโ์ด์ ์ด ๋ฒ์ด๋ ์์ญ, ์กฐ์ง ์ฃผ๋ฆ, ๊ธฐํฌ, ์ผ์ ์ํฐํฉํธ๋ ๋ถ์ ํํ ์์ธก์ ์ ๋ฐํ ์ ์๋ค. ์ถ๋ก ์ ์ ๋ฌธ์ ๊ฐ ์๋ ์์ญ์ ๊ฐ์งํ๊ณ ํ๋๊ทธ๋ฅผ ์ง์ ํ๋ ์๋ํ๋ ํ์ง ๊ด๋ฆฌ๋ ์ ๋ขฐ์ฑ์ ํฅ์์ํค์ง๋ง ์ฒ๋ฆฌ ์ค๋ฒํค๋๋ฅผ ์ถ๊ฐํ๋ค.์ฐ๊ตฌ์ ์ฃผ๋ ์์ฌ์
๊ณ์ฐ ๋ณ๋ฆฌํ ์ฐ๊ตฌ์๋ค์๊ฒ ์์ด, ๋๊ท๋ชจ WSI ์ฒ๋ฆฌ๋ฅผ ์ํ ์์คํ
์ธํ๋ผ๋ ์ด๋ฅผ ๋ถ์ํ๋ AI ๋ชจ๋ธ๋งํผ ์ค์ํ๋ค. ์์ ๋ ๋ฒค์น๋งํฌ์์ 99% ์ ํ๋๋ฅผ ๋ฌ์ฑํ์ง๋ง ๋ณ์์ ์ผ์ผ ์ฌ๋ผ์ด๋ ์ฒ๋ฆฌ๋์ ๊ฐ๋นํ ์ ์๋ ๋ชจ๋ธ์ ์์์ ์ผ๋ก ์ ์ฉํ์ง ์๋ค. ComPRePS 2.0์ ์ ์คํ ํ์ดํ๋ผ์ธ ์ค๊ณ๋ฅผ ํตํด ์ธํ๋ผ ๋ฌธ์ ๊ฐ ํด๊ฒฐ ๊ฐ๋ฅํจ์ ์์ฐํ๋ค.
HPC ์ฐ๊ตฌ์๋ค์๊ฒ ๋์งํธ ๋ณ๋ฆฌํ์ ๋ช
ํํ ์ฒ๋ฆฌ๋ ์๊ตฌ ์ฌํญ, ์ ์ ์๋ ํ์ดํ๋ผ์ธ ๋จ๊ณ, ๋ฐฉ๋ํ ๋ฐ์ดํฐ ๋ณผ๋ฅจ์ ๊ฐ์ถ ๋๋ฉ์ธ์ ์ ๊ณตํ๋ฉฐ, ์ด๋ฌํ ํน์ฑ์ HPC ํด๋ฌ์คํฐ ์ํคํ
์ฒ์ ์ ๋ถํฉํ๋ค. AI ๋ชจ๋ธ์ ํ์ฉํ ํํ๋ฐ์ดํธ ๊ท๋ชจ์ ์ด๋ฏธ์ง ๋ฐ์ดํฐ ์ฒ๋ฆฌ ๊ณผ์ ๋ ์์ฑ ์๊ฒฉ ํ์ฌ, ์ ์ ์ฒดํ, ๊ทธ๋ฆฌ๊ณ ์ฌํ ๋ฐ์ดํฐ ์ง์ฝ์ ๊ณผํ ๋ถ์ผ์ ๊ณต์ ๋๋ค.
References (2)
[1] Kumar, S., Paul, A., Abdelazim, H. et al. (2025). ComPRePS 2.0: enabling massive-scale distributed computing on HPC cluster for histopathological data processing. SPIE.
Katari Chaluva Kumar, S., Paul, A. S., Abdelazim, H., Dunklin, W., Manthey, D., Moskalenko, O., et al. (2025). ComPRePS 2.0: enabling massive-scale distributed computing on high-performance computing cluster for histopathological data processing. Medical Imaging 2025: Digital and Computational Pathology, 44.