Trend AnalysisComputer SystemsDesign Science Research
Serverless at the Edge: Orchestrating AI Workloads Across the Cloud-Edge Continuum
Serverless computing simplifies deployment by abstracting infrastructureโbut extending it to the edge introduces challenges in latency, scheduling, and resource heterogeneity. As LLM inference moves to edge devices, orchestrating serverless workloads across the cloud-edge continuum becomes a pressing systems challenge.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
Serverless computing promised a simple bargain: developers write functions, cloud providers handle everything elseโscaling, provisioning, load balancing, fault tolerance. For cloud-native applications, this bargain has been remarkably successful. AWS Lambda handles enormous invocation volumes at global scale. The developer experience is genuinely simplified.
But the bargain breaks down at the edge. Edge computingโprocessing data near its source rather than in distant data centersโis driven by latency requirements (autonomous vehicles need millisecond response times), bandwidth constraints (streaming raw video to the cloud is prohibitively expensive), and privacy concerns (sensitive data should not leave the local network). Extending serverless to this environment means rethinking every assumption the cloud model makes: about resource availability, network reliability, scheduling centralization, and workload homogeneity.
The 2025 research in this space, spanning sensor network intelligence (Loconte et al.), LLM inference at the edge (Farahani & Prodan), decentralized scheduling (Chen et al.), and latency optimization (Lu et al.), collectively maps the architecture for serverless computing's next frontier.
The Cloud-Edge Continuum
The traditional dichotomyโcloud vs. edgeโis giving way to a continuum where workloads flow dynamically between centralized cloud infrastructure and distributed edge nodes based on latency requirements, resource availability, and data locality constraints.
Loconte et al. provide a concrete architecture for this continuum in the context of sensor networks. Their system deploys serverless microservices across three tiers:
- Edge tier: Lightweight inference models running on gateway devices near sensors, handling real-time anomaly detection and data filtering
- Fog tier: Intermediate processing nodes that aggregate data from multiple edge gateways, running more complex models that benefit from broader context
- Cloud tier: Full-scale training and model updates, complex analytics that tolerate higher latency
The key architectural insight is that
different stages of the same AI pipeline may execute at different tiers. Data preprocessing runs at the edge (low latency, minimal data movement). Feature engineering runs at the fog (moderate latency, cross-sensor aggregation). Model training runs in the cloud (high latency acceptable, massive compute available). The serverless abstraction manages this distribution transparently.
LLM Inference Across the Continuum
Farahani & Prodan address perhaps the most challenging workload for edge serverless: large language model inference. LLMs are inherently resource-intensiveโfar more demanding than the small, stateless functions that serverless was designed for. Running even a quantized 7B-parameter model on an edge device requires careful memory management, and the auto-scaling mechanisms designed for cloud serverless (spin up more containers) may not apply when edge hardware is fixed and limited.
Their solution involves workload-aware orchestration that considers:
- Model size relative to available edge memory
- Expected latency requirements for the specific query
- Current load across edge nodes
- Whether the query can be decomposed into sub-queries that execute at different tiers
For queries that exceed edge capability, the orchestrator transparently routes to fog or cloud tiersโmaintaining the serverless abstraction (the developer does not specify where the function runs) while respecting physical constraints.
Decentralized Scheduling
Traditional serverless platforms use centralized schedulersโa single control plane that decides where each function invocation executes. This works in the cloud, where the scheduler and the compute resources are connected by a reliable, low-latency network. At the edge, centralized scheduling introduces unacceptable latency (the scheduler may be far from the edge nodes) and a single point of failure.
Chen et al.'s Ekko addresses this with fully decentralized scheduling. Each edge node makes independent scheduling decisions based on local load information and gossip-protocol-shared state from neighboring nodes. The result is a system that scales to large numbers of edge nodes without a centralized bottleneck, degrades gracefully when individual nodes fail, and achieves scheduling latency measured in milliseconds rather than the hundreds of milliseconds that centralized approaches require.
Lu et al.'s SoCL complements Ekko by focusing on the latency optimization problem for edge serverless microservices. As the number of concurrent user requests grows, the scheduling solution space expands exponentially. SoCL formulates this as a combinatorial optimization problem and applies approximation algorithms that provide near-optimal latency with tractable computation.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| Serverless abstractions can extend to edge computing | Multiple systems demonstrate edge serverless (Loconte, Ekko, SoCL) | โ
Supported |
| Decentralized scheduling outperforms centralized at edge scale | Ekko demonstrates lower scheduling latency and better fault tolerance | โ
Supported |
| LLM inference is feasible in edge serverless | Farahani & Prodan describe architecture; deployment validation limited | โ ๏ธ Architecturally feasible |
| Edge serverless achieves comparable developer experience to cloud | Developer-facing APIs are similar; operational complexity remains higher | โ ๏ธ Partially achieved |
| Current edge hardware supports production serverless workloads | Resource constraints remain significant for complex AI workloads | โ ๏ธ Hardware-dependent |
Open Questions
Cold start problem at the edge: Serverless functions incur latency when a new container must be initialized (cold start). At the edge, where resources are constrained and pre-warming is expensive, cold starts may dominate total latency. How do we minimize cold starts without wasting scarce edge resources?State management: Serverless functions are stateless by design. But many edge AI workloads require stateโmodel parameters, session context, accumulated sensor history. How do we manage state in a distributed, unreliable edge environment?Energy efficiency: Edge devices often run on limited power (batteries, solar). The energy cost of serverless orchestration overheadโscheduling, container management, network communicationโmust be justified by the benefits. What is the energy budget for edge serverless?Security at the edge: Edge devices operate in physically insecure environments (factories, vehicles, public spaces). Serverless functions executing on potentially compromised edge hardware face threats that cloud data centers do not. How do we ensure confidentiality and integrity of serverless computations at the edge?Multi-tenancy: Can edge devices serve multiple tenants (applications, users) with appropriate isolation? Cloud serverless achieves this through containerization and virtualization, but edge hardware may not have the resources for full isolation.What This Means for Your Research
For systems researchers, the cloud-edge continuum is rich with open problems that combine distributed systems, optimization, and AI. The intersection of serverless abstraction with resource-constrained edge environments creates design tensions that do not exist in either pure cloud or pure edge research.
For AI deployment engineers, the practical message is that edge inference is not just a compression problem (making models smaller)โit is also an orchestration problem (deciding where to run which computation). The serverless paradigm offers a path to managing this complexity, but the tools are still maturing.
For the broader computing community, the trajectory toward edge serverless reflects a broader architectural evolution: computing is moving from centralized (mainframe โ cloud) to distributed (edge โ continuum) models. Understanding the systems challenges of this transition is relevant far beyond the specific context of serverless computing.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต์ ๋ชฉ์ ์ผ๋ก ํ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํ์ ์ ์๋ฌผ์์ ์ธ์ฉํ๊ธฐ ์ ์ ํน์ ์ฐ๊ตฌ ๊ฒฐ๊ณผ, ํต๊ณ ๋ฐ ์ฃผ์ฅ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๋ฐ๋์ ๊ฒ์ฆํด์ผ ํ๋ค.
์ฃ์ง์์์ ์๋ฒ๋ฆฌ์ค: ํด๋ผ์ฐ๋-์ฃ์ง ์ฐ์์ฒด ์ ๋ฐ์ ๊ฑธ์น AI ์ํฌ๋ก๋ ์ค์ผ์คํธ๋ ์ด์
์๋ฒ๋ฆฌ์ค ์ปดํจํ
์ ๋จ์ํ ๊ฑฐ๋๋ฅผ ์ฝ์ํ๋ค: ๊ฐ๋ฐ์๋ ํจ์๋ฅผ ์์ฑํ๊ณ , ํด๋ผ์ฐ๋ ์ ๊ณต์
์ฒด๋ ๋๋จธ์ง ๋ชจ๋ ๊ฒโ์ค์ผ์ผ๋ง, ํ๋ก๋น์ ๋, ๋ก๋ ๋ฐธ๋ฐ์ฑ, ์ฅ์ ํ์ฉโ์ ์ฒ๋ฆฌํ๋ค. ํด๋ผ์ฐ๋ ๋ค์ดํฐ๋ธ ์ ํ๋ฆฌ์ผ์ด์
์์ ์ด ๊ฑฐ๋๋ ๋๋ถ์ ์ฑ๊ณต์ ๊ฑฐ๋์๋ค. AWS Lambda๋ ์ ์ธ๊ณ์ ๊ท๋ชจ์์ ๋ฐฉ๋ํ ์์ ํธ์ถ์ ์ฒ๋ฆฌํ๋ค. ๊ฐ๋ฐ์ ๊ฒฝํ์ ์ค์ง์ ์ผ๋ก ๋จ์ํ๋์๋ค.
๊ทธ๋ฌ๋ ์ฃ์ง์์๋ ์ด ๊ฑฐ๋๊ฐ ๋ฌด๋์ง๋ค. ์ฃ์ง ์ปดํจํ
โ์๊ฒฉ ๋ฐ์ดํฐ ์ผํฐ๊ฐ ์๋ ๋ฐ์ดํฐ ๋ฐ์ ์ง์ ๊ทผ์ฒ์์ ๋ฐ์ดํฐ๋ฅผ ์ฒ๋ฆฌํ๋ ๊ฒโ์ ์ง์ฐ ์๊ฐ ์๊ตฌ์ฌํญ(์์จ ์ฃผํ ์ฐจ๋์ ๋ฐ๋ฆฌ์ด ๋จ์์ ์๋ต ์๊ฐ์ด ํ์ํ๋ค), ๋์ญํญ ์ ์ฝ(์์ ๋น๋์ค๋ฅผ ํด๋ผ์ฐ๋๋ก ์คํธ๋ฆฌ๋ฐํ๋ ๊ฒ์ ๋น์ฉ์ด ๊ณผ๋ํ๊ฒ ๋๋ค), ๊ทธ๋ฆฌ๊ณ ๊ฐ์ธ ์ ๋ณด ๋ณดํธ ์ฐ๋ ค(๋ฏผ๊ฐํ ๋ฐ์ดํฐ๋ ๋ก์ปฌ ๋คํธ์ํฌ๋ฅผ ๋ฒ์ด๋์๋ ์ ๋๋ค)์ ์ํด ์ฃผ๋๋๋ค. ์๋ฒ๋ฆฌ์ค๋ฅผ ์ด ํ๊ฒฝ์ผ๋ก ํ์ฅํ๋ค๋ ๊ฒ์ ํด๋ผ์ฐ๋ ๋ชจ๋ธ์ด ์ ์ ํ๋ ๋ชจ๋ ๊ฐ์ โ์์ ๊ฐ์ฉ์ฑ, ๋คํธ์ํฌ ์ ๋ขฐ์ฑ, ์ค์ผ์ค๋ง ์ค์ํ, ์ํฌ๋ก๋ ๋์ง์ฑ์ ๊ดํโ์ ์ฌ๊ณ ํ๋ ๊ฒ์ ์๋ฏธํ๋ค.
์ด ๋ถ์ผ์ 2025๋
์ฐ๊ตฌ๋ค, ์ฆ ์ผ์ ๋คํธ์ํฌ ์ธํ
๋ฆฌ์ ์ค(Loconte et al.), ์ฃ์ง์์์ LLM ์ถ๋ก (Farahani & Prodan), ๋ถ์ฐ ์ค์ผ์ค๋ง(Chen et al.), ๊ทธ๋ฆฌ๊ณ ์ง์ฐ ์๊ฐ ์ต์ ํ(Lu et al.)๋ฅผ ์์ฐ๋ฅด๋ ์ฐ๊ตฌ๋ค์ ์๋ฒ๋ฆฌ์ค ์ปดํจํ
์ ๋ค์ ํ๋ฐํฐ์ด๋ฅผ ์ํ ์ํคํ
์ฒ๋ฅผ ์งํฉ์ ์ผ๋ก ์ ์ํ๋ค.
ํด๋ผ์ฐ๋-์ฃ์ง ์ฐ์์ฒด
ํด๋ผ์ฐ๋ ๋ ์ฃ์ง๋ผ๋ ์ ํต์ ์ธ ์ด๋ถ๋ฒ์ ์ง์ฐ ์๊ฐ ์๊ตฌ์ฌํญ, ์์ ๊ฐ์ฉ์ฑ, ๋ฐ์ดํฐ ์ง์ญ์ฑ ์ ์ฝ์ ๊ธฐ๋ฐํ์ฌ ์ํฌ๋ก๋๊ฐ ์ค์ํ๋ ํด๋ผ์ฐ๋ ์ธํ๋ผ์ ๋ถ์ฐ๋ ์ฃ์ง ๋
ธ๋ ์ฌ์ด๋ฅผ ๋์ ์ผ๋ก ์ด๋ํ๋ ์ฐ์์ฒด(continuum)๋ก ๋์ฒด๋๊ณ ์๋ค.
Loconte et al.์ ์ผ์ ๋คํธ์ํฌ ๋งฅ๋ฝ์์ ์ด ์ฐ์์ฒด๋ฅผ ์ํ ๊ตฌ์ฒด์ ์ธ ์ํคํ
์ฒ๋ฅผ ์ ์ํ๋ค. ๊ทธ๋ค์ ์์คํ
์ ์ธ ๊ฐ์ง ๊ณ์ธต์ ๊ฑธ์ณ ์๋ฒ๋ฆฌ์ค ๋ง์ดํฌ๋ก์๋น์ค๋ฅผ ๋ฐฐํฌํ๋ค:
- ์ฃ์ง ๊ณ์ธต: ์ผ์ ๊ทผ์ฒ์ ๊ฒ์ดํธ์จ์ด ์ฅ์น์์ ์คํ๋๋ ๊ฒฝ๋ ์ถ๋ก ๋ชจ๋ธ๋ก, ์ค์๊ฐ ์ด์ ๊ฐ์ง ๋ฐ ๋ฐ์ดํฐ ํํฐ๋ง์ ์ฒ๋ฆฌํ๋ค
- ํฌ๊ทธ(Fog) ๊ณ์ธต: ์ฌ๋ฌ ์ฃ์ง ๊ฒ์ดํธ์จ์ด๋ก๋ถํฐ ๋ฐ์ดํฐ๋ฅผ ์ง๊ณํ๋ ์ค๊ฐ ์ฒ๋ฆฌ ๋
ธ๋๋ก, ๋ ๋์ ๋งฅ๋ฝ์ผ๋ก๋ถํฐ ์ด์ ์ ์ป๋ ๋ ๋ณต์กํ ๋ชจ๋ธ์ ์คํํ๋ค
- ํด๋ผ์ฐ๋ ๊ณ์ธต: ์ ์ฒด ๊ท๋ชจ์ ํ์ต ๋ฐ ๋ชจ๋ธ ์
๋ฐ์ดํธ, ๋์ ์ง์ฐ ์๊ฐ์ ํ์ฉํ๋ ๋ณต์กํ ๋ถ์์ ์ํํ๋ค
ํต์ฌ ์ํคํ
์ฒ์ ํต์ฐฐ์
๋์ผํ AI ํ์ดํ๋ผ์ธ์ ์๋ก ๋ค๋ฅธ ๋จ๊ณ๊ฐ ์๋ก ๋ค๋ฅธ ๊ณ์ธต์์ ์คํ๋ ์ ์๋ค๋ ๊ฒ์ด๋ค. ๋ฐ์ดํฐ ์ ์ฒ๋ฆฌ๋ ์ฃ์ง์์ ์คํ๋๋ค(๋ฎ์ ์ง์ฐ ์๊ฐ, ์ต์ํ์ ๋ฐ์ดํฐ ์ด๋). ํน์ง ์์ง๋์ด๋ง์ ํฌ๊ทธ์์ ์คํ๋๋ค(์ค๊ฐ ์์ค์ ์ง์ฐ ์๊ฐ, ์ผ์ ๊ฐ ์ง๊ณ). ๋ชจ๋ธ ํ์ต์ ํด๋ผ์ฐ๋์์ ์คํ๋๋ค(๋์ ์ง์ฐ ์๊ฐ ํ์ฉ ๊ฐ๋ฅ, ๋๊ท๋ชจ ์ปดํจํ
๊ฐ์ฉ). ์๋ฒ๋ฆฌ์ค ์ถ์ํ๋ ์ด ๋ถ์ฐ์ ํฌ๋ช
ํ๊ฒ ๊ด๋ฆฌํ๋ค.
์ฐ์์ฒด ์ ๋ฐ์ ๊ฑธ์น LLM ์ถ๋ก
Farahani & Prodan์ ์ฃ์ง ์๋ฒ๋ฆฌ์ค์์ ๊ฐ์ฅ ๋์ ์ ์ธ ์ํฌ๋ก๋์ธ ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ(LLM) ์ถ๋ก ์ ๋ค๋ฃฌ๋ค. LLM์ ๋ณธ์ง์ ์ผ๋ก ์์ ์ง์ฝ์ ์ด๋ฉฐโ์๋ฒ๋ฆฌ์ค๊ฐ ์ค๊ณ๋ ์ํ์ ๋ฌด์ํ(stateless) ํจ์๋ณด๋ค ํจ์ฌ ๋ ๋ง์ ์์์ ์๊ตฌํ๋ค. ์์ํ๋ 7B ํ๋ผ๋ฏธํฐ ๋ชจ๋ธ์กฐ์ฐจ ์ฃ์ง ์ฅ์น์์ ์คํํ๋ ค๋ฉด ์ ์คํ ๋ฉ๋ชจ๋ฆฌ ๊ด๋ฆฌ๊ฐ ํ์ํ๋ฉฐ, ํด๋ผ์ฐ๋ ์๋ฒ๋ฆฌ์ค๋ฅผ ์ํด ์ค๊ณ๋ ์๋ ์ค์ผ์ผ๋ง ๋ฉ์ปค๋์ฆ(๋ ๋ง์ ์ปจํ
์ด๋๋ฅผ ๊ฐ๋)์ ์ฃ์ง ํ๋์จ์ด๊ฐ ๊ณ ์ ๋์ด ์๊ณ ํ์ ์ ์ผ ๋๋ ์ ์ฉ๋์ง ์์ ์ ์๋ค.
๊ทธ๋ค์ ํด๊ฒฐ์ฑ
์ ๋ค์์ ๊ณ ๋ คํ๋ ์ํฌ๋ก๋ ์ธ์ ์ค์ผ์คํธ๋ ์ด์
์ ํฌํจํ๋ค:
- ๊ฐ์ฉ ์ฃ์ง ๋ฉ๋ชจ๋ฆฌ ๋๋น ๋ชจ๋ธ ํฌ๊ธฐ
- ํน์ ์ฟผ๋ฆฌ์ ๋ํ ์์ ์ง์ฐ ์๊ฐ ์๊ตฌ์ฌํญ
- ์ฃ์ง ๋
ธ๋ ์ ๋ฐ์ ํ์ฌ ๋ถํ
- ์ฟผ๋ฆฌ๋ฅผ ์๋ก ๋ค๋ฅธ ๊ณ์ธต์์ ์คํ๋๋ ํ์ ์ฟผ๋ฆฌ๋ก ๋ถํดํ ์ ์๋์ง ์ฌ๋ถ
์ฃ์ง ์ญ๋์ ์ด๊ณผํ๋ ์ฟผ๋ฆฌ์ ๊ฒฝ์ฐ, ์ค์ผ์คํธ๋ ์ดํฐ๋ ํฌ๋ช
ํ๊ฒ ํฌ๊ทธ ๋๋ ํด๋ผ์ฐ๋ ๊ณ์ธต์ผ๋ก ๋ผ์ฐํ
ํ๋คโ๋ฌผ๋ฆฌ์ ์ ์ฝ์ ์ค์ํ๋ฉด์๋ ์๋ฒ๋ฆฌ์ค ์ถ์ํ(๊ฐ๋ฐ์๋ ํจ์๊ฐ ์คํ๋๋ ์์น๋ฅผ ์ง์ ํ์ง ์๋๋ค)๋ฅผ ์ ์งํ๋ค.
๋ถ์ฐ ์ค์ผ์ค๋ง
์ ํต์ ์ธ ์๋ฒ๋ฆฌ์ค ํ๋ซํผ์ ์ค์์ง์ค์ ์ค์ผ์ค๋ฌ๋ฅผ ์ฌ์ฉํ๋คโ๊ฐ ํจ์ ํธ์ถ์ด ์ด๋์ ์คํ๋ ์ง๋ฅผ ๊ฒฐ์ ํ๋ ๋จ์ผ ์ ์ด ํ๋ ์ธ์ด๋ค. ์ด๋ ์ค์ผ์ค๋ฌ์ ์ปดํจํ
์์์ด ์ ๋ขฐํ ์ ์๋ ์ ์ง์ฐ ๋คํธ์ํฌ๋ก ์ฐ๊ฒฐ๋ ํด๋ผ์ฐ๋ ํ๊ฒฝ์์๋ ์ ์๋ํ๋ค. ๊ทธ๋ฌ๋ ์ฃ์ง ํ๊ฒฝ์์๋ ์ค์์ง์ค์ ์ค์ผ์ค๋ง์ด ํ์ฉํ ์ ์๋ ์ง์ฐ์ ์ด๋ํ๋ฉฐ(์ค์ผ์ค๋ฌ๊ฐ ์ฃ์ง ๋
ธ๋๋ก๋ถํฐ ๋ฉ๋ฆฌ ์์นํ ์ ์์), ๋จ์ผ ์ฅ์ ์ ์ด ๋๋ค.
Chen et al.์ Ekko๋ ์์ ๋ถ์ฐํ ์ค์ผ์ค๋ง์ผ๋ก ์ด ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๋ค. ๊ฐ ์ฃ์ง ๋
ธ๋๋ ๋ก์ปฌ ๋ถํ ์ ๋ณด์ ์ธ์ ๋
ธ๋๋ก๋ถํฐ gossip ํ๋กํ ์ฝ์ ํตํด ๊ณต์ ๋ ์ํ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๋
๋ฆฝ์ ์ธ ์ค์ผ์ค๋ง ๊ฒฐ์ ์ ๋ด๋ฆฐ๋ค. ๊ทธ ๊ฒฐ๊ณผ, ์ค์์ง์ค์ ๋ณ๋ชฉ ์์ด ๋๊ท๋ชจ ์ฃ์ง ๋
ธ๋๋ก ํ์ฅํ ์ ์๊ณ , ๊ฐ๋ณ ๋
ธ๋ ์ฅ์ ์์๋ ์๋งํ๊ฒ ์ฑ๋ฅ์ด ์ ํ๋๋ฉฐ, ์ค์์ง์ค์ ๋ฐฉ์์ด ์๊ตฌํ๋ ์๋ฐฑ ๋ฐ๋ฆฌ์ด๊ฐ ์๋ ์ ๋ฐ๋ฆฌ์ด ๋จ์์ ์ค์ผ์ค๋ง ์ง์ฐ์ ๋ฌ์ฑํ๋ ์์คํ
์ด ๋๋ค.
Lu et al.์ SoCL์ ์ฃ์ง ์๋ฒ๋ฆฌ์ค ๋ง์ดํฌ๋ก์๋น์ค์ ์ง์ฐ ์ต์ ํ ๋ฌธ์ ์ ์ง์คํจ์ผ๋ก์จ Ekko๋ฅผ ๋ณด์ํ๋ค. ๋์ ์ฌ์ฉ์ ์์ฒญ ์๊ฐ ์ฆ๊ฐํจ์ ๋ฐ๋ผ ์ค์ผ์ค๋ง ํด ๊ณต๊ฐ์ ์ง์์ ์ผ๋ก ํ์ฅ๋๋ค. SoCL์ ์ด๋ฅผ ์กฐํฉ ์ต์ ํ ๋ฌธ์ ๋ก ์ ์ํํ๊ณ , ๋ค๋ฃจ๊ธฐ ์ฌ์ด ๊ณ์ฐ์ผ๋ก ์ต์ ์ ๊ทผ์ฌํ ์ง์ฐ์ ์ ๊ณตํ๋ ๊ทผ์ฌ ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉํ๋ค.
์ฃผ์ฅ๊ณผ ๊ทผ๊ฑฐ
<
| ์ฃผ์ฅ | ๊ทผ๊ฑฐ | ํ์ |
|---|
| ์๋ฒ๋ฆฌ์ค ์ถ์ํ๋ฅผ ์ฃ์ง ์ปดํจํ
์ผ๋ก ํ์ฅํ ์ ์๋ค | ๋ค์์ ์์คํ
์ด ์ฃ์ง ์๋ฒ๋ฆฌ์ค๋ฅผ ์ค์ฆํจ (Loconte, Ekko, SoCL) | โ
์ง์ง๋จ |
| ๋ถ์ฐํ ์ค์ผ์ค๋ง์ด ์ฃ์ง ๊ท๋ชจ์์ ์ค์์ง์ค์์ ๋ฅ๊ฐํ๋ค | Ekko๊ฐ ๋ ๋ฎ์ ์ค์ผ์ค๋ง ์ง์ฐ๊ณผ ๋ ๋์ ์ฅ์ ํ์ฉ์ฑ์ ์ค์ฆ | โ
์ง์ง๋จ |
| LLM ์ถ๋ก ์ด ์ฃ์ง ์๋ฒ๋ฆฌ์ค์์ ์คํ ๊ฐ๋ฅํ๋ค | Farahani & Prodan์ด ์ํคํ
์ฒ๋ฅผ ๊ธฐ์ ํ๋ ๋ฐฐํฌ ๊ฒ์ฆ์ ์ ํ์ | โ ๏ธ ์ํคํ
์ฒ์ ์ผ๋ก ์คํ ๊ฐ๋ฅ |
| ์ฃ์ง ์๋ฒ๋ฆฌ์ค๊ฐ ํด๋ผ์ฐ๋์ ํ์ ํ๋ ๊ฐ๋ฐ์ ๊ฒฝํ์ ๋ฌ์ฑํ๋ค | ๊ฐ๋ฐ์ ๋๋ฉด API๋ ์ ์ฌํ๋ ์ด์ ๋ณต์ก์ฑ์ ์ฌ์ ํ ๋์ | โ ๏ธ ๋ถ๋ถ์ ์ผ๋ก ๋ฌ์ฑ |
| ํ์ฌ ์ฃ์ง ํ๋์จ์ด๊ฐ ํ๋ก๋์
์๋ฒ๋ฆฌ์ค ์ํฌ๋ก๋๋ฅผ ์ง์ํ๋ค | ๋ณต์กํ AI ์ํฌ๋ก๋์ ๋ํ ์์ ์ ์ฝ์ด ์ฌ์ ํ ์๋นํจ | โ ๏ธ ํ๋์จ์ด ์์กด์ |
๋ฏธํด๊ฒฐ ๋ฌธ์
์ฃ์ง์์์ ์ฝ๋ ์คํํธ ๋ฌธ์ : ์๋ฒ๋ฆฌ์ค ํจ์๋ ์๋ก์ด ์ปจํ
์ด๋๊ฐ ์ด๊ธฐํ๋์ด์ผ ํ ๋ ์ง์ฐ์ด ๋ฐ์ํ๋ค(์ฝ๋ ์คํํธ). ์์์ด ์ ์ฝ๋๊ณ ์ฌ์ ์๋ฐ์ด ๋น์ฉ์ด ํฐ ์ฃ์ง ํ๊ฒฝ์์๋ ์ฝ๋ ์คํํธ๊ฐ ์ ์ฒด ์ง์ฐ์ ์ง๋ฐฐํ ์ ์๋ค. ํฌ์ํ ์ฃ์ง ์์์ ๋ญ๋นํ์ง ์์ผ๋ฉด์ ์ฝ๋ ์คํํธ๋ฅผ ์ด๋ป๊ฒ ์ต์ํํ ๊ฒ์ธ๊ฐ?์ํ ๊ด๋ฆฌ: ์๋ฒ๋ฆฌ์ค ํจ์๋ ์ค๊ณ์ ๋ฌด์ํ์ด๋ค. ๊ทธ๋ฌ๋ ๋ง์ ์ฃ์ง AI ์ํฌ๋ก๋๋ ๋ชจ๋ธ ํ๋ผ๋ฏธํฐ, ์ธ์
์ปจํ
์คํธ, ๋์ ์ผ์ ์ด๋ ฅ ๋ฑ์ ์ํ๋ฅผ ํ์๋ก ํ๋ค. ๋ถ์ฐ๋๊ณ ์ ๋ขฐํ ์ ์๋ ์ฃ์ง ํ๊ฒฝ์์ ์ํ๋ฅผ ์ด๋ป๊ฒ ๊ด๋ฆฌํ ๊ฒ์ธ๊ฐ?์๋์ง ํจ์จ์ฑ: ์ฃ์ง ์ฅ์น๋ ์ข
์ข
์ ํ๋ ์ ๋ ฅ(๋ฐฐํฐ๋ฆฌ, ํ์๊ด)์ผ๋ก ๊ตฌ๋๋๋ค. ์ค์ผ์ค๋ง, ์ปจํ
์ด๋ ๊ด๋ฆฌ, ๋คํธ์ํฌ ํต์ ๋ฑ ์๋ฒ๋ฆฌ์ค ์ค์ผ์คํธ๋ ์ด์
์ค๋ฒํค๋์ ์๋์ง ๋น์ฉ์ ๊ทธ ์ด์ ์ผ๋ก ์ ๋นํ๋์ด์ผ ํ๋ค. ์ฃ์ง ์๋ฒ๋ฆฌ์ค์ ์๋์ง ์์ฐ์ ์ผ๋ง์ธ๊ฐ?์ฃ์ง์์์ ๋ณด์: ์ฃ์ง ์ฅ์น๋ ๋ฌผ๋ฆฌ์ ์ผ๋ก ์์ ํ์ง ์์ ํ๊ฒฝ(๊ณต์ฅ, ์ฐจ๋, ๊ณต๊ณต์ฅ์)์์ ์ด์ฉ๋๋ค. ์ ์ฌ์ ์ผ๋ก ์นจํด๋ ์ฃ์ง ํ๋์จ์ด์์ ์คํ๋๋ ์๋ฒ๋ฆฌ์ค ํจ์๋ ํด๋ผ์ฐ๋ ๋ฐ์ดํฐ ์ผํฐ์๋ ์๋ ์ํ์ ์ง๋ฉดํ๋ค. ์ฃ์ง์์ ์๋ฒ๋ฆฌ์ค ์ฐ์ฐ์ ๊ธฐ๋ฐ์ฑ๊ณผ ๋ฌด๊ฒฐ์ฑ์ ์ด๋ป๊ฒ ๋ณด์ฅํ ๊ฒ์ธ๊ฐ?๋ฉํฐ ํ
๋์: ์ฃ์ง ์ฅ์น๊ฐ ์ ์ ํ ๊ฒฉ๋ฆฌ๋ฅผ ์ ์งํ๋ฉด์ ๋ค์์ ํ
๋ํธ(์ ํ๋ฆฌ์ผ์ด์
, ์ฌ์ฉ์)๋ฅผ ์๋น์คํ ์ ์๋๊ฐ? ํด๋ผ์ฐ๋ ์๋ฒ๋ฆฌ์ค๋ ์ปจํ
์ด๋ํ์ ๊ฐ์ํ๋ฅผ ํตํด ์ด๋ฅผ ๋ฌ์ฑํ์ง๋ง, ์ฃ์ง ํ๋์จ์ด๋ ์์ ํ ๊ฒฉ๋ฆฌ๋ฅผ ์ํ ์์์ ๊ฐ์ถ์ง ๋ชปํ ์ ์๋ค.์ฐ๊ตฌ์ ๋ํ ์์ฌ์
์์คํ
์ฐ๊ตฌ์์๊ฒ ํด๋ผ์ฐ๋-์ฃ์ง ์ฐ์์ฒด๋ ๋ถ์ฐ ์์คํ
, ์ต์ ํ, AI๋ฅผ ๊ฒฐํฉํ๋ ๋ฏธํด๊ฒฐ ๋ฌธ์ ๋ค๋ก ๊ฐ๋ํ๋ค. ์๋ฒ๋ฆฌ์ค ์ถ์ํ์ ์์ ์ ์ฝ์ ์ฃ์ง ํ๊ฒฝ์ ๊ต์ฐจ์ ์ ์์ ํด๋ผ์ฐ๋ ์ฐ๊ตฌ๋ ์์ ์ฃ์ง ์ฐ๊ตฌ ์ด๋์๋ ์กด์ฌํ์ง ์๋ ์ค๊ณ ๊ธด์ฅ์ ๋ง๋ค์ด๋ธ๋ค.
AI ๋ฐฐํฌ ์์ง๋์ด๋ค์๊ฒ ์ค์ง์ ์ธ ์์ฌ์ ์, ์ฃ์ง ์ถ๋ก ์ด ๋จ์ํ ์์ถ ๋ฌธ์ (๋ชจ๋ธ์ ๋ ์๊ฒ ๋ง๋๋ ๊ฒ)์ ๊ทธ์น์ง ์๊ณ ์ค์ผ์คํธ๋ ์ด์
๋ฌธ์ (์ด๋ ์ฐ์ฐ์ ์ด๋์ ์คํํ ์ง ๊ฒฐ์ ํ๋ ๊ฒ)์ด๊ธฐ๋ ํ๋ค๋ ์ ์ด๋ค. ์๋ฒ๋ฆฌ์ค ํจ๋ฌ๋ค์์ ์ด๋ฌํ ๋ณต์ก์ฑ์ ๊ด๋ฆฌํ๋ ๊ฒฝ๋ก๋ฅผ ์ ๊ณตํ์ง๋ง, ๊ด๋ จ ๋๊ตฌ๋ค์ ์์ง ์ฑ์ ๋จ๊ณ์ ์๋ค.
๋ณด๋ค ๋์ ์ปดํจํ
์ปค๋ฎค๋ํฐ์ ๊ด์ ์์, ์ฃ์ง ์๋ฒ๋ฆฌ์ค๋ฅผ ํฅํ ๊ถค์ ์ ๋ ๊ด๋ฒ์ํ ์ํคํ
์ฒ์ ์งํ๋ฅผ ๋ฐ์ํ๋ค. ์ฆ, ์ปดํจํ
์ ์ค์ํ๋ ๋ชจ๋ธ(๋ฉ์ธํ๋ ์ โ ํด๋ผ์ฐ๋)์์ ๋ถ์ฐ๋ ๋ชจ๋ธ(์ฃ์ง โ ์ปจํฐ๋ด์)๋ก ์ด๋ํ๊ณ ์๋ค. ์ด๋ฌํ ์ ํ์ด ์๋ฐํ๋ ์์คํ
๊ณผ์ ๋ฅผ ์ดํดํ๋ ๊ฒ์ ์๋ฒ๋ฆฌ์ค ์ปดํจํ
์ด๋ผ๋ ํน์ ๋งฅ๋ฝ์ ํจ์ฌ ๋์ด์๋ ์๋ฏธ๋ฅผ ์ง๋๋ค.
References (4)
[1] Loconte, D., Ieva, S., Gramegna, F. et al. (2025). Serverless Microservice Architecture for Cloud-Edge Intelligence in Sensor Networks. IEEE JSEN.
[2] Farahani, R. & Prodan, R. (2025). Serverless Orchestration on Edge-Cloud Continuum: From Small Functions to Large Language Models. IEEE ICDCSW.
[3] Chen, X., Paidiparthy, M., Da Silva, D. (2025). Ekko: Fully Decentralized Scheduling for Serverless Edge Computing. IEEE IPDPS.
[4] Lu, S., Xiang, B., Wu, J. et al. (2025). SoCL: Scalable and Latency-Optimized Microservices in Serverless Edge Computing. IEEE CLUSTER.