Trend AnalysisLaw & Policy
AI Liability and Autonomous Systems: Who Pays When the Machine Decides?
When an autonomous AI system causes harm, existing legal frameworks struggle to assign liability. The EU AI Act, the revised Product Liability Directive, and national adaptations are attempting to fill this gapโbut fundamental tensions between product liability, negligence, and algorithmic opacity remain unresolved.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
When a self-driving vehicle strikes a pedestrian, when an AI medical device misdiagnoses a patient, or when an autonomous trading algorithm causes a flash crash, the foundational question of tort lawโwho is responsible?โhas no settled answer. Traditional product liability assumes a defective product with an identifiable manufacturer. Traditional negligence assumes a human decision-maker who failed to exercise reasonable care. Autonomous AI systems disrupt both frameworks: the system's behavior may emerge from training data rather than explicit programming, making it difficult to identify a "defect," and the decision is made by an algorithm rather than a person, making it difficult to locate "negligence."
The stakes are enormous. As AI systems are deployed in transportation, healthcare, finance, and military operations, the liability gap creates uncertainty for developers, deployers, and victims alike. Three recent papers examine different jurisdictions' attempts to close this gap.
Why It Matters
The liability question is not merely academic. Without clear rules, victims of AI-caused harm face prohibitive burdens of proofโthey must demonstrate the internal logic of an opaque system to establish causation. Simultaneously, developers face unpredictable exposure, which can either chill innovation or incentivize deployment in jurisdictions with weaker protections. The regulatory race currently underway in Europe, the Middle East, and Asia will shape both the trajectory of AI development and the protection available to those harmed by it.
The EU's approachโcombining the AI Act (Regulation 2024/1689) with the revised Product Liability Directive and the proposed AI Liability Directiveโrepresents the most comprehensive attempt to date. But as Di Gregorio, Turci, and Gigola (2025) document, the interaction between these instruments creates its own complexity.
The EU Framework: Three Instruments, One System
Di Gregorio, Turci, and Gigola (2025) provide a systematic analysis of the EU's emerging legal framework, structured along three axes: the multi-level regulatory framework, the liability regime, and sectoral challenges in healthcare and finance.
The AI Act classifies AI systems by risk levelโunacceptable, high, limited, and minimalโand imposes obligations proportional to that classification. High-risk systems (including those used in critical infrastructure, education, employment, and law enforcement) face mandatory requirements for risk management, data governance, transparency, human oversight, and accuracy. The revised Product Liability Directive extends strict liability to software and AI systems, treating them as "products" for the first time. The proposed AI Liability Directive would create a presumption of causation when a provider fails to comply with the AI Act, shifting the burden of proof from victims to developers.
The critical insight is that these instruments interact: compliance with the AI Act's requirements may serve as a defense in liability proceedings, while non-compliance triggers presumptions that favor the victim. This creates a regulatory-liability feedback loop that the authors argue is the EU's most innovative contribution.
The Custodian Model: UAE's Alternative
Abdou (2025) proposes an alternative framework adapted for the UAE's legal context: the concept of a "custodian" for autonomous AI systems. Drawing on both civil law and Islamic legal traditions, the paper argues that AI systems share characteristics with entities that have historically required custodiansโminors, incapacitated persons, and animalsโin that they can cause harm but cannot bear legal responsibility.
The custodian model assigns liability to a designated natural or legal person who has both the ability and the obligation to supervise the AI system's operation. This differs from the EU's distributed-responsibility approach (which allocates obligations across providers, deployers, and users) by concentrating accountability in a single identifiable party. The advantage is simplicity and clarity for victims; the disadvantage is that it may not accurately reflect the distributed nature of AI system governance, where training data providers, model developers, fine-tuners, and deployers all contribute to the system's behavior.
Autonomous Vehicles: The Test Case
Praveen, Palarimath, and Akbar (2025) focus on the specific domain where AI liability is most immediately consequential: autonomous vehicles. Using Decision Trees, Random Forests, and Gradient Boosting models, the research analyzes how machine learning decisions in AVs are interpreted by the law and proposes classification frameworks for accountability.
The paper identifies a fundamental tension: AV decision-making is probabilistic, but legal liability frameworks demand binary determinations of fault. When an AV's algorithm assigns 60% probability to one course of action and 40% to another, and the chosen action causes harm, was the decision "defective"? The authors argue that current frameworks cannot answer this question coherently, and that new standards for algorithmic reasonableness are needed.
Comparative Framework
<
| Dimension | EU Model | UAE Custodian Model | US (Current) |
|---|
| Liability basis | Product liability + AI-specific presumptions | Custodial responsibility | Negligence / product liability (patchwork) |
| Burden of proof | Shifted to provider upon non-compliance | On claimant, but custodian has strict duty | On claimant |
| Key actor | Provider, deployer, user (distributed) | Designated custodian (concentrated) | Varies by jurisdiction |
| Opacity problem | Disclosure obligations + causation presumption | Custodian bears risk of opacity | No systematic solution |
| Regulatory link | AI Act compliance = liability defense | Regulatory compliance relevant but not determinative | No federal AI regulation |
What To Watch
The next 12-18 months will be decisive. The EU AI Act's full implementation (2 August 2026 for most high-risk system obligations) will test whether the regulatory-liability feedback loop works in practice. The UAE's custodian model will face its first real cases as autonomous systems are deployed in its smart city initiatives. And the US, which lacks a federal AI liability framework, will continue to address these questions through state-level litigationโcreating the possibility of 50 different standards. The fundamental question remains whether liability frameworks designed for industrial-era manufacturing can be adapted for algorithmic-era decision-making, or whether entirely new legal categories are required.
๋ฉด์ฑ
์กฐํญ: ์ด ๊ฒ์๋ฌผ์ ์ ๋ณด ์ ๊ณต ๋ชฉ์ ์ ์ฐ๊ตฌ ๋ํฅ ๊ฐ์์ด๋ค. ํน์ ๋ฐ๊ฒฌ, ํต๊ณ, ์ฃผ์ฅ์ ํ์ ์ฐ๊ตฌ์์ ์ธ์ฉํ๊ธฐ ์ ์ ์๋ณธ ๋
ผ๋ฌธ์ ํตํด ๊ฒ์ฆํด์ผ ํ๋ค.
AI ์ฑ
์๊ณผ ์์จ ์์คํ
: ๊ธฐ๊ณ๊ฐ ๊ฒฐ์ ํ ๋ ๋๊ฐ ์ฑ
์์ง๋๊ฐ?
์์จ์ฃผํ ์ฐจ๋์ด ๋ณดํ์๋ฅผ ์ถฉ๊ฒฉํ ๋, AI ์๋ฃ๊ธฐ๊ธฐ๊ฐ ํ์๋ฅผ ์ค์งํ ๋, ๋๋ ์์จ ๊ฑฐ๋ ์๊ณ ๋ฆฌ์ฆ์ด ์๊ฐ ํญ๋ฝ(flash crash)์ ์ ๋ฐํ ๋, ๋ถ๋ฒํ์๋ฒ(tort law)์ ๊ทผ๋ณธ์ ์ธ ์ง๋ฌธโ๋๊ฐ ์ฑ
์์ง๋๊ฐ?โ์๋ ์์ง ํ๋ฆฝ๋ ๋ต์ด ์๋ค. ์ ํต์ ์ธ ์ ์กฐ๋ฌผ ์ฑ
์(product liability)์ ์๋ณ ๊ฐ๋ฅํ ์ ์กฐ์
์ฒด๊ฐ ์๋ ๊ฒฐํจ ์๋ ์ ํ์ ์ ์ ๋ก ํ๋ค. ์ ํต์ ์ธ ๊ณผ์ค ์ฑ
์(negligence)์ ํฉ๋ฆฌ์ ์ธ ์ฃผ์๋ฅผ ๊ธฐ์ธ์ด์ง ๋ชปํ ์ธ๊ฐ ์์ฌ๊ฒฐ์ ์๋ฅผ ์ ์ ๋ก ํ๋ค. ์์จ AI ์์คํ
์ ์ด ๋ ๊ฐ์ง ํ๋ ์์ํฌ ๋ชจ๋๋ฅผ ๊ต๋ํ๋ค. ์์คํ
์ ํ๋์ด ๋ช
์์ ํ๋ก๊ทธ๋๋ฐ์ด ์๋ ํ๋ จ ๋ฐ์ดํฐ๋ก๋ถํฐ ์ถํํ ์ ์์ด "๊ฒฐํจ"์ ์๋ณํ๊ธฐ ์ด๋ ต๊ณ , ๊ฒฐ์ ์ด ์ฌ๋์ด ์๋ ์๊ณ ๋ฆฌ์ฆ์ ์ํด ๋ด๋ ค์ง๋ฏ๋ก "๊ณผ์ค"์ ์์ฌ๋ฅผ ํ์
ํ๊ธฐ๋ ์ด๋ ต๋ค.
๊ทธ ์ดํด๊ด๊ณ๋ ๋ง๋ํ๋ค. AI ์์คํ
์ด ๊ตํต, ์๋ฃ, ๊ธ์ต, ๊ตฐ์ฌ ์์ ์ ๋ฐฐ์น๋จ์ ๋ฐ๋ผ ์ฑ
์ ๊ณต๋ฐฑ(liability gap)์ ๊ฐ๋ฐ์, ๋ฐฐํฌ์, ํผํด์ ๋ชจ๋์๊ฒ ๋ถํ์ค์ฑ์ ์ด๋ํ๋ค. ์ธ ํธ์ ์ต์ ๋
ผ๋ฌธ์ ์ด ๊ณต๋ฐฑ์ ๋ฉ์ฐ๋ ค๋ ์ฌ๋ฌ ๋ฒ ๊ดํ ๊ถ์ ์๋๋ฅผ ๊ฐ๊ฐ ๋ค๋ฃฌ๋ค.
์ ์ค์ํ๊ฐ
์ฑ
์ ๋ฌธ์ ๋ ๋จ์ํ ํ๋ฌธ์ ์ธ ๊ฒ์ด ์๋๋ค. ๋ช
ํํ ๊ท์น์ด ์์ผ๋ฉด AI๋ก ์ธํ ํผํด ํผํด์๋ค์ ์ธ๊ณผ๊ด๊ณ๋ฅผ ์
์ฆํ๊ธฐ ์ํด ๋ถํฌ๋ช
ํ ์์คํ
์ ๋ด๋ถ ๋
ผ๋ฆฌ๋ฅผ ์ฆ๋ช
ํด์ผ ํ๋ ๊ณผ๋ํ ์ฆ๋ช
๋ถ๋ด์ ์ง๋ฉดํ๋ค. ๋์์ ๊ฐ๋ฐ์๋ค์ ์์ธก ๋ถ๊ฐ๋ฅํ ๋ฒ์ ๋
ธ์ถ์ ์ง๋ฉดํ๋ฉฐ, ์ด๋ ํ์ ์ ์ ํดํ๊ฑฐ๋ ๋ณดํธ ์์ค์ด ๋ฎ์ ๋ฒ ๊ดํ ๊ถ์์์ ๋ฐฐํฌ๋ฅผ ์ฅ๋ คํ๋ ๋ฐฉํฅ์ผ๋ก ์์ฉํ ์ ์๋ค. ํ์ฌ ์ ๋ฝ, ์ค๋, ์์์์์ ์งํ ์ค์ธ ๊ท์ ๊ฒฝ์์ AI ๊ฐ๋ฐ์ ๊ถค์ ๊ณผ ํผํด์๋ค์ด ๋ฐ์ ์ ์๋ ๋ณดํธ ์์ค ๋ชจ๋๋ฅผ ํ์ฑํ ๊ฒ์ด๋ค.
EU์ ์ ๊ทผ๋ฒโAI Act(๊ท์ 2024/1689)์ ๊ฐ์ ๋ ์ ์กฐ๋ฌผ ์ฑ
์ ์ง์นจ(Product Liability Directive), ์ ์๋ AI ์ฑ
์ ์ง์นจ(AI Liability Directive)์ ๊ฒฐํฉโ์ ํ์ฌ๊น์ง ๊ฐ์ฅ ํฌ๊ด์ ์ธ ์๋๋ฅผ ๋ํ๋ธ๋ค. ๊ทธ๋ฌ๋ Di Gregorio, Turci, Gigola(2025)๊ฐ ๊ธฐ๋กํ๋ฏ์ด, ์ด ๋ฒ๋ฅ ์๋จ๋ค ๊ฐ์ ์ํธ์์ฉ์ ๊ทธ ์์ฒด๋ก ๋ณต์ก์ฑ์ ๋ง๋ค์ด๋ธ๋ค.
EU ํ๋ ์์ํฌ: ์ธ ๊ฐ์ง ๋ฒ๋ฅ ์๋จ, ํ๋์ ์์คํ
Di Gregorio, Turci, Gigola(2025)๋ EU์ ์ ํฅ ๋ฒ์ ํ๋ ์์ํฌ์ ๋ํ ์ฒด๊ณ์ ์ธ ๋ถ์์ ์ ๊ณตํ๋ฉฐ, ๋ค๋จ๊ณ ๊ท์ ํ๋ ์์ํฌ, ์ฑ
์ ์ฒด๊ณ, ์๋ฃ ๋ฐ ๊ธ์ต ๋ถ์ผ์ ๋ถ๋ฌธ๋ณ ๊ณผ์ ๋ผ๋ ์ธ ๊ฐ์ง ์ถ์ผ๋ก ๊ตฌ์ฑํ๋ค.
AI Act๋ AI ์์คํ
์ ์ํ ์์คโํ์ฉ ๋ถ๊ฐ, ๊ณ ์ํ, ์ ํ์ , ์ต์โ์ ๋ฐ๋ผ ๋ถ๋ฅํ๊ณ , ๊ทธ ๋ถ๋ฅ์ ๋น๋กํ๋ ์๋ฌด๋ฅผ ๋ถ๊ณผํ๋ค. ๊ณ ์ํ ์์คํ
(ํต์ฌ ์ธํ๋ผ, ๊ต์ก, ๊ณ ์ฉ, ๋ฒ ์งํ์ ์ฌ์ฉ๋๋ ๊ฒ ํฌํจ)์ ์ํ ๊ด๋ฆฌ, ๋ฐ์ดํฐ ๊ฑฐ๋ฒ๋์ค, ํฌ๋ช
์ฑ, ์ธ๊ฐ ๊ฐ๋
, ์ ํ์ฑ์ ๋ํ ์๋ฌด์ ์๊ฑด์ ์ง๋ฉดํ๋ค. ๊ฐ์ ๋ ์ ์กฐ๋ฌผ ์ฑ
์ ์ง์นจ์ ์ํํธ์จ์ด์ AI ์์คํ
์ ์ต์ด๋ก "์ ํ"์ผ๋ก ์ทจ๊ธํ์ฌ ์๊ฒฉ ์ฑ
์(strict liability)์ ํ์ฅํ๋ค. ์ ์๋ AI ์ฑ
์ ์ง์นจ์ ๊ณต๊ธ์๊ฐ AI Act๋ฅผ ์ค์ํ์ง ์์ ๊ฒฝ์ฐ ์ธ๊ณผ๊ด๊ณ ์ถ์ ์ ์์ฑํ์ฌ, ์ฆ๋ช
์ฑ
์์ ํผํด์์์ ๊ฐ๋ฐ์๋ก ์ ํํ ๊ฒ์ด๋ค.
ํต์ฌ์ ์ธ ํต์ฐฐ์ ์ด ๋ฒ๋ฅ ์๋จ๋ค์ด ์ํธ์์ฉํ๋ค๋ ์ ์ด๋ค. AI Act์ ์๊ฑด ์ค์๋ ์ฑ
์ ์ ์ฐจ์์ ๋ฐฉ์ด ์๋จ์ผ๋ก ์์ฉํ ์ ์๋ ๋ฐ๋ฉด, ๋ฏธ์ค์๋ ํผํด์์๊ฒ ์ ๋ฆฌํ ์ถ์ ์ ์ด๋ฐํ๋ค. ์ด๋ ์ ์๋ค์ด EU์ ๊ฐ์ฅ ํ์ ์ ์ธ ๊ธฐ์ฌ๋ผ๊ณ ์ฃผ์ฅํ๋ ๊ท์ -์ฑ
์ ํผ๋๋ฐฑ ๋ฃจํ๋ฅผ ๋ง๋ค์ด๋ธ๋ค.
๊ด๋ฆฌ์ธ ๋ชจ๋ธ: UAE์ ๋์
Abdou(2025)๋ UAE์ ๋ฒ์ ๋งฅ๋ฝ์ ๋ง๊ฒ ์ ์ฉ๋ ๋์์ ํ๋ ์์ํฌ๋ฅผ ์ ์ํ๋ค. ๋ฐ๋ก ์์จ AI ์์คํ
์ ์ํ "๊ด๋ฆฌ์ธ(custodian)" ๊ฐ๋
์ด๋ค. ๋ฏผ๋ฒ๊ณผ ์ด์ฌ๋ ๋ฒํ ์ ํต ๋ชจ๋๋ฅผ ๋ฐํ์ผ๋ก, ์ด ๋
ผ๋ฌธ์ AI ์์คํ
์ด ํด๋ฅผ ๋ผ์น ์ ์์ง๋ง ๋ฒ์ ์ฑ
์์ ์ง ์ ์๋ค๋ ์ ์์ ์ญ์ฌ์ ์ผ๋ก ๊ด๋ฆฌ์ธ์ ํ์๋ก ํด์จ ์กด์ฌ๋คโ๋ฏธ์ฑ๋
์, ๋ฌด๋ฅ๋ ฅ์, ๋๋ฌผโ๊ณผ ํน์ฑ์ ๊ณต์ ํ๋ค๊ณ ์ฃผ์ฅํ๋ค.
๊ด๋ฆฌ์ธ ๋ชจ๋ธ(Custodian Model)
๊ด๋ฆฌ์ธ ๋ชจ๋ธ์ AI ์์คํ
์ ์ด์์ ๊ฐ๋
ํ ๋ฅ๋ ฅ๊ณผ ์๋ฌด๋ฅผ ๋ชจ๋ ๊ฐ์ถ ํน์ ์์ฐ์ธ ๋๋ ๋ฒ์ธ์๊ฒ ์ฑ
์์ ๋ถ๊ณผํ๋ค. ์ด๋ ์ ๊ณต์, ๋ฐฐํฌ์, ์ฌ์ฉ์์๊ฒ ์๋ฌด๋ฅผ ๋ถ์ฐํ๋ EU์ ๋ถ์ฐ ์ฑ
์ ์ ๊ทผ ๋ฐฉ์๊ณผ ๋ฌ๋ฆฌ, ๋จ์ผํ ์๋ณ ๊ฐ๋ฅ ๋น์ฌ์์๊ฒ ์ฑ
์์ ์ง์ค์ํจ๋ค. ์ด ๋ชจ๋ธ์ ์ฅ์ ์ ํผํด์ ์
์ฅ์์ ๋จ์ํ๊ณ ๋ช
ํํ๋ค๋ ์ ์ด๋ค. ๋ฐ๋ฉด ๋จ์ ์, ํ๋ จ ๋ฐ์ดํฐ ์ ๊ณต์, ๋ชจ๋ธ ๊ฐ๋ฐ์, ํ์ธํ๋(fine-tuner), ๋ฐฐํฌ์ ๋ชจ๋๊ฐ ์์คํ
์ ํ๋์ ๊ธฐ์ฌํ๋ AI ์์คํ
๊ฑฐ๋ฒ๋์ค์ ๋ถ์ฐ์ ํน์ฑ์ ์ ํํ ๋ฐ์ํ์ง ๋ชปํ ์ ์๋ค๋ ๊ฒ์ด๋ค.
์์จ์ฃผํ์ฐจ: ์ํ ์ฌ๋ก
Praveen, Palarimath, Akbar(2025)๋ AI ์ฑ
์ ๋ฌธ์ ๊ฐ ๊ฐ์ฅ ์ฆ๊ฐ์ ์ผ๋ก ์ค์ํ ์ํฅ์ ๋ฏธ์น๋ ํน์ ์์ญ์ธ ์์จ์ฃผํ์ฐจ(AV)์ ์ด์ ์ ๋ง์ถ๋ค. ์ด ์ฐ๊ตฌ๋ Decision Trees, Random Forests, Gradient Boosting ๋ชจ๋ธ์ ํ์ฉํ์ฌ AV์์์ ๋จธ์ ๋ฌ๋ ์์ฌ๊ฒฐ์ ์ด ๋ฒ๋ฅ ์ ์ํด ์ด๋ป๊ฒ ํด์๋๋์ง ๋ถ์ํ๊ณ , ์ฑ
์ ์์ฌ์ ๋ํ ๋ถ๋ฅ ์ฒด๊ณ๋ฅผ ์ ์ํ๋ค.
์ด ๋
ผ๋ฌธ์ ๊ทผ๋ณธ์ ์ธ ๊ธด์ฅ ๊ด๊ณ๋ฅผ ์ง์ ํ๋ค. AV์ ์์ฌ๊ฒฐ์ ์ ํ๋ฅ ์ ์ด์ง๋ง, ๋ฒ์ ์ฑ
์ ์ฒด๊ณ๋ ๊ณผ์ค ์ฌ๋ถ์ ๋ํ ์ด๋ถ๋ฒ์ ํ๋จ์ ์๊ตฌํ๋ค๋ ๊ฒ์ด๋ค. AV์ ์๊ณ ๋ฆฌ์ฆ์ด ํน์ ํ๋ ๋ฐฉ์นจ์ 60%์ ํ๋ฅ ์ ๋ถ์ฌํ๊ณ ๋ค๋ฅธ ๋ฐฉ์นจ์ 40%๋ฅผ ๋ถ์ฌํ์ ๋, ์ ํ๋ ํ๋์ด ํผํด๋ฅผ ์ผ๊ธฐํ๋ค๋ฉด ํด๋น ๊ฒฐ์ ์ "๊ฒฐํจ์ด ์๋" ๊ฒ์ธ๊ฐ? ์ ์๋ค์ ํํ ์ฒด๊ณ๋ก๋ ์ด ์ง๋ฌธ์ ์ผ๊ด์ฑ ์๊ฒ ๋ตํ ์ ์์ผ๋ฉฐ, ์๊ณ ๋ฆฌ์ฆ์ ํฉ๋ฆฌ์ฑ์ ๋ํ ์๋ก์ด ๊ธฐ์ค์ด ํ์ํ๋ค๊ณ ์ฃผ์ฅํ๋ค.
๋น๊ต ์ฒด๊ณ
<
| ํญ๋ชฉ | EU ๋ชจ๋ธ | UAE ๊ด๋ฆฌ์ธ ๋ชจ๋ธ | ๋ฏธ๊ตญ(ํํ) |
|---|
| ์ฑ
์ ๊ทผ๊ฑฐ | ์ ์กฐ๋ฌผ ์ฑ
์ + AI ํนํ ์ถ์ | ๊ด๋ฆฌ์ธ ์ฑ
์ | ๊ณผ์ค / ์ ์กฐ๋ฌผ ์ฑ
์ (๋ถ์ฐ์ ) |
| ์
์ฆ ์ฑ
์ | ๋ฏธ์ค์ ์ ์ ๊ณต์์๊ฒ ์ ํ | ์ฒญ๊ตฌ์ธ์๊ฒ ์์ผ๋, ๊ด๋ฆฌ์ธ์ ์๊ฒฉํ ์๋ฌด ์กด์ฌ | ์ฒญ๊ตฌ์ธ์๊ฒ ์์ |
| ํต์ฌ ํ์์ | ์ ๊ณต์, ๋ฐฐํฌ์, ์ฌ์ฉ์ (๋ถ์ฐํ) | ์ง์ ๋ ๊ด๋ฆฌ์ธ (์ง์คํ) | ๊ดํ ๊ถ์ ๋ฐ๋ผ ์์ด |
| ๋ถํฌ๋ช
์ฑ ๋ฌธ์ | ๊ณต๊ฐ ์๋ฌด + ์ธ๊ณผ๊ด๊ณ ์ถ์ | ๊ด๋ฆฌ์ธ์ด ๋ถํฌ๋ช
์ฑ์ ์ํ ๋ถ๋ด | ์ฒด๊ณ์ ํด๊ฒฐ์ฑ
์์ |
| ๊ท์ ์ฐ๊ณ | AI Act ์ค์ = ์ฑ
์ ๋ฉด์ ์ฌ์ | ๊ท์ ์ค์ ๊ด๋ จ์ฑ ์์ผ๋ ๊ฒฐ์ ์ ์ด์ง ์์ | ์ฐ๋ฐฉ ์ฐจ์์ AI ๊ท์ ์์ |
ํฅํ ์ฃผ๋ชฉํ ์ฌํญ
ํฅํ 12~18๊ฐ์์ด ๊ฒฐ์ ์ ์ธ ์๊ธฐ๊ฐ ๋ ๊ฒ์ด๋ค. EU AI Act์ ์ ๋ฉด ์ํ(๋๋ถ๋ถ์ ๊ณ ์ํ ์์คํ
์๋ฌด์ ๋ํด 2026๋
8์ 2์ผ)์ ๊ท์ -์ฑ
์ ํผ๋๋ฐฑ ๋ฃจํ๊ฐ ์ค์ ๋ก ์๋ํ๋์ง ๊ฒ์ฆํ๋ ๊ณ๊ธฐ๊ฐ ๋ ๊ฒ์ด๋ค. UAE์ ๊ด๋ฆฌ์ธ ๋ชจ๋ธ์ ์ค๋งํธ ์ํฐ ์ฌ์
์ ์์จ ์์คํ
์ด ๋ฐฐํฌ๋จ์ ๋ฐ๋ผ ์ฒซ ๋ฒ์งธ ์ค์ ์ฌ๊ฑด์ ๋ง์ดํ๊ฒ ๋ ๊ฒ์ด๋ค. ๊ทธ๋ฆฌ๊ณ ์ฐ๋ฐฉ ์ฐจ์์ AI ์ฑ
์ ์ฒด๊ณ๊ฐ ์๋ ๋ฏธ๊ตญ์ ์ฃผ(ๅท) ๋จ์ ์์ก์ ํตํด ์ด๋ฌํ ๋ฌธ์ ๋ค์ ๊ณ์ ๋ค๋ฃจ๊ฒ ๋ ๊ฒ์ด๋ฉฐ, ์ด๋ 50๊ฐ์ ์์ดํ ๊ธฐ์ค์ด ๋ณ์กดํ๋ ์ํฉ์ ์ด๋ํ ์ ์๋ค. ์ฐ์
ํ ์๋์ ์ ์กฐ์
์ ์ํด ์ค๊ณ๋ ์ฑ
์ ์ฒด๊ณ๊ฐ ์๊ณ ๋ฆฌ์ฆ ์๋์ ์์ฌ๊ฒฐ์ ์ ์ ์ฉ๋ ์ ์๋์ง, ์๋๋ฉด ์์ ํ ์๋ก์ด ๋ฒ์ ๋ฒ์ฃผ๊ฐ ํ์ํ์ง์ ์ฌ๋ถ๋ ์ฌ์ ํ ๊ทผ๋ณธ์ ์ธ ๊ณผ์ ๋ก ๋จ์ ์๋ค.
References (3)
[1] Di Gregorio, V., Turci, M., & Gigola, M. (2025). The Legal Framework of Artificial Intelligence in the European Union: Regulation, Liability, and Sectoral Challenges. Proceedings of ICAIR, 5(1), 4331.
[2] Abdou, M. (2025). Custodian of Autonomous AI Systems in the UAE: An Adapted Legal Framework. Laws, 15(1), 2.
[3] Praveen, P., Palarimath, S., & Akbar, S. (2025). AI-Driven Autonomous Vehicles and Legal Liability: Redefining Accountability in Human-AI Collaborative Systems.