Deep DiveComputer SystemsDesign Science Research
Proof of Personhood: Using Blockchain to Verify Humans in an AI-Saturated World
As AI-generated content becomes indistinguishable from human-created content, proving that an online entity is a unique human—not a bot or a duplicate—becomes a foundational infrastructure problem. Proof of personhood on blockchain offers cryptographic verification of humanity without revealing identity.
By Sean K.S. Shin
This blog summarizes research trends based on published paper abstracts. Specific numbers or findings may contain inaccuracies. For scholarly rigor, always consult the original papers cited in each post.
The internet was designed for a world where most content was created by humans. In 2025, this assumption is breaking down. AI systems generate text, images, video, and code that is increasingly indistinguishable from human-created content. Bots participate in online discussions, social media, product reviews, and democratic processes at a scale that undermines the assumption of human authorship underlying these systems.
The problem is not merely one of content quality—it is a problem of identity and trust. When you read a product review, is it written by a customer or by a marketing bot? When you engage in an online debate, is your counterpart a thinking human or a language model optimized to persuade? When a petition gathers a million signatures, how many represent unique humans?
Proof of personhood (PoP) addresses this by providing cryptographic evidence that a digital identity corresponds to a unique living human—without revealing which human. Combined with blockchain for decentralized, tamper-proof verification, and zero-knowledge proofs for privacy preservation, PoP creates an infrastructure layer that distinguishes human participants from AI agents.
Neulinger & Sparer extend this concept to AI alignment, arguing that PoP is not just a tool for bot detection but a foundational component of AI governance—enabling systems where AI actions are anchored to verified human authorization.
The Sybil Problem
The core technical challenge PoP addresses is the Sybil attack: a single entity creating multiple fake identities to gain disproportionate influence. In online voting, one person creates a thousand accounts and votes a thousand times. In social media, one operator runs a network of persona accounts that amplify a single narrative. In decentralized governance, one actor creates multiple wallets to dominate voting.
Traditional Sybil defenses rely on identity verification—passports, phone numbers, biometric scans—that create privacy risks and exclude people without access to official identity documents. PoP seeks to verify uniqueness (each human gets exactly one credential) without verifying identity (the system does not know who you are).
The AI Alignment Connection
Neulinger & Sparer's argument connects PoP to AI alignment through a governance mechanism:
Principle: Every consequential AI action should be traceable to a verified human authorization. Not to a specific identified human (that would be surveillance), but to some verified human (ensuring human oversight of AI systems).
Mechanism: AI systems that take consequential actions (financial transactions, content moderation decisions, autonomous vehicle commands) must hold a PoP-linked authorization token. The token proves that a human authorized the AI's action class without revealing which human.
Enforcement: Blockchain provides the immutable audit trail. If an AI system takes an unauthorized action, the lack of a PoP-linked authorization is publicly verifiable—enabling accountability without centralized surveillance.
This framework addresses a growing concern: as AI agents become more autonomous, how do we ensure they remain under human control? PoP provides a cryptographic answer—not by constraining AI capabilities directly, but by requiring human authorization for the exercise of those capabilities.
Claims and Evidence
<
| Claim | Evidence | Verdict |
|---|
| AI-generated content is increasingly indistinguishable from human content | Content detection benchmarks show declining accuracy | ✅ Well-documented |
| PoP can verify human uniqueness without revealing identity | Cryptographic construction demonstrated (ZKP-based) | ✅ Supported |
| PoP can anchor AI authorization to human oversight | Neulinger & Sparer propose framework; no deployment at scale | ⚠️ Conceptual |
| Blockchain provides adequate infrastructure for PoP | Decentralized, tamper-proof properties match requirements | ✅ Supported |
| PoP systems resist all forms of gaming | Biometric PoP may be defeated by deepfakes; social PoP has its own vulnerabilities | ⚠️ Ongoing arms race |
Open Questions
Biometric liveness: How do you verify that a human is alive and present—not a deepfake video or a recorded biometric? Liveness detection is an active research area with no definitive solution.Inclusivity: PoP systems must work for every human, regardless of disability, technology access, or documentation status. Systems that require smartphones, internet access, or specific biometric capabilities exclude vulnerable populations.Coercion resistance: Can someone be forced to generate a PoP credential for someone else? If so, the uniqueness guarantee breaks. Designing coercion-resistant PoP is an unsolved challenge.Revocation: What happens when a PoP credential holder dies? How do we prevent "ghost" credentials from being used posthumously?Global coordination: PoP systems only work if they are interoperable across jurisdictions and platforms. Who coordinates the global PoP infrastructure, and what governance model prevents any single entity from controlling it?What This Means for Your Research
For AI governance researchers, PoP provides a technical mechanism for the "human in the loop" requirement that governance frameworks demand but rarely operationalize. The blockchain-ZKP architecture makes human oversight verifiable without making it surveillance.
For digital identity researchers, PoP represents a new design point—proving uniqueness rather than identity—that challenges assumptions embedded in existing identity frameworks (passports, social security numbers, biometric databases).
For the broader technology community, the convergence of AI capability and content generation creates an urgency for PoP that did not exist five years ago. The question is not whether we need mechanisms to distinguish humans from AI online—it is whether we can build them fast enough.
면책 조항: 이 게시물은 정보 제공을 목적으로 한 연구 동향 개요이다. 학술 저작물에서 인용하기 전에 구체적인 연구 결과, 통계 및 주장을 원문 논문과 대조하여 검증해야 한다.
인격 증명(Proof of Personhood): AI가 포화된 세계에서 블록체인을 활용한 인간 신원 확인
인터넷은 대부분의 콘텐츠가 인간에 의해 생성되는 세계를 전제로 설계되었다. 2025년, 이 전제가 무너지고 있다. AI 시스템은 인간이 만든 콘텐츠와 점점 더 구별하기 어려운 텍스트, 이미지, 영상, 코드를 생성한다. 봇은 온라인 토론, 소셜 미디어, 상품 리뷰, 민주적 프로세스에 참여하며, 그 규모는 이러한 시스템의 근간을 이루는 인간 저작 전제를 훼손할 정도에 이르렀다.
이 문제는 단순히 콘텐츠 품질의 문제가 아니라 정체성과 신뢰의 문제이다. 상품 리뷰를 읽을 때, 그것이 실제 고객이 작성한 것인가, 아니면 마케팅 봇이 작성한 것인가? 온라인 토론에 참여할 때, 상대방은 생각하는 인간인가, 아니면 설득을 위해 최적화된 언어 모델인가? 청원서에 백만 개의 서명이 모였을 때, 그 중 몇 개가 고유한 인간을 대표하는가?
인격 증명(Proof of Personhood, PoP)은 어떤 인간인지를 공개하지 않으면서도 디지털 신원이 유일한 살아있는 인간에 해당함을 암호학적으로 증명함으로써 이 문제를 해결한다. 탈중앙화되고 변조 불가능한 검증을 위한 블록체인, 그리고 프라이버시 보호를 위한 영지식 증명(zero-knowledge proof)과 결합하여, PoP는 인간 참여자와 AI 에이전트를 구별하는 인프라 계층을 구축한다.
Neulinger & Sparer는 이 개념을 AI 정렬(AI alignment)로 확장하여, PoP가 단순한 봇 탐지 도구가 아니라 AI 거버넌스의 근본적인 구성 요소라고 주장한다. 즉, AI의 행동이 검증된 인간의 승인에 기반하는 시스템을 가능하게 한다는 것이다.
시빌 문제(Sybil Problem)
PoP가 해결하고자 하는 핵심 기술적 과제는 시빌 공격(Sybil attack)이다. 이는 단일 주체가 다수의 가짜 신원을 생성하여 불균형적인 영향력을 획득하는 것을 말한다. 온라인 투표에서는 한 사람이 수천 개의 계정을 만들어 수천 번 투표한다. 소셜 미디어에서는 한 운영자가 단일 서사를 증폭시키는 페르소나 계정 네트워크를 운영한다. 탈중앙화 거버넌스에서는 한 행위자가 여러 지갑을 생성하여 투표를 장악한다.
기존의 시빌 방어 방식은 여권, 전화번호, 생체 인식 스캔 등 신원 확인에 의존하며, 이는 프라이버시 위험을 초래하고 공식 신분증에 접근할 수 없는 사람들을 배제한다. PoP는 정체성(시스템이 당신이 누구인지 알지 못함)을 확인하지 않으면서 고유성(각 인간은 정확히 하나의 자격 증명을 받음)을 검증하고자 한다.
AI 정렬과의 연결
Neulinger & Sparer의 주장은 거버넌스 메커니즘을 통해 PoP를 AI 정렬과 연결한다.
원칙: 모든 중대한 AI 행동은 검증된 인간의 승인으로 추적 가능해야 한다. 특정 식별된 인간에게 귀속되어야 하는 것이 아니라(그것은 감시가 될 것이다), 어떤 검증된 인간에게 귀속되어야 한다(AI 시스템에 대한 인간 감독을 보장하기 위해).
메커니즘: 중대한 행동(금융 거래, 콘텐츠 조정 결정, 자율주행 차량 명령)을 수행하는 AI 시스템은 PoP와 연결된 승인 토큰을 보유해야 한다. 이 토큰은 어떤 인간인지를 공개하지 않으면서도 인간이 해당 AI의 행동 유형을 승인했음을 증명한다.
집행: 블록체인은 불변의 감사 추적을 제공한다. AI 시스템이 승인되지 않은 행동을 취할 경우, PoP와 연결된 승인의 부재가 공개적으로 검증 가능하여 중앙집권적 감시 없이도 책임 추적이 가능하다.
이 프레임워크는 점점 더 자율화되는 AI 에이전트를 어떻게 인간의 통제 하에 유지할 것인가라는 커지는 우려에 대응한다. PoP는 AI 역량을 직접 제한하는 방식이 아니라, 그 역량의 행사에 인간의 승인을 요구함으로써 암호학적 해답을 제시한다.
주장과 근거
<
| 주장 | 근거 | 판정 |
|---|
| AI가 생성한 콘텐츠는 인간이 만든 콘텐츠와 점점 더 구별하기 어려워지고 있다 | 콘텐츠 탐지 벤치마크에서 정확도가 하락하고 있음이 나타남 | ✅ 충분히 입증됨 |
| PoP는 신원을 노출하지 않고 인간의 고유성을 검증할 수 있다 | ZKP 기반 암호학적 구성이 입증됨 | ✅ 지지됨 |
| PoP는 AI 인가를 인간 감독에 연결할 수 있다 | Neulinger & Sparer가 프레임워크를 제안하였으나 대규모 배포는 없음 | ⚠️ 개념적 |
| 블록체인은 PoP에 적합한 인프라를 제공한다 | 탈중앙화 및 변조 방지 특성이 요구사항에 부합함 | ✅ 지지됨 |
| PoP 시스템은 모든 형태의 게임 공격에 저항한다 | 생체인식 PoP는 딥페이크에 의해 무력화될 수 있으며, 소셜 PoP는 고유한 취약점을 가짐 | ⚠️ 진행 중인 군비 경쟁 |
미해결 과제
생체인식 활성 여부(Biometric liveness): 인간이 살아서 존재하고 있음을, 즉 딥페이크 영상이나 녹화된 생체정보가 아님을 어떻게 검증하는가? 활성 감지(liveness detection)는 현재까지 결정적인 해결책이 없는 활발한 연구 분야이다.포용성(Inclusivity): PoP 시스템은 장애, 기술 접근성, 또는 문서 보유 여부와 무관하게 모든 인간에게 작동해야 한다. 스마트폰, 인터넷 접속, 또는 특정 생체인식 기능을 요구하는 시스템은 취약 계층을 배제한다.강압 저항성(Coercion resistance): 누군가가 타인을 위해 PoP 자격증명을 생성하도록 강요받을 수 있는가? 만약 그렇다면 고유성 보장이 무너진다. 강압에 저항하는 PoP를 설계하는 것은 아직 해결되지 않은 과제이다.폐기(Revocation): PoP 자격증명 보유자가 사망했을 때 어떻게 되는가? "유령" 자격증명이 사후에 사용되는 것을 어떻게 방지하는가?글로벌 조율(Global coordination): PoP 시스템은 관할권과 플랫폼 전반에 걸쳐 상호운용 가능할 때에만 작동한다. 누가 글로벌 PoP 인프라를 조율하며, 어떤 거버넌스 모델이 단일 주체의 통제를 방지하는가?연구에 대한 시사점
AI 거버넌스 연구자에게 PoP는 거버넌스 프레임워크가 요구하지만 좀처럼 운용화하지 못하는 "인간 참여(human in the loop)" 요건에 대한 기술적 메커니즘을 제공한다. 블록체인-ZKP 아키텍처는 인간 감독을 감시로 만들지 않으면서도 검증 가능하게 한다.
디지털 신원 연구자에게 PoP는 신원이 아닌 고유성을 증명하는 새로운 설계 지점을 제시하며, 이는 기존 신원 프레임워크(여권, 사회보장번호, 생체인식 데이터베이스)에 내재된 가정에 도전한다.
광범위한 기술 커뮤니티에 있어, AI 역량과 콘텐츠 생성의 수렴은 5년 전에는 존재하지 않았던 PoP에 대한 긴박성을 만들어낸다. 문제는 온라인에서 인간과 AI를 구별하는 메커니즘이 필요한지 여부가 아니라, 그것을 충분히 빠르게 구축할 수 있는지 여부이다.
References (1)
[1] Neulinger, A. & Sparer, L. (2025). Fostering AI alignment through blockchain, proof of personhood and zero knowledge proofs. Cluster Computing.