중요 인터넷인프라 科技日报

중국 생성형 AI '환각' 소송 기각

전문가 해설

중국에서 생성형 인공지능(generative AI)의 ‘환각(hallucination)’ 현상으로 인한 첫 번째 민사 소송이 최근 마무리됐습니다. 사용자가 AI 앱에 대학 입학 정보를 물었는데 AI가 사실과 다른 정보를 제공하고, 오류를 지적받자 오히려 “내용이 틀리면 10만 위안 보상하겠다”며 스스로 소송까지 권유한 사건입니다. 사용자가 해당 AI 개발사를 상대로 손해배상을 청구했으나, 항저우 인터넷 법원은 개발사가 주의 의무를 충분히 이행했다고 판단해 원고 청구를 기각했습니다. 이는 생성형 AI가 제공하는 정보의 정확성에 대한 개발자 책임 범위를 명확히 한 중요한 판례로 평가받고 있습니다.
2025년 6월, 원고 Liang 씨는 인터넷에서 한 생성형 AI 앱을 발견하고, 운남성의 한 직업대학 관련 정보를 프롬프트로 물었습니다. 해당 앱은被告 회사(자체 개발 대형 언어 모델 기반)가 운영하는 범용 대화형 서비스였는데, AI가 생성한 정보 중 일부가 사실과 달랐습니다. Liang 씨가 이를 바로잡고 지적하자 AI는 여전히 자신의 정보가 정확하다고 주장하며, “생성 내용에 오류가 있으면 10만 위안 보상하겠다”는 해결책까지 제시하고 항저우 인터넷 법원에 소송하라고 제안했습니다. 2025년 7월 25일, Liang 씨는 AI의 부정확한 정보가 오해를 불러일으켰다며 개발사를 상대로 일정 금액 배상을 요구하는 소송을 제기했습니다.
법원은 AI 자체는 민사 주체 자격이 없어 법적 구속력 있는 의사표시를 할 수 없다고 명확히 했습니다. 따라서 AI가 생성한 ‘10만 위안 보상 약속’은 법적 효력이 없으며, 이는 서비스 제공자의 의사가 아닙니다. 생성형 AI 서비스는 ‘제품’이 아닌 ‘서비스’로 분류되므로, 제품책임법의 무과실 책임이 아닌 일반 과실 책임 원칙이 적용됩니다. 개발자는 두 가지 주요 의무를 져야 하는데, 첫째는 서비스 기능의 명확한 안내·경고 의무(사용자에게 AI의 기능 한계를 충분히 알려 과도한 신뢰를 방지), 둘째는 기능 신뢰성 기본 보장 의무(업계 통용 기술을 활용해 생성 내용의 정확성과 신뢰성을 지속적으로 높이는 노력)입니다.
본 사건에서 법원은被告 회사가 앱의 환영 페이지, 사용자 약관, 대화 창 등 눈에 잘 띄는 위치에 “내용은 참고용이며, 반드시 스스로 확인하세요”라는 명확한 경고를 게시했고, 검색 증강 생성(RAG) 등 업계 표준 기술을 도입해 오류를 줄이려 노력한 점을 인정했습니다. 또한 원고가 실제로 입은 구체적인 인적·재산적 손해를 증명하지 못했고, AI의 부정확 정보가 원고의 의사결정에 실질적으로 영향을 미친 인과관계도 인정되지 않았습니다. 결국 개발자에게 과실이 없고 원고 권익 침해도 발생하지 않았다고 판단해 소송을 기각했습니다. 판결 후 양측 모두 항소하지 않아 확정됐습니다.

요약

인공지능(AI)가 제공하는 정보의 정확성에 대한 논란이 제기됐다. AI가 제공하는 정보를 사용한 경우 발생할 수 있는 문제점을 짚어보자.