중국 정부, AI+ 전략 심화로 경제 고도화 추진
전문가 해설
보도에 따르면 2026년 전국인민대표대회 기간 동안 인공지능(AI)이 핵심 경제 정책 의제로 다시 떠올랐습니다. 중국 정부는 정부업무보고에서 ‘AI+ 전략’을 심화하고 차세대 스마트 단말기와 AI 에이전트 보급을 확대하며 주요 산업 분야에서 인공지능 상용화를 추진하겠다고 밝혔습니다. 중국 공업정보화부(MIIT, 工业和信息化部) 장관 리러청(李乐成)은 AI가 경제 고품질 성장의 핵심 변수라고 설명했으며, 2025년 기준 중국 인공지능 핵심 산업 규모는 이미 1조2000억 위안(약 230조 원)을 넘어섰고 관련 기업은 6200개 이상이라고 밝혔습니다. 또한 국가발전개혁위원회(NDRC, 国家发展和改革委员会) 주임 정산제(郑栅洁)는 “제15차 5개년 계획(十五五)” 말에는 인공지능 관련 산업 규모가 10조 위안 이상으로 성장할 것이라고 전망했습니다.
그러나 이러한 빠른 산업 성장과 함께 여러 문제도 발생하고 있습니다. 최근 중국에서는 AI 딥페이크 사기, 음성 모방 기술을 이용한 범죄, AI 디지털 인간(가상 인플루언서)을 활용한 소비자 기만, 대규모 데이터 수집 과정에서 발생하는 지적재산권 분쟁 등이 잇따르고 있습니다. 현재 중국에는 Civil Code(민법, 民法典), Personal Information Protection Law(개인정보보호법, 个人信息保护法), Cybersecurity Law(네트워크 보안법, 网络安全法) 등 관련 법률이 존재하지만 인공지능 산업 전체를 규율하는 통합적인 법 체계는 아직 마련되지 않았습니다. 특히 2026년 1월부터 시행된 개정 「네트워크 보안법」이 처음으로 AI 규제를 언급했지만, 원칙적 규정에 머물러 실제 산업 현장에서 발생하는 다양한 문제를 해결하기에는 부족하다는 지적이 제기되고 있습니다.
대표적인 사례로는 AI 에이전트와 사용자 간 책임 범위, 자율주행 자동차 산업에서의 사고 책임 문제, AI 의료 보조 시스템에서 발생하는 의료 분쟁 등이 있습니다. 이러한 문제들은 기존 법 체계만으로는 해결이 어렵기 때문에 보다 구체적인 입법이 필요하다는 의견이 나오고 있습니다. 이에 전국인민대표대회 대표인 린즈잉(林至颖)은 국가 차원의 「인공지능법(Artificial Intelligence Law, 人工智能法)」 제정을 제안했습니다. 그는 현재 인공지능 산업이 국가발전개혁위원회, 공업정보화부, 인터넷정보판공실 등 20개 이상의 정부 부처가 동시에 관여하는 구조이기 때문에 기업들이 중복 규제와 높은 규제 비용에 직면하고 있다고 지적했습니다.
또한 AI 산업의 핵심 요소인 데이터와 컴퓨팅 자원과 관련된 제도 개선도 제안되었습니다. 린즈잉 대표는 AI 학습 데이터에 대해 ‘보유권·사용권·경영권’을 분리하는 데이터 관리 제도를 도입할 것을 제안했습니다. 이는 기업이 합법적으로 수집한 데이터를 활용해 AI 모델을 학습시키고 경제적 수익을 창출할 수 있도록 제도적 기반을 마련하려는 목적입니다. 또한 연구개발 단계에서는 텍스트 및 데이터 마이닝(Text and Data Mining)을 일정 범위에서 합법적으로 허용해 연구기관과 기업의 혁신 비용을 낮추자는 제안도 나왔습니다.
한편 AI 기술이 실제 산업에 적용되는 과정에서 다양한 새로운 규제 문제도 제기되었습니다. 예를 들어 ZTE(중싱통신, 中兴通讯) 부회장 먀오웨이(苗伟)는 휴머노이드 로봇과 서비스 로봇이 확대되면서 얼굴 인식 등 생체정보가 대량으로 수집될 위험이 커지고 있다고 지적했습니다. 또한 Midea Group(메이디 그룹, 美的集团)의 CFO 종정(钟铮)은 AI 디지털 인간을 활용한 라이브커머스에서 소비자 기만 사례가 늘고 있다고 설명했습니다. 이에 대해 전문가들은 AI 디지털 인간 등록 제도와 책임 추적 시스템을 도입해 기술 악용을 방지해야 한다고 제안했습니다.
제가 볼 때 이 뉴스는 중국이 인공지능 산업을 적극적으로 육성하는 동시에 규제 체계도 함께 구축하려는 ‘산업 정책 2단계’에 들어섰다는 점을 보여준다고 생각합니다. 초기 단계에서는 기술 발전을 촉진하기 위해 규제를 최소화하는 경우가 많지만, 산업 규모가 커지면 시장 질서를 유지하기 위한 법 체계가 필요해집니다. 예를 들어 유럽연합(EU)은 이미 AI Act를 통해 인공지능 규제를 체계화하고 있으며, 미국도 AI 안전성과 데이터 규제 관련 정책 논의를 강화하고 있습니다. 중국 역시 AI 산업 규모가 빠르게 확대되면서 유사한 정책 단계에 진입하고 있는 것으로 보입니다. 특히 중국은 AI 산업을 국가 전략 산업으로 보고 있기 때문에 규제의 목적이 산업을 제한하는 것이라기보다는 시장 질서를 정비하고 투자 불확실성을 줄이려는 성격이 강합니다. 실제로 명확한 규제 체계가 구축되면 투자자와 기업 입장에서는 정책 리스크가 줄어들어 오히려 장기 투자가 늘어날 가능성이 있습니다. 장기적으로 보면 중국은 AI 기술 개발, 데이터 자원, 산업 응용 측면에서 이미 세계 주요 경쟁국과 경쟁하는 수준에 올라와 있습니다. 따라서 향후 인공지능 법률 제정 과정은 단순한 국내 정책이 아니라 글로벌 AI 산업 규범 경쟁에서도 중요한 의미를 가지게 될 가능성이 크다고 판단됩니다.
그러나 이러한 빠른 산업 성장과 함께 여러 문제도 발생하고 있습니다. 최근 중국에서는 AI 딥페이크 사기, 음성 모방 기술을 이용한 범죄, AI 디지털 인간(가상 인플루언서)을 활용한 소비자 기만, 대규모 데이터 수집 과정에서 발생하는 지적재산권 분쟁 등이 잇따르고 있습니다. 현재 중국에는 Civil Code(민법, 民法典), Personal Information Protection Law(개인정보보호법, 个人信息保护法), Cybersecurity Law(네트워크 보안법, 网络安全法) 등 관련 법률이 존재하지만 인공지능 산업 전체를 규율하는 통합적인 법 체계는 아직 마련되지 않았습니다. 특히 2026년 1월부터 시행된 개정 「네트워크 보안법」이 처음으로 AI 규제를 언급했지만, 원칙적 규정에 머물러 실제 산업 현장에서 발생하는 다양한 문제를 해결하기에는 부족하다는 지적이 제기되고 있습니다.
대표적인 사례로는 AI 에이전트와 사용자 간 책임 범위, 자율주행 자동차 산업에서의 사고 책임 문제, AI 의료 보조 시스템에서 발생하는 의료 분쟁 등이 있습니다. 이러한 문제들은 기존 법 체계만으로는 해결이 어렵기 때문에 보다 구체적인 입법이 필요하다는 의견이 나오고 있습니다. 이에 전국인민대표대회 대표인 린즈잉(林至颖)은 국가 차원의 「인공지능법(Artificial Intelligence Law, 人工智能法)」 제정을 제안했습니다. 그는 현재 인공지능 산업이 국가발전개혁위원회, 공업정보화부, 인터넷정보판공실 등 20개 이상의 정부 부처가 동시에 관여하는 구조이기 때문에 기업들이 중복 규제와 높은 규제 비용에 직면하고 있다고 지적했습니다.
또한 AI 산업의 핵심 요소인 데이터와 컴퓨팅 자원과 관련된 제도 개선도 제안되었습니다. 린즈잉 대표는 AI 학습 데이터에 대해 ‘보유권·사용권·경영권’을 분리하는 데이터 관리 제도를 도입할 것을 제안했습니다. 이는 기업이 합법적으로 수집한 데이터를 활용해 AI 모델을 학습시키고 경제적 수익을 창출할 수 있도록 제도적 기반을 마련하려는 목적입니다. 또한 연구개발 단계에서는 텍스트 및 데이터 마이닝(Text and Data Mining)을 일정 범위에서 합법적으로 허용해 연구기관과 기업의 혁신 비용을 낮추자는 제안도 나왔습니다.
한편 AI 기술이 실제 산업에 적용되는 과정에서 다양한 새로운 규제 문제도 제기되었습니다. 예를 들어 ZTE(중싱통신, 中兴通讯) 부회장 먀오웨이(苗伟)는 휴머노이드 로봇과 서비스 로봇이 확대되면서 얼굴 인식 등 생체정보가 대량으로 수집될 위험이 커지고 있다고 지적했습니다. 또한 Midea Group(메이디 그룹, 美的集团)의 CFO 종정(钟铮)은 AI 디지털 인간을 활용한 라이브커머스에서 소비자 기만 사례가 늘고 있다고 설명했습니다. 이에 대해 전문가들은 AI 디지털 인간 등록 제도와 책임 추적 시스템을 도입해 기술 악용을 방지해야 한다고 제안했습니다.
제가 볼 때 이 뉴스는 중국이 인공지능 산업을 적극적으로 육성하는 동시에 규제 체계도 함께 구축하려는 ‘산업 정책 2단계’에 들어섰다는 점을 보여준다고 생각합니다. 초기 단계에서는 기술 발전을 촉진하기 위해 규제를 최소화하는 경우가 많지만, 산업 규모가 커지면 시장 질서를 유지하기 위한 법 체계가 필요해집니다. 예를 들어 유럽연합(EU)은 이미 AI Act를 통해 인공지능 규제를 체계화하고 있으며, 미국도 AI 안전성과 데이터 규제 관련 정책 논의를 강화하고 있습니다. 중국 역시 AI 산업 규모가 빠르게 확대되면서 유사한 정책 단계에 진입하고 있는 것으로 보입니다. 특히 중국은 AI 산업을 국가 전략 산업으로 보고 있기 때문에 규제의 목적이 산업을 제한하는 것이라기보다는 시장 질서를 정비하고 투자 불확실성을 줄이려는 성격이 강합니다. 실제로 명확한 규제 체계가 구축되면 투자자와 기업 입장에서는 정책 리스크가 줄어들어 오히려 장기 투자가 늘어날 가능성이 있습니다. 장기적으로 보면 중국은 AI 기술 개발, 데이터 자원, 산업 응용 측면에서 이미 세계 주요 경쟁국과 경쟁하는 수준에 올라와 있습니다. 따라서 향후 인공지능 법률 제정 과정은 단순한 국내 정책이 아니라 글로벌 AI 산업 규범 경쟁에서도 중요한 의미를 가지게 될 가능성이 크다고 판단됩니다.
요약
인공지능(AI) 산업이 성장하고 있지만, 관련 법제정에 대한 필요성이 조기해결해야 한다고 주장된다. AI는 전자정부, 금융, 보건 등 다양한 분야에서 실제적 영향을 미치고 있어, 이를 규제하는 법을 만들 필요가 있다.
界面新闻记者 |
徐美慧
界面新闻编辑 |
文姝琪
2026年全国两会期间,AI再次成为核心议题。
政府工作报告在介绍2026年政府工作任务时提出,深化拓展“人工智能+”,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式。
3月5日,工信部部长李乐成在全国两会首场“部长通道”上表示,人工智能这个“关键变量”正成为经济高质量发展的“强劲增量”。2025年,我国人工智能核心产业规模超过1.2万亿元,企业超过6200家。
国家发展改革委主任郑栅洁3月6日在经济主题记者会上则表示,“十五五”末人工智能相关产业规模将增长到十万亿元以上。
面对即将爆发的十万亿级市场,与之相伴的却是产业前期的野蛮生长与阵痛。在技术应用迅速铺开的同时,现有法律框架与激增的商业化需求出现了明显错位。
近年来,从AI换脸诈骗、拟声造假,到数字人直播中的消费欺诈,再到大规模数据抓取引发的商业侵权,相关商业纠纷与灰产乱象在各个业务链条中密集显现,现有的法律体系在应对复杂场景时面临着严峻的适用性挑战。
谈及现有法律的局限性,全国人大代表林至颖坦言,2026年1月1日正式施行的新修订版《中华人民共和国网络安全法》首次将人工智能正式纳入监管视野,为底层安全治理提供了重要遵循,但原则性条款尚不足以应对复杂现实。
植德律师事务所合伙人陈文昊在界面新闻记者采访时指出,当前我国缺乏对AI进行整体规制的上位法,“在将民法典、个人信息保护法、网络安全法等上位法中抽象、宏观的法律条款适用于AI落地的具体场景时,存在较大的困难和匹配性差的问题。”
目前立法的迫切性,在诸多高频的商业场景中体现得尤为致命。陈文昊举例称,例如AI Agent与使用人之间的责任与权限边界认定、自动驾驶产业链中的责任分配,以及辅助诊疗中的医患纠纷等,这些新兴领域产生的问题均亟需针对性立法来解决。
正因缺乏统一规则,在实际运行中,整个产业正面临多头监管、合规成本高企以及核心要素权属不清等深层次的结构性矛盾。
2026年全国两会期间,加快推进国家层面的人工智能专门立法已从理论探讨成为多位代表委员的普遍共识与提案建议。
林至颖今年便带来了关于加快推进国家层面就AI立法的建议。他向界面新闻记者表示,当前AI产业发展在基层涉及发改、网信、工信、科创等20余个部门,企业普遍面临“重复监管”与合规成本高企的痛点。
就此,他建议尽快将《中华人民共和国人工智能法》纳入立法规划,明确“促进型立法”基调,由国务院工业和信息化主管部门作为主要促进和管理部门,建立部际联席会议机制,从根源上解决多头监管问题。
在商业落地的核心生产要素数据与算力层面,林至颖指出,制度滞后正在制约产业的商业化上限。他建议构建“三权分置”的数据基础制度,明确AI训练数据的持有权、使用权和经营权。
他认为,新增条款应保障数据处理者在合法收集且不侵犯商业秘密的前提下,依法享有使用和收益的权利。
这一机制旨在化解企业“不敢用、用不起”的合规焦虑。同时,他建议创设“文本与数据挖掘”的合理使用例外,降低研发期非商业使用的知识产权风险。
此外,针对中小企业和非营利性科研机构算力成本高昂的问题,他主张建立“公共数据共享目录”,建立公共数据有条件开放义务清单。
为进一步加快技术的商业化进程,林至颖强调需以应用场景为牵引,推行风险分级分类与产品准入“沙盒”机制。
他建议,在全国范围内推广低风险AI产品的测试准入制度,经评估为低风险的产品允许先行先试,实行测试报告与安全性评估跨省互认。
针对后续商业化应用中极易出现的侵权纠纷,林至颖建议在立法中明确人工智能侵权的过错推定责任原则。
他指出,一旦因产品缺陷或未尽注意义务造成损害,应由AI服务提供者承担举证责任,证明其已履行数据合规与算法审计等法定职责,受害人无需证明服务提供者具体过错。这一机制的转变不仅能大幅降低维权取证门槛,更将倒逼大模型厂商从底层重构其商业合规审核体系。
针对责任界定,陈文昊向界面新闻补充指出,未来立法在责任设计上应做到“过罚相当,穿透但不苛责”。他强调,需要区分故意违规、过失违规与技术不可控的情况,让处罚与风险程度相匹配,避免让企业承担泛化的连带责任。
图片来源:图虫
关于合规责任重构对商业化落地的实质影响,CIC灼识咨询执行董事陈达禹给出了市场视角的观察。
陈达禹向界面新闻分析称,在缺乏全国性统一法律框架的情况下,产业链上下游企业,尤其是处于市场开拓期的企业,面临的最核心隐性阻力正是不确定的合规成本与模糊的商业拓展边界。
陈达禹认为,未来相关法律的落地将明确行业发展的“红绿灯”,统一的规则将极大消除投资者因政策不明朗产生的观望情绪,提振长期资本的投资信心。
“立法过程本身也会加速行业洗牌。”陈达禹向界面新闻表示,未来资源将加速向头部合规企业集中,无法适应新规的企业将被淘汰,而技术实力强、率先完成合规布局的优质初创企业,将更容易获得融资并享受估值溢价。
除了底层运行规则的系统性重构与商业投资逻辑的演变,针对特定前沿硬件和高频商业场景的精细化规制,同样是代表委员们聚焦的重点。
全国人大代表、中兴通讯党委书记、高级副总裁苗伟将目光投向了生物识别安全。他向界面新闻指出,在人形机器人和服务机器人等的应用过程中,大量带有强烈人身专属属性的生物识别信息,正处于被主动或被动暴露的风险之中。
针对面容克隆等前沿技术的特性,苗伟呼吁必须严格落实“告知—同意”的原则,尽快制定人脸机器人技术安全标准,在法律层面上清晰划定人脸数据处理与面容克隆的边界。
类似的数据安全与身份失范危机,在商业变现链路极短的直播电商领域已演化为具体乱象。AI数字人作为极具潜力的应用形态,正在品牌宣传、文化传播等领域释放商业价值。
全国人大代表、美的集团股份有限公司副总裁、首席财务官钟铮向界面新闻指出,伴随数字人制作与运营门槛的降低,其在直播带货中的滥用和违规现象正呈蔓延之势。
她表示,身份虚假、劣质内容横行以及后续的消费者权益纠纷,正严重透支着人工智能技术的社会信任。
钟铮坦言,现阶段相关法律在界定生成式AI和GEO(生成式引擎优化)技术的非法边界上尚不清晰。为此,她建议在推进人工智能法等相关立法进程中,设立专门的AI数字人直播管理条款,强制推行数字人注册备案制度,做到“数字形象可标识、责任主体可追溯”。
“人工智能立法不是为发展设置‘天花板’,而是铺设‘安全垫’。”林至颖表示。
对此观点,陈文昊也表示认同。他指出,面对“十五五”末可能达到十万亿级的市场规模,AI立法的平衡点必须落在安全底线刚性与创新空间弹性上,绝不能搞“一刀切”。
在陈文昊看来,AI立法真正的定位并非限制产业,而是通过降低制度性交易成本、统一国内大市场规则,进而提升国际竞争力。“清晰的规则能够有效减少诉讼内耗、稳定资本预期,从而加速商业化落地,让技术真正服务实体经济。”
徐美慧
界面新闻编辑 |
文姝琪
2026年全国两会期间,AI再次成为核心议题。
政府工作报告在介绍2026年政府工作任务时提出,深化拓展“人工智能+”,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式。
3月5日,工信部部长李乐成在全国两会首场“部长通道”上表示,人工智能这个“关键变量”正成为经济高质量发展的“强劲增量”。2025年,我国人工智能核心产业规模超过1.2万亿元,企业超过6200家。
国家发展改革委主任郑栅洁3月6日在经济主题记者会上则表示,“十五五”末人工智能相关产业规模将增长到十万亿元以上。
面对即将爆发的十万亿级市场,与之相伴的却是产业前期的野蛮生长与阵痛。在技术应用迅速铺开的同时,现有法律框架与激增的商业化需求出现了明显错位。
近年来,从AI换脸诈骗、拟声造假,到数字人直播中的消费欺诈,再到大规模数据抓取引发的商业侵权,相关商业纠纷与灰产乱象在各个业务链条中密集显现,现有的法律体系在应对复杂场景时面临着严峻的适用性挑战。
谈及现有法律的局限性,全国人大代表林至颖坦言,2026年1月1日正式施行的新修订版《中华人民共和国网络安全法》首次将人工智能正式纳入监管视野,为底层安全治理提供了重要遵循,但原则性条款尚不足以应对复杂现实。
植德律师事务所合伙人陈文昊在界面新闻记者采访时指出,当前我国缺乏对AI进行整体规制的上位法,“在将民法典、个人信息保护法、网络安全法等上位法中抽象、宏观的法律条款适用于AI落地的具体场景时,存在较大的困难和匹配性差的问题。”
目前立法的迫切性,在诸多高频的商业场景中体现得尤为致命。陈文昊举例称,例如AI Agent与使用人之间的责任与权限边界认定、自动驾驶产业链中的责任分配,以及辅助诊疗中的医患纠纷等,这些新兴领域产生的问题均亟需针对性立法来解决。
正因缺乏统一规则,在实际运行中,整个产业正面临多头监管、合规成本高企以及核心要素权属不清等深层次的结构性矛盾。
2026年全国两会期间,加快推进国家层面的人工智能专门立法已从理论探讨成为多位代表委员的普遍共识与提案建议。
林至颖今年便带来了关于加快推进国家层面就AI立法的建议。他向界面新闻记者表示,当前AI产业发展在基层涉及发改、网信、工信、科创等20余个部门,企业普遍面临“重复监管”与合规成本高企的痛点。
就此,他建议尽快将《中华人民共和国人工智能法》纳入立法规划,明确“促进型立法”基调,由国务院工业和信息化主管部门作为主要促进和管理部门,建立部际联席会议机制,从根源上解决多头监管问题。
在商业落地的核心生产要素数据与算力层面,林至颖指出,制度滞后正在制约产业的商业化上限。他建议构建“三权分置”的数据基础制度,明确AI训练数据的持有权、使用权和经营权。
他认为,新增条款应保障数据处理者在合法收集且不侵犯商业秘密的前提下,依法享有使用和收益的权利。
这一机制旨在化解企业“不敢用、用不起”的合规焦虑。同时,他建议创设“文本与数据挖掘”的合理使用例外,降低研发期非商业使用的知识产权风险。
此外,针对中小企业和非营利性科研机构算力成本高昂的问题,他主张建立“公共数据共享目录”,建立公共数据有条件开放义务清单。
为进一步加快技术的商业化进程,林至颖强调需以应用场景为牵引,推行风险分级分类与产品准入“沙盒”机制。
他建议,在全国范围内推广低风险AI产品的测试准入制度,经评估为低风险的产品允许先行先试,实行测试报告与安全性评估跨省互认。
针对后续商业化应用中极易出现的侵权纠纷,林至颖建议在立法中明确人工智能侵权的过错推定责任原则。
他指出,一旦因产品缺陷或未尽注意义务造成损害,应由AI服务提供者承担举证责任,证明其已履行数据合规与算法审计等法定职责,受害人无需证明服务提供者具体过错。这一机制的转变不仅能大幅降低维权取证门槛,更将倒逼大模型厂商从底层重构其商业合规审核体系。
针对责任界定,陈文昊向界面新闻补充指出,未来立法在责任设计上应做到“过罚相当,穿透但不苛责”。他强调,需要区分故意违规、过失违规与技术不可控的情况,让处罚与风险程度相匹配,避免让企业承担泛化的连带责任。
图片来源:图虫
关于合规责任重构对商业化落地的实质影响,CIC灼识咨询执行董事陈达禹给出了市场视角的观察。
陈达禹向界面新闻分析称,在缺乏全国性统一法律框架的情况下,产业链上下游企业,尤其是处于市场开拓期的企业,面临的最核心隐性阻力正是不确定的合规成本与模糊的商业拓展边界。
陈达禹认为,未来相关法律的落地将明确行业发展的“红绿灯”,统一的规则将极大消除投资者因政策不明朗产生的观望情绪,提振长期资本的投资信心。
“立法过程本身也会加速行业洗牌。”陈达禹向界面新闻表示,未来资源将加速向头部合规企业集中,无法适应新规的企业将被淘汰,而技术实力强、率先完成合规布局的优质初创企业,将更容易获得融资并享受估值溢价。
除了底层运行规则的系统性重构与商业投资逻辑的演变,针对特定前沿硬件和高频商业场景的精细化规制,同样是代表委员们聚焦的重点。
全国人大代表、中兴通讯党委书记、高级副总裁苗伟将目光投向了生物识别安全。他向界面新闻指出,在人形机器人和服务机器人等的应用过程中,大量带有强烈人身专属属性的生物识别信息,正处于被主动或被动暴露的风险之中。
针对面容克隆等前沿技术的特性,苗伟呼吁必须严格落实“告知—同意”的原则,尽快制定人脸机器人技术安全标准,在法律层面上清晰划定人脸数据处理与面容克隆的边界。
类似的数据安全与身份失范危机,在商业变现链路极短的直播电商领域已演化为具体乱象。AI数字人作为极具潜力的应用形态,正在品牌宣传、文化传播等领域释放商业价值。
全国人大代表、美的集团股份有限公司副总裁、首席财务官钟铮向界面新闻指出,伴随数字人制作与运营门槛的降低,其在直播带货中的滥用和违规现象正呈蔓延之势。
她表示,身份虚假、劣质内容横行以及后续的消费者权益纠纷,正严重透支着人工智能技术的社会信任。
钟铮坦言,现阶段相关法律在界定生成式AI和GEO(生成式引擎优化)技术的非法边界上尚不清晰。为此,她建议在推进人工智能法等相关立法进程中,设立专门的AI数字人直播管理条款,强制推行数字人注册备案制度,做到“数字形象可标识、责任主体可追溯”。
“人工智能立法不是为发展设置‘天花板’,而是铺设‘安全垫’。”林至颖表示。
对此观点,陈文昊也表示认同。他指出,面对“十五五”末可能达到十万亿级的市场规模,AI立法的平衡点必须落在安全底线刚性与创新空间弹性上,绝不能搞“一刀切”。
在陈文昊看来,AI立法真正的定位并非限制产业,而是通过降低制度性交易成本、统一国内大市场规则,进而提升国际竞争力。“清晰的规则能够有效减少诉讼内耗、稳定资本预期,从而加速商业化落地,让技术真正服务实体经济。”