夏学民研究员呼吁立法保护“嗓音权”
新家风馆
03-10 19:47
浙江大学公共政策研究院研究员夏学民率先提出保护人类“嗓音权”。他认为,嗓音权和肖像权一样属于公民的人格权不得侵犯。面对日益增多的滥用AI技术冒用他人肖像、冒用或伪造他人嗓音并在互联网上发布虚假音视频的现象,夏学民呼吁立法机关尽快对现行《民法典》等多部法律进行修订补充,防范利用AI技术侵犯公民人格权。
夏学民强调,虽然现行《民法典》第1023条规定“对姓名、肖像、名誉、荣誉、隐私以及声音等人格利益的保护,适用有关人格权保护的规定。”但是,嗓音具有识别性和个人专属性,嗓音和肖像一样都是区别不同公民的最重要的生物信息特征。
笼统地以“声音”指代“嗓音”属于法律概念模糊,内涵和外延都不确切。尤其是随着AI技术的低成本普及应用,诸如此类的违法犯罪成本越来越低,社会后果日益严重。
因此,有必要把《民法典》上的“声音权”精确定义为“嗓音权”,明确规定未经许可使用、模仿、篡改或传播他人“嗓音”,造成混淆、误导或损害他人名誉等后果的,属于侵犯公民人格权。
人格权
以下是“嗓音权”滥用现象现状及特征分析
一、主要滥用形式
商业营销滥用——AI模仿名人、专家或医生声音进行带货或编造虚假宣传,如“张文宏医生”推销蛋白棒、企业家声音被用于吐槽社会热点等,严重误导消费者并损害当事人声誉。短视频平台中,商家通过AI“克隆”主播声音伪装成明星,销售服装、保健品等商品。
恶意伪造与诈骗——不法分子利用AI生成亲友或公职人员声音实施电话诈骗,如伪造亲属紧急求助、冒充客服骗取钱财。社交平台出现大量恶搞名人、植入不雅词汇的AI配音视频,引发公众争议。
声音批量侵权——配音演员、歌手等职业群体声音被AI技术“偷走”,未经授权用于有声读物、广告等商业场景,导致创作者权益受损。
二、技术驱动与滥用成因
低门槛克隆技术普及——AI语音合成工具仅需十几秒即可完成声音“克隆”,且仅需少量原始音频样本。深度学习算法可精确提取声纹特征(频率、音色、情感等),生成高度逼真的合成声音。
监管与识别滞后——AI生成的声音从“一听就假”发展为“真假难辨”,传统声纹识别技术难以有效甄别。部分平台对AI合成内容审核不严,导致侵权视频广泛传播。
三、法律与权益侵害
人格权侵犯——声音作为生物识别信息,具有唯一性和可识别性,滥用行为直接侵害自然人的声音权、名誉权。《民法典》第1023条虽将声音权纳入保护,但具体侵权认定标准尚未细化。
社会秩序破坏——虚假AI声音扰乱市场诚信,如伪造专家推荐商品、明星“代言”三无产品。诈骗类合成声音助长犯罪,威胁公众财产安全与社会信任。
四、治理方向与应对
法律与监管强化——需明确声音克隆的授权规则、侵权赔偿标准及平台审核责任。依据《个人信息保护法》,将声纹信息纳入敏感个人信息保护范畴。
技术对抗措施——研发声纹加密、数字水印等技术,限制AI对原始声音的提取与滥用。平台通过AI检测工具拦截违规合成内容,建立侵权投诉快速响应机制。
公众意识提升——加强防范宣传,提示公众警惕“AI仿声”诈骗,避免随意公开语音记录。当前AI声音滥用已从娱乐恶搞演变为系统性社会问题,需通过法律、技术、平台协同治理,平衡技术创新与人格权保护。
特别声明:本产品由大众新媒体大平台“大众号”号主上传发布,不代表平台观点和立场。