找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3471

积分

0

好友

481

主题
发表于 6 天前 | 查看: 21| 回复: 0

一个在 NPR 干了几十年的广播主持人,某天打开 Google NotebookLM,听到 AI 生成的播客声音,当场愣住了。

那个声音,就是他自己。

David Greene,NPR Morning Edition 的前主持人,现在主持 Left, Right & Center。他表示,自己花了几十年打磨出来的独特声音,似乎被 Google 的 AI 产品直接“复制”了。这不仅仅是“有点像”,而是连他的朋友和同事听完后都一致认为:“这也太像了吧。”

Greene 的原话非常直接:“My voice is, like, the most important part of who I am.”(我的声音,可以说是我身份中最重要的部分。)

他没有仅仅在社交媒体上吐槽。他选择了起诉 Google。

Google 的回应同样干脆:否认。他们声称,NotebookLM 的声音是聘请专业配音演员录制的,并非从 Greene 的公开音频中训练得来。

但问题的核心,或许并不在于 Google 是否“故意”使用了他的声音,而在于 当 AI 生成的声音与真人声音高度相似时,法律应该如何界定责任?

🎙️ 声音到底算不算“你的”?

我们对于肖像权已经有了普遍的共识——你不能随意使用他人的肖像进行商业推广。但声音呢?

目前,在大多数国家的法律体系中,对于声音权的保护仍处于非常模糊的地带。美国部分州有相关的判例,但缺乏联邦层面的统一法规。中国的《民法典》虽然提到了对声音的保护,但在实际司法实践中,相关的案例极少。

这就造成了一个尴尬的局面:AI 公司可以利用海量的公开音频数据训练模型,生成出来的声音如果“碰巧”与某个人高度相似,他们完全可以说“我们没有针对任何人”。

从技术逻辑上讲,这似乎说得通。但从结果来看,一个人花费数十年建立起来的声音辨识度与个人品牌,可能被 AI 在几秒钟内“再现”。这公平吗?

在技术社区中,有观点认为:“地球上有几十亿种声音,AI 生成的声音总会和某个人像。”这话不假,但当相似度已经高到连当事人的亲朋好友都难以分辨时,仅仅用“巧合”来解释,就显得有些苍白无力了。

⚖️ 这不是第一次了

早在2024年,演员斯嘉丽·约翰逊 (Scarlett Johansson) 就曾公开指责 OpenAI,认为 ChatGPT 的“Sky”语音与她的声音过于相似。OpenAI 随后下架了该声音选项。

同样,在好莱坞编剧大罢工期间,关于 AI 使用的条款也是核心争议点之一。创作者们非常清楚:如果不在法律层面划清界限,科技公司很可能会默认“公开数据等于免费素材库”。

Greene 的案子与约翰逊的案例有所不同。约翰逊的案例带有强烈的名人效应,公众辨识度高。而 Greene 作为广播主持人,受众相对垂直,但他的声音同样是他职业生涯中最核心的无形资产。

将这两个案子放在一起观察,它们共同指向一个明确的趋势:声音权的法律边界,正在被飞速发展的 AI 技术倒逼着重新划定。

🔊 普通人该关心什么?

你可能会觉得,这只是名人或专业人士才需要担心的问题。但请仔细想一想:

你录制过播客吗?发送过语音消息吗?在视频平台上传过带有自己解说的内容吗?这些你主动或被动留在互联网上的音频数据,理论上都有可能成为 AI 大模型训练的潜在素材。

目前,没有任何透明的机制能让用户知晓自己的声音是否被用于训练 AI 模型。也不存在一个像商标或版权那样的“声音权”注册与查询系统。这意味着,一旦出现问题,你甚至不知道该向谁主张权利、如何维权。

对于广大内容创作者而言,这个问题尤为紧迫。如果 AI 可以生成与你一模一样的声音,那么你赖以生存的“声音辨识度”和个人风格,还值钱吗? 配音演员、播客主持人、有声书朗读者等依靠声音工作的群体,正面临着一个非常现实的职业威胁。

尽管全球多个国家和地区正在推进关于 AI 生成内容来源标注的法规,但进程相对缓慢。在法律条文完全追上技术发展的脚步之前,这个巨大的灰色地带将持续存在。

💡 这件事释放了什么信号?

无论 Greene 的这场官司最终胜负如何,有一件事已经越来越清晰:构成我们“身份”的各个要素,正在被 AI 技术一层一层地复制与解构。

最初是面容。Deepfake 技术让换脸视频变得真假难辨。接着是文字风格,大语言模型可以轻松模仿任何人的写作笔触。现在,轮到了声音。

这不是科幻电影里的情节,而是正在我们眼前发生的现实。

对于 AI 领域的从业者与开发者而言,这是一个无法回避的合规与伦理问题。训练数据中是否包含特定个人的声音?生成结果与真人声音的相似度达到何种阈值即可构成侵权?这些问题目前尚无标准答案,但迟早会通过一场又一场的诉讼与立法来明确。

对于我们每一位普通用户而言,至少应该建立起一个基本的认知:你在互联网上留下的每一段语音,都可能在某个 AI 模型的参数中“活着”。你发布的播客、录制的视频、乃至日常的语音消息,都是潜在的训练数据来源。

Greene 通过他的诉讼,替所有人提出了一个深刻的问题:当 AI 可以近乎完美地复制“外在的你”时,“真正的你”还剩下什么?

这个问题,值得每一个人深思。技术的浪潮不可阻挡,但关于个人权利与尊严的讨论,应当在更广阔的开发者广场展开,例如在云栈社区这样的平台上,让开发者、创作者和法律界人士共同探讨,寻找技术发展与个人权益保护的平衡点。




上一篇:OpenClaw创始人加入OpenAI:开源AI项目的三条终局与Agent人才争夺战
下一篇:Spotify顶级工程师一行代码不写,2026年程序员的生存指南?
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-23 10:24 , Processed in 0.644307 second(s), 40 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表