央广网北京5月13日消息(记者冯烁)最近一段时间人工智能的狂潮席卷了我们的生活,从ChatGPT到AI绘画,最近音乐领域也和人工智能牵手了。近日“AI孙燕姿”在全网走红,独特的音色与唱腔搭配上与歌手本人风格或相似或迥异的歌曲成为网友们的互联网新宠。AI歌姬走红的同时,这些问题也不容忽视——AI翻唱是否侵犯了歌手的声音版权?AI翻唱是否侵犯了其他歌手的音乐版权?这背后还存在怎样的法律与伦理问题?

 

“AI孙燕姿”火了

近日,一个名为“AI孙燕姿”的虚拟歌手火遍全网,引发了不少人的关注和讨论。

所谓“AI孙燕姿”,就是通过模型训练和后期处理,让AI用孙燕姿的声音翻唱其他歌手的歌曲。

从技术的角度看,“AI孙燕姿”是如何实现的?清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正说:“基本上是用开源的生成式语音训练模型,集纳一些语音素材进行训练,而且数据量也不大,因为它跟语言模型比,所谓的数据量需求没有那么大。”

简单来说就是,制作“AI孙燕姿”的歌曲,首先需要获取孙燕姿没有伴奏和混响的原始声音。这些素材可以通过去伴奏或者提取对话的方式,从她的视频中获得,然后将这些素材作为目标音色输入到模型中进行训练,得到一个可以生成孙燕姿音色的模型。接下来就可以用这个模型来转换任意音色的歌声,比如林俊杰、周杰伦、赵雷等歌手的歌曲。最后再进行一些后期处理和调校,就可以得到听起来像孙燕姿唱的歌曲了。

燕姿?AI燕姿?傻傻分不清楚

目前来看,“AI孙燕姿”的作品覆盖流行到民谣等多种风格。由于“AI歌手”与真人演唱的音色并无二致,一些孙燕姿的忠实粉丝感慨,已经很难分清到底是歌手本人还是AI,一些粉丝表示“连换气声都能清晰听到,咬字和尾音都非常像本人。”

爆火背后,谁侵了谁的权?

北京市岳成律师事务所高级合伙人岳屾山表示,《中华人民共和国著作权法》(以下简称“著作权法”)第四十二条第二款规定:录音制作者使用他人已经合法录制为录音制品的音乐作品制作录音制品,可以不经著作权人许可,但应当按照规定支付报酬;著作权人声明不许使用的不得使用。

岳屾山说:“首先这个虚拟歌手提到了明星的具体人名,对明星的姓名权就是一种侵权。另外,在进行翻唱的时候,我们要看是否符合著作权法中关于翻唱的规定。如果是要灌制一张唱片或者录制出来,这种翻唱是可以的,但是需要向词作者支付相应的费用。”

“AI孙燕姿”使用了孙燕姿本人的声音,这涉及侵权吗?国浩北京律师事务所合伙人粟晓南告诉记者:“如果仅仅是音色或者唱腔,本身是不受著作权法的保护的。但是在商标法的规定当中,声音是可以作为商标来保护的。如果没有去注册商标,就很难得到商标法的保护。”

岳屾山说:“在民法典里,声音保护参照肖像权保护,而肖像权又有明确规定不允许进行伪造,这样可能会涉及侵权。另外,虚拟歌手可能会造成故意误导、混淆或者形成假冒别人的名义等行为,这些可能会涉嫌不正当竞争。”

其实利用别人的声音进行欺诈的案例已经出现。粟晓南举例:“现实当中早就有类似的案例,一些不法分子抓取你的声音、模仿你的声音去给别人打电话或者给别人发一段语音,别人可能误以为是你,这个时候可能会要求你转钱,继而发生一些欺诈行为。”

侵权之外,人工智能是不是打开了潘多拉的魔盒?

除了侵权行为可能出现,其实AI歌手以及由此可能扩展出的AI虚拟人背后还存在着巨大的伦理方面的问题亟待解决。梁正给记者举了这样一个例子:“最近有报道,用某个网红的声音去训练AI,然后同时跟很多人做情感交流,这里面的道德伦理问题比较大。因为不是真人,这能够叫做一种服务吗?稍微处理不当就会踩到所谓的伦理红线,它会不会不当地引导?因为没有办法去控制。”

可以说,风口上的ChatGPT打开了人工智能的新大门,也打开了潘多拉的魔盒,一段时间以来,关于人工智能生成内容以假乱真、数据泄露以及侵权的风险被进一步放大。针对目前生成式人工智能的发展与管理,其实业界也在讨论。

梁正表示,一个月前国家互联网信息办公室发布的《生成式人工智能服务管理办法(征求意见稿)》是个很好的开始,但未来还需要对不同主体进行更加明晰的责任认定。

梁正说:“各个主体的分类责任要更清晰化,除了提供工具的大模型基础服务提供商,还有使用大模型生成相关内容的生产者,发布在相关平台上的发布者等,这里面的责任是要进行区分的。”

对于目前普遍认可的为人工智能生成的产品赋予数字水印进行打标的做法,梁正表示,打标这件事本身就应该进行分场景规定。

梁正说:“我们特别强调不能把所有的内容生成都要求打标,比如用在一些非to C(针对大众)领域的内容生成,完全针对物理对象的,比如代码编写就没有必要打标。但是一旦内容涉及社会公众领域,可能会产生社会影响,所以应该是不同的场景要求是不一样的。”

编辑:丁骁
原创版权禁止商业转载 授权>>
转载申请事宜以及报告非法侵权行为,请联系我们:010-56807194