声音泄露?可能被复制的“声音DNA”

发布时间:2020-08-15 17:26:40 作者:发光的房子君
来源:ITPUB博客 阅读:205

是否想过你独一无二的声音,在某天被复刻出现在你的面前时,你该怎么办。

这并不是嘉宾的模仿秀,而是现在实实在在能够发生的事情。时间到进入2019年,AI技术的应用落地越来越多样化。科大讯飞、搜狗等技术公司相继发布了语音合成技术的应用。通过AI手段,用户可以一秒变声社会名人或者其他想模仿的声音。


特别喜欢游戏行业的人应该清楚,现在很多游戏里面都自带语音系统,而一些牟利的人为了掩人耳目,直接采用变声软件进行变声。但是那只能够单向的变声,固定的几个音色参数,并不能达到灵活的地步。


而这个技术有什么不同之处呢?与软件不同之处是,采用端到端语音风格分离和建模方案,使用多组神经网络对语音的不同维度,例如音色、情感、风格等,进行独立的编码建模,从而指导最终合成。例如智能电话机器人就是使用这种先进的技术,而不是传统的固定模块编译系统。能语音合成变声、语音cos等场景下的应用,将真人发出的声音转化为多角度不同方向的声音。


互联网技术在悄无声息地改变我们的生活,对人工智能企业来说,语音识别技术的广泛应用已不是难事。但背后的伦理道德和安全隐患,或将成为伴随AI技术发展不容忽视的一个问题。


其实,AI技术背后的“以假乱真”现象不只出现在声音领域,近日三星的一项技术应用也引起人们的注意。


据外媒报道,三星位于莫斯科的人工智能实验室研究人员,基于大量动图和视频素材,以及“深度卷积神经网络”训练,通过AI技术准确识别某些面部特征,可以将静止图像变为动图甚至视频。


在实验中,研究人员以爱因斯坦、玛丽莲·梦露甚至蒙娜丽莎的静止图像为基础,分别生成了他们正在说话的视频,不过目前视频质量较低。


也就是说,未来随着AI图像生成技术的进步,可以仅仅通过一张照片就能生成虚假视频。

而不管是AI变声,还是AI换脸,高科技迅速发展的同时,也给法律规则带来新的挑战。

值得注意的是,在4月全国人大常常会审议的《民法典人格权编(草案)》里,正式加了一条:任何组织和个人不得以利用信息技术手段伪造的方式侵害他人的肖像权。


也就是说,一个好的信号是,未来AI换脸、甚至语音合成技术的应用或将受到法律管制,

特别是人工智能语音领域。目前,AI技术的落地应用,正在不断打通虚拟世界和现实世界的界限,我们需要思考的是,如果未来这些技术越来越强大和普及,明辨真假将会变得越来越困难,技术发展的同时又该如何把控安全隐患问题?


推荐阅读:
  1. zabbix开启报警声音 网页也可以有声音
  2. android声音服务

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

dna 复制 泄露

上一篇:ssh 链接不上

下一篇:ssh免密登录在Linux服务器之间的设置

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》