站长之家
站长之家
2019-12-02 10:00
+关注

明年1月1日起,AI造假视频不得随意发布

声明:本文来自于微信公众号量子位(ID:QbitAI),作者:问耕,授权站长之家转载发布。

新规来了。

在这份刚刚印发的《网络音视频信息服务管理规定》中,四次直接提及深度学习,基本可以看做是针对AI造假视频的一次针对性管控。

2017 年底,deepfake换脸技术出现以来,各种使用AI技术造假的视频层出不穷。而且随着技术的进步,造假视频已经变得越来越真假难辨,也引发了全球范围内的担忧。

现在,不能使用AI技术乱来了。

国内的各位朋友,再搞AI换脸的视频等操作,请注意这些新规定。

对普通用户:

  • 发布非真实AI音视频时,要以显著方式标识出来。

  • 不得使用AI技术制作假新闻。

对于服务商,除了上述要求还有:

  • 上线AI音视频服务,应展开安全评估。

  • 部署非真实音视频鉴别技术。

  • 及时停止传播未显著标识的非真实AI音视频内容。

  • 建立健全辟谣机制。

相关规定条款,我们截图如下。

AI AI视频 AI换脸

新规定将于明年 1 月 1 日起施行。

《网络音视频信息服务管理规定》的详细内容,可以访问这个页面查看:http://www.cac.gov.cn/2019-11/29/c_1576561820967678.htm

deepfake“改变”世界

对于deepfake等基于深度学习的AI技术,全球都在想办法应对。

毕竟这种技术,可以用来换脸:

AI AI视频 AI换脸

还能用来给身体造假:

当然动物也不再话下:

AI AI视频 AI换脸

本月,推特发布了首个反deepfake策略草案,并征集公众意见。根据这个草案,如果一份deepfake伪造的内容威胁到某人的人身安全或可能造成严重伤害,将会被删除。

包括微软、Google等国外公司也在研究如何自动鉴别换脸视频。

AI造假视频,也是最近几个月美国国会中最有争议的话题之一。此前,美国国际战略研究中心(CSIS)发布报告称,伪造信息正在通过互联网迅速传播,破坏了民主进程。

来自人民看点的报道中写道:

Deepfake被认为是一种破坏民主的工具。美国情报界发布的 2019 年全球威胁评估(Worldwide Threat Assessment)中就警告称,恶意攻击者或战略竞争对手可能会使用deepfake技术或类似的机器学习技术来创建看似逼真但其实是伪造的图片、音频和视频文件来加大针对美国和其盟友的活动的影响。

CNBC网站在其报道中称,“deepfake”将成为“ 2020 年美国总统选举中的大事件”。就像 2016 年的“虚假新闻”一样,“deepfake”视频将在 2020 年的美国大选中,掀起更强大的血雨腥风。

2019 年 10 月,美国加州州长Gavin Newsom签署AB- 730 法令,明确指出,如果散布伪造的信息使公众对政治人物的言论、行动产生错误或有害的印象,将是犯罪行为。

7 月,美国弗吉尼亚州也发布了禁止deepfake滥用的禁令:未经当事人允许分享他人的裸露视频、照片属于违法行为,无论该照片或视频是真实的还是伪造的。

今年 6 月,斯坦福、普林斯顿等大学发布了一项最新研究:给定任意文本,就能随意改变一段视频里人物说的话。并且,改动关键词后人物口型还能对得奇准无比,丝毫看不出篡改的痕迹。

AI AI视频 AI换脸

除了视频造假,AI在音频造假方面也不在话下。

来看一个真实的案例。

有人用AI技术伪造老板的声音,打电话要求转账,结果一家公司上当了,损失了 173 万元。这家公司,是总部位于英国的一家能源公司。

要不是因为骗了一次还想立刻骗第二次,这个骗局可能也不会马上曝光。

毫无破绽的变脸

如果你还没见识过deepfake的威力,以下是一些网友的大作。

此前,有一个名为“换脸哥”的B站用户将《射雕英雄传》中朱茵饰演的黄蓉换成了杨幂的脸,并且把处理过的视频发在了B站。

AI AI视频 AI换脸

AI AI视频 AI换脸

类似的还有,徐锦江换脸海王。

AI AI视频 AI换脸

“吃屎吧,梁非凡”场景中的两位主角换脸:

AI AI视频 AI换脸

把《回家的诱惑》里男主的脸换到了“穿着品如衣服”的女性角色艾莉脸上:

更多例子就先不举了。

如果你想试试AI模仿声音的感觉,可以试试搜狗输入法里的“变声”功能。

AI AI视频 AI换脸

如果你想试试AI换脸的感觉,可以试试此前曾在国内外掀起一阵旋风、继而引发广泛争议的App:ZAO。

AI AI视频 AI换脸

免责声明:本文来自站长之家合作媒体,不代表站长之家的观点和立场。
AI
2664篇文章
查看
猜你喜欢
最新趣闻
最新推荐