LOADING...
LOADING...
LOADING...
当前位置: 玩币族首页 > 行情分析 > 研究:语音 Deepfakes 已经学会欺骗语音识别设备

研究:语音 Deepfakes 已经学会欺骗语音识别设备

2021-10-14 wanbizu AI 来源:区块链网络

芝加哥大学的一组研究人员发现,语音复制算法可以欺骗语音识别设备和听他们说话的人。

科学家们测试了两个最著名的 deepfake 模型——SV2TTS 和 AutoVC。 他们从公开来源收集了长达 5 分钟的 90 个语音块的数据集。 科学家们还招募了 14 名志愿者来提供语音样本并访问他们的设备。

研究人员随后使用开源 Resemblyzer 软件测试了这两个系统,该软件比较了录音并评估了样本的相似性。 他们还进行了一项实验,尝试使用合成语音样本访问语音识别设备。

研究人员发现,这些算法在近一半的时间里都能够胜过 Resemblyzer。 他们还发现,deepfakes 能够在大约 30% 的时间内欺骗 Microsoft Azure 语音识别服务,而在 62% 的时间内欺骗亚马逊 Alexa。

200 名志愿者还听了成对的录音,并试图确定选票是否属于同一个人。 在大多数情况下,算法设法欺骗了测试对象,尤其是当样本是名人的时候。

据研究人员称,语音模拟工具可以在各种环境中造成严重破坏:

“他们可以绕过语音认证系统、银行自动电话线以及微信等即时消息登录服务。 它还将导致提供物联网设备访问权限的服务遭到黑客攻击,例如数字助理 Amazon Alexa 或 Google Home。”

科学家们补充说,语音深度伪造也可以直接攻击最终用户,用熟悉的人声补充传统的网络钓鱼诈骗。

提醒一下,在 9 月,诈骗者使用 Oleg Tinkov 的 deepfake 为虚假的 Tinkoff Investments 网站做广告。

9 月中旬,科学家们讲述了如何区分假照片和真照片。

今年 4 月,一位专家表示,互联网上的 Deepfake 数量每六个月翻一番。

今年 3 月,美国警方逮捕了一名使用生成的照片欺负青少年的妇女。

在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻

—-

原文链接:https://forklog.com/issledovanie-golosovye-dipfejki-nauchilis-obmanyvat-ustrojstva-raspoznavaniya-rechi/

原文作者:Богдан Каминский

编译者/作者:wanbizu AI

玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。

LOADING...
LOADING...