清华大学-得意音通声纹处理联合实验室团队ASV
摘要:ASVspoof 2019挑战赛由英国爱丁堡大学、法国EURECOM、日本NEC、东芬兰大学等多个世界领先的研究机构共同组织发起,是迄今为止针对虚假语音鉴别规模最大、最全面的挑战赛。
近日,2019年自动说话人识别欺骗攻击与防御对策挑战赛(Automatic Speaker Verification Spoofing and Countermeasures Challenge,ASVspoof 2019)组委会公布了竞赛成绩,清华大学-得意音通声纹处理联合实验室团队(博士生:程星亮,指导老师:徐明星、郑方),在156支参赛队中脱颖而出,获得防录音攻击挑战任务全球第一的骄人成绩,与第二名相比等错误率(EER)相对降低27.8%,与基线系统相比EER相对降低96.5%。这是清华大学-得意音通声纹处理联合实验室继在ASVspoof 2017综合性能获得第5名之后,再冲新高。
说话人识别即声纹识别,是根据人说话的声音,判定人的身份的技术。但其容易受到虚假语音的攻击,包括:声音模拟、语音合成、声音转换、录音重放(含录音拼接重放),此类攻击极大地影响了声纹识别系统本身的安全性,进而也给采用声纹识别技术进行访问控制的系统带来了安全隐患。
ASVspoof 2019针对该问题,举行了两项挑战赛,分别检测不同的虚假语音:一是用语音合成、声音转换技术产生数字语音,直接输入系统(不用麦克风)进行逻辑层面的攻击(Logical Access);二是使用录音重放的方法,经过麦克风进入系统进行物理层面的攻击(Physical Access)。在实际应用中,Logical Access要么经过重放环节而转化为Physical Access,要么需要攻击者实质突破目标系统的安全体系、接管系统的数据输入和传输,对后面这种攻击的防范,最好的办法是加强系统的“安全措施”,因此,清华大学-得意音通团队选择将重点放在了Physical Access挑战赛上。
ASVspoof 2019挑战赛由英国爱丁堡大学、法国EURECOM、日本NEC、东芬兰大学等多个世界领先的研究机构共同组织发起,是迄今为止针对虚假语音鉴别规模最大、最全面的挑战赛。
为本次挑战赛提供数据库支持的是包括Google在内的19家科研机构。其中,谷歌新闻计划团队(GNI)和谷歌的人工智能研究部门(Gai prinoogle AI)为挑战赛精心制作了合成语音数据库。数据库中一系列合成语音,包含由其深入学习的文本到语音(TTS)模型所说的数千个短语,来自英文报纸文章68种不同的合成语音,并涵盖了多种地域的口音。通过真实和计算机生成的语音模型进行训练,ASVspoof参与者可以开发学习区分两者的系统。参赛者使用训练集和开发集上进行模型设计和参数估计,提交测试集上的识别结果,由组织者对检测效果进行分析统计,排出参赛队伍的名次。
本次比赛数据库创建的贡献者
今年的竞赛吸引了来自全球的156组队伍报名参加,共59组队伍提交了最终结果,其中有50支队伍提交了防录音攻击子挑战的结果,有48支队伍提交了防语音合成和声音转换子挑战的结果。详细结果,将在语音领域国际顶级学术会议Interspeech 2019(9月中旬在奥地利格拉茨召开)上予以发布。
关于防攻击
在越来越多学术团队加入防攻击赛事PK的同时,中国在实际应用上已走在前列。在去年央行发布的《移动金融基于声纹识别的安全应用技术规范(JR/T 0164-2018)》中就明确规范了移动金融领域中声纹识别技术需具备的防攻击能力:
(1)防语音模仿
(2)防语音转换及合成
(3)防录音欺诈
(4)防录音拼接欺诈
实际上,声纹识别系统的攻与防还不只是针对虚假语音。攻与防一直在角力,而且防处于不利地位,比如攻在暗、防在明,比如攻只需破一点、防则须保全部。为此,得意音通早在几年前便开始布局,现已研发完成了声纹识别技术的7种防攻击利器。其中“录音重放检查”技术还只是得意音通众多前沿技术储备之一,未来还将有源源不断的创新技术运用于声纹识别产品当中。
得意声纹身份认证的“七种武器”
厚积于清华语音和语言中心近40载的声纹识别技术和语音识别技术等,得意音通还在声纹识别的噪音鲁棒性、时变鲁棒性(全球唯一),以及用于真实意图检测的情感识别(国际第一)等方面都有积累,得意音通的声密保(V3.0.37)也是目前唯一符合央行标准《移动金融基于声纹识别的安全应用技术规范(JR/T0164-2018)》的产品。
上一篇:尿白蛋白检测标准化及实验室注意事项
下一篇:没有了