挑战赛 | ISCSLP2022对话短语音说话人日志挑战赛决出三甲
2022年7月4日起,由中国科学院声学研究所、西北工业大学、新加坡A*STAR信息通信研究所、上海交通大学以及Magic Data联合主办的 “ISCSLP2022对话短语音说话人日志挑战赛” (ISCSLP 2022 Conversational Short-phrase Speaker Diarization Challenge, CSSD),自开展以来共收到了四十多支国内外研究机构、大学及知名企业的参赛队伍注册报名。9月16日,组委会正式公布本次挑战赛成绩排名。
竞赛结果与排名
经过激烈的角逐,本次ISCSLP2022对话短语音说话人日志挑战赛获奖队伍如下,恭喜获奖团队!
挑战赛背景
对话场景是语音处理技术最重要的场景之一,同时也是最具挑战性的场景。在日常对话中,人们以随意的方式相互回应,并以连贯的问题和意见继续对话,而不是生硬地回答对方的问题。精准检测对话中每个人的语音活动,对于自然语言处理、机器翻译等众多下游任务至关重要。说话人分类系统的评价指标是分类错误率(DER)长期以来一直被用作说话人分类的标准评估指标,但它未能对短对话短语给予足够的重视。这些短对话短语持续时间短,但在语义层面上起重要作用。语音社区也缺乏有效评估对话中短语音分类准确性的评估指标。
围绕这一难题,我们开源了 MagicData-RAMC中文对话语音数据集,其中包含 180 小时人工标注对话语音数据。同时针对CSSD测评,我们还准备了 20 小时对话测试数据,并人工对说话人时间点进行了精准标注。针对CSSD挑战,我们同时设计了一个新的准确度评估指标,用于计算句子层面说话人分割聚类的精度。通过推动对话数据分割聚类技术的研究,我们旨在进一步促进该领域的可重复研究。
打分工具介绍
为了评价说话人日志系统的性能,我们提出了Conversational-DER (CDER) 的指标。传统的DER 可以在时间尺度上评估说话人分类系统的整体性能。但是,在实际对话中,有时较短的持续时间包含重要信息,基于时间尺度的系统评价标准难以反映短时片段的识别性能。因此我们提出了CDER ,在句子级别评估说话人日志系统。
更多详情:GitHub - MagicHub-io/CDER_Metric: CDER (Conversational Diarization Error Rate) Scoring Tool
致谢
感谢来自中国科学院声学研究所、西北工业大学、新加坡A*STAR信息通信研究所、上海交通大学以及Magic Data在语音领域深耕多年,有着丰富研究和实战经验的专家,作为竞赛组委会成员,全程给予答疑支持和指导。
欢迎访问MagicHub开源社区,获取更多开源数据集:
这篇好文章是转载于:学新通技术网
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 学新通技术网
- 本文地址: /boutique/detail/tanhgfkfha
-
photoshop保存的图片太大微信发不了怎么办
PHP中文网 06-15 -
Android 11 保存文件到外部存储,并分享文件
Luke 10-12 -
《学习通》视频自动暂停处理方法
HelloWorld317 07-05 -
word里面弄一个表格后上面的标题会跑到下面怎么办
PHP中文网 06-20 -
photoshop扩展功能面板显示灰色怎么办
PHP中文网 06-14 -
微信公众号没有声音提示怎么办
PHP中文网 03-31 -
excel下划线不显示怎么办
PHP中文网 06-23 -
excel打印预览压线压字怎么办
PHP中文网 06-22 -
怎样阻止微信小程序自动打开
PHP中文网 06-13 -
TikTok加速器哪个好免费的TK加速器推荐
TK小达人 10-01