• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

挑战赛 | ISCSLP2022对话短语音说话人日志挑战赛决出三甲

武飞扬头像
Magic Data
帮助1

学新通

2022年7月4日起,由中国科学院声学研究所、西北工业大学、新加坡A*STAR信息通信研究所、上海交通大学以及Magic Data联合主办的 “ISCSLP2022对话短语音说话人日志挑战赛” (ISCSLP 2022 Conversational Short-phrase Speaker Diarization Challenge, CSSD),自开展以来共收到了四十多支国内外研究机构、大学及知名企业的参赛队伍注册报名。9月16日,组委会正式公布本次挑战赛成绩排名。

竞赛结果与排名

经过激烈的角逐,本次ISCSLP2022对话短语音说话人日志挑战赛获奖队伍如下,恭喜获奖团队!

学新通

挑战赛背景

对话场景是语音处理技术最重要的场景之一,同时也是最具挑战性的场景。在日常对话中,人们以随意的方式相互回应,并以连贯的问题和意见继续对话,而不是生硬地回答对方的问题。精准检测对话中每个人的语音活动,对于自然语言处理、机器翻译等众多下游任务至关重要。说话人分类系统的评价指标是分类错误率(DER)长期以来一直被用作说话人分类的标准评估指标,但它未能对短对话短语给予足够的重视。这些短对话短语持续时间短,但在语义层面上起重要作用。语音社区也缺乏有效评估对话中短语音分类准确性的评估指标。

围绕这一难题,我们开源了 MagicData-RAMC中文对话语音数据集,其中包含 180 小时人工标注对话语音数据。同时针对CSSD测评,我们还准备了 20 小时对话测试数据,并人工对说话人时间点进行了精准标注。针对CSSD挑战,我们同时设计了一个新的准确度评估指标,用于计算句子层面说话人分割聚类的精度。通过推动对话数据分割聚类技术的研究,我们旨在进一步促进该领域的可重复研究。

打分工具介绍

为了评价说话人日志系统的性能,我们提出了Conversational-DER (CDER) 的指标。传统的DER 可以在时间尺度上评估说话人分类系统的整体性能。但是,在实际对话中,有时较短的持续时间包含重要信息,基于时间尺度的系统评价标准难以反映短时片段的识别性能。因此我们提出了CDER ,在句子级别评估说话人日志系统。

更多详情:GitHub - MagicHub-io/CDER_Metric: CDER (Conversational Diarization Error Rate) Scoring Tool 

致谢

感谢来自中国科学院声学研究所、西北工业大学、新加坡A*STAR信息通信研究所、上海交通大学以及Magic Data在语音领域深耕多年,有着丰富研究和实战经验的专家,作为竞赛组委会成员,全程给予答疑支持和指导。

学新通

欢迎访问MagicHub开源社区,获取更多开源数据集:

www.magichub.com

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhgfkfha
系列文章
更多 icon
同类精品
更多 icon
继续加载