最新新闻:

微软与Team Gleason合作为ALS建立计算机视觉数据集

时间:2020-10-23 10:51:47来源:互联网

由NFL玩家Steve Gleason创立的非营利组织Microsoft和Team Gleason今天启动了Project Insight,以创建一个肌萎缩性侧索硬化症(ALS)患者面部图像的开放数据集。这些组织希望促进计算机视觉方面的创新,并为有无障碍挑战的人们扩大连接和交流的潜力。

微软和Team Gleason断言,现有的机器学习数据集并不代表ALS患者的多样性,这种情况在美国影响了多达30,000人。由于呼吸面罩,下垂的眼睑,水汪汪的表情,导致准确识别人员的问题控制唾液分泌过多的药物引起的眼睛和干眼症。

Project Insight将研究如何通过许多辅助设备中已经配备的前置摄像头使用数据和AI来预测人在屏幕上的位置。格里森团队将与Microsoft的Health Next Enable团队合作,收集使用ALS看着他们的计算机的人的图像,从而可以更全面地训练AI模型。(位于其健康AI部门的Microsoft Health Next团队专注于AI和基于云的服务,以改善健康状况。)将为参与者提供一份简短的病史问卷,并通过一个应用程序提示参与者使用他们自己的图像提交自己的图像电脑。

格里森团队首席影响官布莱尔·凯西(Blair Casey)说:“ ALS的进展可能与个人本身一样多样。”“因此访问计算机和通信设备不应该一刀切。我们将从100名患有ALS的人中捕获尽可能多的信息,以便我们为所有人开发有效使用的工具。”

微软和Team Gleason估计,该项目将与Kaggle和GitHub等数据科学平台上的研究人员收集并共享5TB匿名数据。

微软高级可访问性架构师玛丽·贝拉德说:“要在残疾体验中追寻这些创新和复杂的机会,就需要大量针对残疾的数据。”“这与让人工智能变得更好有关的残疾和可访问性无关。这是关于人工智能如何使可访问性变得更好,以及……如何更好地适应残疾体验。”

Project Insight遵循了Microsoft的GazeSpeak,这是一款适用于ALS的可访问性应用程序,可在智能手机上运行,​​并使用AI将眼球运动转换为语音,从而使对话伙伴可以实时了解正在说的内容。在测试中,GazeSpeak被证明比在不同组中显示字母的板要快得多,这是ALS人员历来使用的方法。具体来说,该应用程序可帮助用户平均用78秒完成句子,而使用公告板则需要123秒。

微软并不是唯一一个利用AI来解决与ALS相关的挑战的人。伦敦工程师Julius Sweetland创造了OptiKey,这是一种免费软件,它使用现成的眼动追踪硬件来分析用户的眼动。屏幕键盘使用户能够以这种方式选择字母,并弹出自动建议,就像在iOS或Android智能手机上一样。

8月,与ALS治疗发展研究所合作的Google AI研究人员分享了有关Project Euphonia的详细信息,Euphonia是一种语音到文本的转录服务,可以极大地改善有语言障碍的人的语音合成和生成质量。为了开发该模型,Google向ALS的人征求了数据,并使用音素错误(涉及一种语言中感知上不同的声音单位)来降低单词错误率。

声明:文章仅代表原作者观点,不代表本站立场;如有侵权、违规,可直接反馈本站,我们将会作修改或删除处理。

图文推荐

热点排行

精彩文章

热门推荐