该设备由华盛顿大学的工程师开发,本质上是一副降噪耳机,在头带上配备了六个额外的麦克风。 一个小型的板载计算机运行一个经过训练的神经网络,分析不同声源的距离,过滤掉来自较远地方的噪音,放大离用户较近的声音。
最终的结果就是一种声音气泡,正如该团队所描述的那样,它的半径可以定制为 1 到 2 米(3.3 到 6.6 英尺)。 其原理是,你可以清楚地听到气泡内人们的谈话,而气泡外的噪音则被平均抑制了 49 分贝。 如果有其他人进入气泡,他们也可以加入对话。
该研究的资深作者希亚姆-戈拉科塔(Shyam Gollakota)说:"在嘈杂的餐厅等场所,我们专注于周围人的能力可能会受到限制,因此在可听设备上创建声音气泡至今还不可能实现。我们的人工智能系统实际上可以学习房间里每个声源的距离,并在 8 毫秒内通过听力设备本身实时处理。"
神经网络最初是根据在 22 个不同的室内环境(如办公室和起居室)中收集的数据进行训练的。 将耳机戴在一个人体模型的头上并旋转,同时从不同距离播放噪音。 该算法似乎是在比较每个频率声音的不同相位,以确定声源的距离,并相应地阻断声音。
这只是这项技术的最新版本,该团队开发这项技术已经有一段时间了。 去年的一个迭代版本使用了一个小型机器人群,这些机器人会自行在房间里移动,进行测量,为不同的音源创建独立的音频流,允许用户根据需要将某些区域静音。 就在几个月前,研究人员展示了一个版本,只需注视一个人,就能识别出他的声音。
这个声音气泡版本最终可能会成为该技术最实用的迭代版本,让您可以在酒吧里与同桌的人进行清晰的对话。 如果能将它集成到助听器或耳塞等小型设备中,效果会更好。值得庆幸的是,研究小组已经在着手这项工作,并成立了一家初创公司,将这项技术商业化。
这项研究发表在《Nature Electronics》杂志上, 研究小组在下面的视频中演示了声泡技术。