科学家 Alex Olwal 实现了一个奇思妙想,让纺织品拥有与人交互的能力。
通过改善美学、舒适度和人体工程学可以帮助纺织品科学技术融入我们的日常生活中。材料和柔性电子技术的进步使得传感和显示技术能够融入到外套、衣服和毯子等软质材料中。现在织物覆盖的智能扬声器和编织耳机线已经实现了这个设想。
Alex Olwal 开发了不同的原型机来展示电子布艺架构的功能:电子布艺 USB-C 耳机可以控制手机上的媒体播放,连帽衫抽绳可以在衣服上无形中增加音乐控制,还有一个交互式的线,用于智能音箱的手势控制。
互动式喇叭线,可同时使用连续(扭动/滚动)和离散手势(捏/拍)控制音乐播放。
左边:轻点 = 播放/暂停;中间。双击 = 下一个轨道; 右边。滚动 = 音量+/-
具有嵌入式触摸感应,手势识别和视觉反馈的可扩展交互式电子纺织体系结构。
把机器学习与交互式纺织品结合
在 ACM CHI 2020 会议论文集中,他将交互性带到了软设备里,并展示了机器学习(ML)与交互式纺织品拓扑结构相结合,如何实现离散和连续手势的并行使用。
实验从 12 位新参与者中收集了数据,得到了 864 个手势样本,每个手势都有 16 个特征,这些特征随时间线性插值到 80 个观察值。
由于适应个体差异,因此参与者以自己的风格进行八个手势操作,而无需反馈,因为分类高度依赖于用户风格、偏好和解剖结构。
因此,流水线被设计为用于依赖用户的培训,以使各个样式具有不同的参与者,例如顺时针/逆时针使用不一致,时间手势之间重叠对于与用户无关的系统,需要解决此类差异,例如,对于一致性的更严格的说明,来自更多人群的数据以及更多样化的环境。培训过程中的实时反馈还将帮助减轻用户学习调整其行为时的差异。
[
十二个参与者(水平轴)对八个手势(垂直轴)执行了9次重复(动画)。每个子图像显示 16 个重叠的特征向量,并随时间插值 80 个观察值。
通过对八个重复进行训练并通过九个排列对一个重复进行测试,对每个手势上的每个用户执行了交叉验证,并获得了约 94% 的手势识别精度。这一结果令人鼓舞,特别是考虑到这种低分辨率传感器矩阵所具有的表现力。
这里值得注意的是,重复感测矩阵中的固有关系非常适合于机器学习分类。研究中使用的 ML 分类器可对有限的数据进行快速训练,从而使依赖于用户的交互系统变得合理。根据他的经验,对典型手势的训练少于 30s,这与训练指纹传感器所需的时间相当。
ACM CHI 2020 会议论文集:
https://dl.acm.org/doi/abs/10...
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。