目前我们只能实现“弱”人工智能,即语音识别、图像识别,使机器勉强做到“看”、“听”和”说“。未来人工智能最终会发展为强人工智能,这其中一定会包括AI触觉的发展。
科学家们提出了一种机器学习方法,将分布在可变形物体上的嵌入式传感器阵列的输出,映射成连续和离散的虚拟状态,并将其应用于界面中,对人的触摸进行解释。将可拉伸电容器集成到橡胶膜中,采用无源寻址方案对传感器阵列进行实时探测。为了处理来自这个阵列的信号,我们将电容的测量数据输入到卷积神经网络中,卷积神经网络对接口上的触摸事件进行分类和定位。我们用一个叫做OrbTouch的设备来实现这个概念。
为了使系统模块化,我们使用了一种监督学习方法,其中用户定义一组触摸输入,并通过举例来训练界面;我们通过使用OrbTouch来玩流行的俄罗斯方块游戏来证明这一点。我们的回归模型本地化触摸的平均测试误差为0.09毫米,而我们的分类器识别五种手势的平均测试误差为1.2%。
在另一个单独的演示中,我们证明OrbTouch能够区分10个不同的用户,平均测试误差为2.4%。
在测试时,我们将这些模型的输出输入到一个deb算法中,以提供几乎没有错误的体验。这是非常了不起的一个发现,预示着AI触觉未来大有可为。
参考文献:
Larson C, Spjut J, Knepper R, Shepherd R.A Deformable Interface for Human Touch Recognition Using Stretchable Carbon Nanotube Dielectric Elastomer Sensors and Deep Neural Networks.Soft Robot. 2019 Oct;6(5):611-620. doi: 10.1089/soro.2018.0086. Epub 2019 Aug 5.
网友评论