• 您当前的位置:首页 > 科技资讯 > 科技博览 > 人工智能学会触觉,爱抚亲昵指日可待
  • 人工智能学会触觉,爱抚亲昵指日可待

    时间:2019-05-30  来源:新浪科技综合  作者:新浪科技综合

    来源:知社学术圈

    这样的机器人,您想来几个呢?

    直立行走,将人双手解放出来,既能使用工具劳动生产,又能抒发情感创造艺术,有词为证:

    持手相看泪眼,竟无语凝噎。。。

    那么,日新月异、一骑千里的人工智能,什么时候才能学会爱抚亲昵风花雪月呢?今天上线的一篇Nature论文,麻省理工学院的研究人员朝这个方向迈进了一大步。

    秘密就在上面这个手套,看起来普普通通,只是上面安装了包含548个柔性压阻传感器的阵列,覆盖全手掌,可以感知触摸时的压力大小,范围在30到500mN之间,离散为150个级别,一秒钟可以采样7.3次,并输出相应电信号。也就是说,这个手套有相当不错的时空分辨率和压力精度,戴着它抚摸抓取的时候可以获得大量触觉数据,而造价只要10美金。

    机器视觉其实已经突飞猛进,非常发达,但触觉则起步不久。因为相对摄像机照相机而言,此前人们对触觉感应数据采集并没有太多的需求,没有多少人会异想天开把触觉记忆存储下来。但随着机器人的发展,特别是未来对于服务机器人的需求,光有视觉显然不够了,触觉也变得日益重要。这个手套,就像摄像机一样,能够抓取存储动态的触觉数据。

    但光有手而没有脑,还是没有感觉和情感。于是作者戴上手套反复抓取26个不同的物体,获得13万5千组触觉压力的时空数据,并通过卷积神经网络深度学习方法进行训练,教会了机器触觉。其卷积神经网络构架如下,基于ResNet-18:

    结果显示,只要7组时空数据输入,就可以比较准确辨识不同的物体:

    结果显示,只要7组时空数据输入,就可以比较准确辨识不同的物体:

    也可以大致估算物体的重量:

    也可以大致估算物体的重量:

    也就是说,机器已经具备了初步的触觉。下一步的呢,我想应该是通过触觉,进一步让机器学会情感,比如爱抚亲昵时的愉悦,咬牙切齿时的愤怒,和手足无措的焦躁,都可以通过触觉传感和脑神经电极同时取样,深度学习。一个喜怒哀乐溢于言表的机器人,就产生了。

    这样的机器人,您想来几个呢?

    关键词:
    最近更新
    推荐资讯