IT博客汇
  • 首页
  • 精华
  • 技术
  • 设计
  • 资讯
  • 扯淡
  • 权利声明
  • 登录 注册

    卷积神经网络在机器人技术中的研究

    我爱机器学习(52ml.net)发表于 2016-09-20 07:07:50
    love 0

    来源:阅面科技
    ymqrcode
    作者:Li Yang Ku (Gooly)
    原文链接:卷积神经网络在机器人技术中的研究
    本文经阅面科技微信公众号授权转载,禁止二次转载

    正如我之前提到的,深度学习和卷积神经网络(CNN)在计算机视觉领域已经获得了很多的关注,并在许多基准上优于其他算法。然而,将这些技术应用到机器人中却并不简单,有两个原因:首先,训练神经网络需要大量的训练数据,并且收集这些数据也是很困难的。研究机器人不仅在许多试验后会有网络或硬件故障。在收集数以百万计的数据所用的时间和资源也是很重要的。还有,训练的神经网络是机器人特定的,不能直接使用在不同的机器人上面,所以也限制了这样的网络训练。第二,CNN是一个良好分类网络,但是当我们与一个动态的环境相互作用时,它并没有直接的关系。当你看见光剑「lightsaber」它并没有显示如何与它互动,但你却可以编码这些信息,然而这只是使用在计算机视觉上的深度学习,而不是机器人。

    尽管将深度学习和神经网络成功应用在机器人上有些困难,但接下来我还要讨论三个关于这些有趣的事情:

    1.“End-to-end training of deep visuomotor policies.”

    2.“Deep Spatial Autoencoders for Visuomotor Learning.”

    3.“Supersizing Self-supervision: Learning to Grasp from 50K Tries and 700 Robot Hours.”

    强化学习中的传统的搜索方法是使用一个“计算机视觉系统”的输出,并发送命令到低级别的控制器,比如一个局部放电控制器。在本文的「端到端的训练深层视觉的方法」“End-to-end training of deep visuomotor policies.” 中尝试着从底层的观察(图像和关节角度)直接输出关节力矩。 (整体架构如下图所示)

    你可以说这是需要花费时间和精力的,但并没有一些技巧能够帮助其更加容易的实现。作者首先初始化第一层的权重对标在预先训练的ImageNet,然后通过位姿回归训练目标位姿的视觉层。此姿势的训练是将机器人的手覆盖一块类似于背景的布。(见下图)

    除此之外,使用这个项目的位姿信息,可以用一种方法学习另一种方法,称为引导策略信息。然后该轨迹是用来训练的电机控制层,需要的视觉层输出加上联合配置作为输入和输出的关节力矩。下面的视频做出了详细的解释和描述:

    “视频:端到端的训练深层视觉的方法”

    第二篇,「视觉动作学习的深度空间自编码器」“Deep Spatial Autoencoders for Visuomotor Learning”是在伯克利的同一组实验做的。在这项工作中,作者试图去学习一个强化学习的状态空间。强化学习需要一个详细的状态表示,这种状态通常是手动设计。这项工作使这个状态空间构建深层空间编码从摄像机图像中获取特征,来表示对象的位置。该体系结构如下图所示:

    深层空间编码图在全分辨率RGB图样下采样,输入图像的灰度版本。在图像中的所有信息被迫通过一个瓶颈的空间特征,因此迫使网络学习重要的低维表示,从瓶颈层中去提取这个位置,并结合联合信息,以形成状态表示。下图中表示出了在几个任务上进行的测试结果。

    正如我前面提到,收集大量的数据用于机器人的训练是很难的,而在「Supersizing Self-supervision: Learning to Grasp from 50K Tries and 700 Robot Hours」中作者试图表明他是有可能的。虽然还不能与数据集在视觉领域相比,如ImageNet。如果没有先例的话,尝试在机器人技术中采集5万次的数据则是非常有意义的。相对大多说研究机器人的大规模生产来说,此数据是使用两手臂的Baxter机器人聚焦。

    然后使用这些收集来的数据来训练已经初始化的CNN和重量训练在ImageNet上面。最后输出的是一个18个不同方向的夹持器(假设机器人总是从顶部抓取)。该体系结构如下图所示:

    阅面科技(ReadSense)致力于解决智能机器的视觉识别问题。基于纯自主研发的创新性视觉算法,硬件模组及芯片,通过一体化解决方案,引领全新视觉识别时代



沪ICP备19023445号-2号
友情链接