IT博客汇
  • 首页
  • 精华
  • 技术
  • 设计
  • 资讯
  • 扯淡
  • 权利声明
  • 登录 注册

    浅谈深度学习中潜藏的稀疏表达

    统计之都发表于 2016-06-24 21:36:05
    love 0

    “王杨卢骆当时体,轻薄为文哂未休。 尔曹身与名俱灭,不废江河万古流。”

    — 唐 杜甫《戏为六绝句》(其二)

    【不要问我为啥放这首在开头,千人千面千理解吧】

    深度学习:概述和一孔之见

    深度学习(DL),或说深度神经网络(DNN),作为传统机器学习中神经网络(NN)、感知机(perceptron)模型的扩展延伸,正掀起铺天盖地的热潮。DNN火箭般的研究速度,在短短数年内带来了能“读懂”照片内容的图像识别系统,能和人对话到毫无PS痕迹的语音助手,能击败围棋世界冠军、引发滔滔议论的AlphaGo……DNN在众多应用领域的成功无可置疑。然而,在众多(负责任的和不负责任的)媒体宣传推波助澜下,一部分人过于乐观,觉得攻克智能奇点堡垒近在眼前;另一部分则惶惶不可终日,觉得天网统治人类行将实现。作者君对此的态度如下图所示:

    1

    • 小品里,黑土老大爷对头脑发热的白云大妈说过:“什么名人,不就是个人名?”
    • 对于DNN,作者君也想说:“什么怪力乱神,不就是个计算模型?”

    言归正传,如果不把DNN看成上帝/天网/人工智能终点etc.,也暂不考虑当前DL和人脑思维之间若有若无的联系,那么DNN和K-Means、主成分分析(PCA)、稀疏编码(sparse  coding或Lasso)等众多耳熟能详的模型并无二致,都属于机器学习中**特征学习(feature learning)范畴。假如硬说DNN有什么不同,那么大概就在一个“深”字上。从数据x中学习特征y,如果(绝大多数)传统模型写成$y = f(x)$(即学习“一个”特征变换),DNN则可以写成$y = f_N(\cdots(f_2(f_1(x))))$ (即学习“若干个级联”**的特征变换)。那么究竟什么使得DNN如此效果拔群?作者君本人归纳了三点:



沪ICP备19023445号-2号
友情链接