“王杨卢骆当时体,轻薄为文哂未休。 尔曹身与名俱灭,不废江河万古流。”
— 唐 杜甫《戏为六绝句》(其二)
【不要问我为啥放这首在开头,千人千面千理解吧】
深度学习(DL),或说深度神经网络(DNN),作为传统机器学习中神经网络(NN)、感知机(perceptron)模型的扩展延伸,正掀起铺天盖地的热潮。DNN火箭般的研究速度,在短短数年内带来了能“读懂”照片内容的图像识别系统,能和人对话到毫无PS痕迹的语音助手,能击败围棋世界冠军、引发滔滔议论的AlphaGo……DNN在众多应用领域的成功无可置疑。然而,在众多(负责任的和不负责任的)媒体宣传推波助澜下,一部分人过于乐观,觉得攻克智能奇点堡垒近在眼前;另一部分则惶惶不可终日,觉得天网统治人类行将实现。作者君对此的态度如下图所示:
言归正传,如果不把DNN看成上帝/天网/人工智能终点etc.,也暂不考虑当前DL和人脑思维之间若有若无的联系,那么DNN和K-Means、主成分分析(PCA)、稀疏编码(sparse coding或Lasso)等众多耳熟能详的模型并无二致,都属于机器学习中**特征学习(feature learning)范畴。假如硬说DNN有什么不同,那么大概就在一个“深”字上。从数据x中学习特征y,如果(绝大多数)传统模型写成$y = f(x)$
(即学习“一个”特征变换),DNN则可以写成$y = f_N(\cdots(f_2(f_1(x))))$
(即学习“若干个级联”**的特征变换)。那么究竟什么使得DNN如此效果拔群?作者君本人归纳了三点: