专栏名称: 36大数据
关注大数据和互联网趋势,最大,最权威,最干货的大数据微信号(dashuju36)。大数据第一科技媒体。不发软文,只做知识分享。
目录
相关文章推荐
数局  ·  世界经济论坛:2030年生产力发展白皮书 ·  8 小时前  
软件定义世界(SDX)  ·  谷歌CEO劈柴震撼预言:2030年AI直逼超 ... ·  2 天前  
数据派THU  ·  【ICML2025】解决3D语言高斯溅射中的 ... ·  3 天前  
大数据文摘  ·  0产品、0用户、0API!欧洲 AI ... ·  3 天前  
51好读  ›  专栏  ›  36大数据

给初学者的深度学习简介

36大数据  · 公众号  · 大数据  · 2017-10-20 07:50

正文

请到「今天看啥」查看全文



卷积层是基于单词“卷积(Convolution)”而来,这是一种数学上的操作,它是对两个变量f\*g进行操作产生第三个变量。它和互相关(cross-correlation)很像。卷积层的输入是一个m×m×r图像,其中m是图像的高度和宽度,r是通道的数量,例如,一个RGB图像的通道是3,即r=3。卷积层有k个滤波器【filters】(或者称之为核【kernel】),其大小是n×n×q,这里的n是比图像维度小的一个数值,q既可以等于通道数量,也可以小于通道数量,具体根据不同的滤波器来定。


激活函数 Activation Function


为了实现复杂的映射函数,我们需要使用激活函数。它可以带来非线性的结果,而非线性可以使得我们很好的拟合各种函数。同时,激活函数对于压缩来自神经元的无界线性加权和也是重要的。


激活函数很重要,它可以避免我们把大的数值在高层次处理中进行累加。激活函数有很多,常用的有sigmoid,tanh和ReLU。


池化层 Pooling Layer


池化是一个基于样本的离散化过程。其目的上降低输入表示的采样(这里的输入可以是图像,隐层的输出等),减少它们的维度,并允许我们假设特征已经被包含在了子区域中。


这部分的作用是通过提供一种抽象的形式表示来帮助过拟合表示。同样的,它也通过减少了参数的数量降低了计算的复杂度并为内部的表示提供一个基本的不变性的转换。


目前最常用的池化技术有Max-Pooling、Min-Pooling和Average-Pooling。


全连接层 Fully Connected Layer


“全连接”的意思是指先前的层里面的所有的神经元都与后一个层里面的所有的神经元相连。全连接层是一种传统的多层感知机,在输出层,它使用softmax激活函数或者其他激活函数。


递归神经网络 Recurrent Neural Networks


在传统的神经网络中,我们假设所有的输入之间相互独立。但是对于很多任务来说,这并不是一个好的主意。如果你想知道一个句子中下一个单词是什么,你最好知道之前的单词是什么。RNN之所以叫RNN就是它对一个序列中所有的元素都执行相同的任务,所有的输出都依赖于先前的计算。另一种思考RNN的方式是它会记住所有之前的计算的信息。


一个RNN里面有很多循环,它可以携带从输入中带来的信息。如下图所示,x_t是一种输入,A是RNN里面的一部分,h_t是输出。本质上,您可以从句子中输入文字,甚至还可以从字符串中输入x_t格式的字符,通过RNN可以提供一个h_t。 RNN的一些类型是LSTM,双向RNN,GRU等。


由于任何输入和输出都可以在RNN中变成一对一或者多对多的形式,RNN可以用在自然语言处理、机器翻译、语言模型、图像识别、视频分析、图像生成、验证码识别等领域。下图展示了RNN可能的结构以及对模型的解释。

应用


深度学习有很多应用,很多特别的问题也可以通过深度学习解决。一些深度学习的应用举例如下:


黑白图像的着色


深度学习可以用来根据对象及其情景来为图片上色,而且结果很像人类的着色结果。这中解决方案使用了很大的卷积神经网络和有监督的层来重新创造颜色。


机器翻译


深度学习可以对未经处理的语言序列进行翻译,它使得算法可以学习单词之间的依赖关系,并将其映射到一种新的语言中。大规模的LSTM的RNN网络可以用来做这种处理。


图像中的对象分类与检测






请到「今天看啥」查看全文