正文
机器学习从学习方法上,分为监督学习、非监督学习、强化学习以及半监督学习。
监督学习,是对于训练集有相应的正确输出。比如给定一组数据x:{房屋面积、朝向、精装修否},Y{房价}。然后给定一套房子的面积、朝向,输出房价。监督学习有如下两类:
分类问题,比如我们要从一堆人中辨别谁是好人,谁是坏人。这就是分类问题。简单的讲就是对一个问题,我们将其离散化到一个维度上。手写识别,典型的数据集是:[MNIST](http://yann.lecun.com/exdb/mnist/)。
回归问题,比如预测明天的温暖,根据今天以及最近一周的情况,给出明天的气温,湿度等。The target output is a real number or a whole vector of real numbers。
常用的监督学习算法有:xgboost、gbdt、LR、决策树、SVM、贝叶斯分类器、k邻近等。当然深度学习也可以算作是监督学习,比如卷积神经网络进行手写识别。
非监督学习,其实到现在为主基本数被忽略的对象,在未加标签的数据中,试图找到隐藏的结构。因为提供给学习者的实例是未标记的,因此没有错误或报酬信号来评估潜在的解决方案。因为就是给一堆数据给你,没有标记这个数据是好还是坏,一般采用聚类的方式。比如常见的k-means聚类、密度聚类等。
非监督学习可以用来降维,如LDA(线性判别分析)、PCA(主成分分析)。
强化学习我这里采用Geoffrey Hinton 的定义:In reinforcement learning, the output is an action or sequence of actions and the only supervisory signal is an occasional scalar reward. 比如我们要训练机器下棋,电脑输出一个步骤,返回出这个棋局的好坏,如此反复循环,直到电脑能够记住怎么下棋才是好琪。
常用的有蒙特卡洛强化学习、模仿学习等
作为一个从码农到学习机器学习的过程中,也是一个自我学习,自我探索的过程。
数学知识是必备的:线性代数、概率论、高等数数学,当然其他的比如信息论,统计学,能多学点就多学点喽
推荐如下的学习资料:
[统计学习方法](
https://item.jd.com/10975302.html
)
[机器学习](
https://item.jd.com/11867803.html
)
[深度学习](
https://item.jd.com/13188291644.html
)
MLAPP及PRML,参考链接:
https://www.52ml.net/11578.html
视频推荐
Geoffrey Hinton :
https://www.coursera.org/learn/neural-networks/home
Andrew Ng:
https://www.coursera.org/learn/machine-learning/home
林轩田 :
https://www.csie.ntu.edu.tw/~htlin/course/ml15fall/
看完这些差不多入门了,要想进一步提升,
**看论文
看论文
看论文**
https://arxiv.org/pdf/1603.02754.pdf
https://www.researchgate.net/publication/220416607_Distributed_Optimization_and_Statistical_Learning_via_the_Alternating_Direction_Method_of_Multipliers
https://arxiv.org/
http://www.gitxiv.com/
这个网站中是有源代码的,在git上可以找到。