61. 支持向量机(线性模型)的图像展示

支持向量机学习方法,针对不同的情况,有由简至繁的不同模型:

线性可分支持向量机(linear support vector machine in linearly separable case):训练数据线性可分的情况下,通过硬间隔最大化(hard margin maximization),学习一个线性的分类器,即线性可分支持向量机(亦称作硬间隔支持向量机)。

线性支持向量机(linear support vector machine):训练数据近似线性可分的情况下,通过软间隔最大化(soft margin maximization),学习一个线性的分类器,称作线性支持向量机(又叫软间隔支持向量机)。

非线性支持向量机(non-linear support vector machine):训练数据线性不可分的情况下,通过使用核技巧(kernel trick)及软间隔最大化,学习非线性分类器,称作非线性支持向量机。……

阅读更多

56. 概念介绍

有监督学习(Supervised learning)是从标签化训练数据集中推断出函数的机器学习任务。……

阅读更多

强化学习(policygradient和actor-critic

强化学习(Policy Gradient,Actor Critic) 强化学习是通过奖惩的反馈来不断学习的,在Q-Learning,Sarsa和DQN中,都是学习到了价值函数或对价值函数的近似,然后根据价值来选择策略……

阅读更多

   
 

时间序列的深度学习模型(RNN和LSTM)

一、RNN(循环神经网络)
Recurrent Neural Networks(RNN)用于处理序列模型的问题,是一种对序列数据建模的神经网络。

1.RNN与一般NN的不同
传统NN每个样本输入、输出之间相互独立,不能处理很多情况。比如预测句子的下一个单词是什么,需要用到之前的信息。
……

阅读更多

深度学习(卷积神经网络LENET)

Lenet 是一系列网络的合称,包括 Lenet1 – Lenet5,由 Yann LeCun 等人在 1990 年《Handwritten Digit Recognition with a Back-Propagation Network》中提出,是卷积神经网络的 HelloWorld。……

阅读更多

深度学习(自编码器AutoEncoder)

自编码器是用于无监督学习,高效编码的神经网络,自动编码器的目的就在于,学习一组数据的编码,通常用于数据的降维,自编码是一种无监督的算法,网络分为:输入层,隐藏层(编码层),解码层,该网络的目的在于重构输入,使其隐藏层的数据表示更加好,利用了反向传播,将输入值和目标值设置一样,就可以不断的进行迭代训练。……

阅读更多