专栏名称: 算法与数学之美
从生活中挖掘数学之美,在实践中体验算法之奇,魅力旅程,从此开始!
目录
相关文章推荐
九章算法  ·  免费线上讲座来了!FAANG大佬带你通关面试! ·  7 小时前  
算法爱好者  ·  OpenAI 和尤雨溪都觉得 Rust 真香! ·  昨天  
算法与数据结构  ·  “把 if 往上提,for 往下放!” ·  3 天前  
九章算法  ·  「九点热评」Meta员工:没活干就焦虑! ·  2 天前  
51好读  ›  专栏  ›  算法与数学之美

支持向量机通俗导论:理解SVM的三层境界(一)

算法与数学之美  · 公众号  · 算法  · 2017-01-29 22:22

正文

请到「今天看啥」查看全文


的图像是


可以看到,将无穷映射到了(0,1)。

而假设函数就是特征属于y=1的概率。

从而,当我们要判别一个新来的特征属于哪个类时,只需求 即可,若 大于0.5就是y=1的类,反之属于y=0类。


此外, 只和 有关, >0,那么 ,而g(z)只是用来映射,真实的类别决定权还是在于 。再者,当 时, =1,反之 =0。如果我们只从 出发,希望模型达到的目标就是让训练数据中y=1的特征 ,而是y=0的特征 。Logistic回归就是要学习得到 ,使得正例的特征远大于0,负例的特征远小于0,而且要在全部训练实例上达到这个目标。


接下来,尝试把logistic回归做个变形。首先,将使用的结果标签y = 0和y = 1替换为y = -1,y = 1,然后将 )中的 替换为b,最后将后面的 替换为 (即 )。如此,则有了 。也就是说除了y由y=0变为y=-1外,线性分类函数跟logistic回归的形式化表示 没区别。


进一步,可以将假设函数 中的g(z)做一个简化,将其简单映射到y=-1和y=1上。映射关系如下:








请到「今天看啥」查看全文