🇨🇳
阿臻的学习笔记
  • 🤖AI
    • 📑README
    • 🕒Scheduling
      • 一种JSSP的DRL环境
    • 📜Paper
      • 神经协同过滤
      • 非侵入信号深度学习
      • 肾透析移植机器学习
      • 心理学随机森林
      • P300数据学习
    • ⚒️Pytorch
      • 1.1数据基础
      • 1.2自动梯度
      • 1.3神经网络
      • 1.4模型实现
      • 2数据操作
    • 🛠️Ray+Gym
    • 📃Graph Neural
      • 图神经网络基础
      • Contrastive Multi-View Representation Learning on Graphs
    • 📽️Deep Learning
      • 《第一章》
      • 《第二章》
      • 《第三章》
      • 《第四章》
      • 台湾陈蕴侬视频2020
    • 🔨MXNet
      • 《第一章》《第二章》
      • 《第三章》
      • 《第四章》
      • 《第五章》
      • 《第六章》
      • 《第七章》
      • 《第八章》
      • 《第九章》
      • 《第十章》
  • 👨‍🏭Study
    • 📔Algorithm
      • Leetcode
        • 第一天(乱刷)
        • 第二天(栈)
        • 第三天(栈)
        • 第四天(堆)(贪心)
        • 第五天(贪心)
        • 第六天(贪心)
        • 第七天(排序)
        • 第八天(排序)
        • 第九天(排序)
        • 第十天(位运算)
        • 第十一天(位运算)
        • 第十二天(位运算)
        • 第十三天(位运算)
        • 第十四天(树)
        • 第十五天(树)
        • 第十六天(树)
        • 第十七天(树)
        • 第十八天(树)
        • 第十九天(树)
        • 第二十天(树)
        • 第二十一天(树)
        • 第二十二天(并查集)
        • 第二十三天(并查集)
        • 第二十四天(DFS)(图)
        • 第二十五天(图)(设计)
        • 第二十六天(拓扑)
        • 第二十七天(字典树)
        • 第二十八天(字典树)
        • 第二十九天(树状数组)(二叉搜索树)
        • 第三十天(递归)
        • 第三十一天(脑筋急转弯)
        • 第三十二天(脑筋急转弯)
        • 第三十三天(记忆化)
        • 第三十四天(队列)
        • 第三十五天(队列)
        • 第三十六天(极小化极大)
        • 第三十七天(几何)
        • 第三十八天(蓄水池抽样)
        • 第三十九天(数组)
        • 第四十天(数组)
        • 第四十一天(数组)
        • 第四十二天(数组)
        • 第四十三天(数组)
        • 第四十四天(数组)
        • 第四十五天(数组)
        • 第四十六天(数组)
      • Sort
        • 最小堆
        • 归并排序(merge_sort)
    • 📓Knowledge
      • python补码
    • 🔧Other
      • pythonic语法
      • Ubuntu备忘
由 GitBook 提供支持
在本页
  • 3.1线性判别函数和决策边界
  • 3.1.1二分类
  • 3.1.2多分类
  • 3.2logistic回归
  • 3.2.1参数学习
  • 3.3softmax回归
  • 3.3.1参数学习
  • 3.4感知器(Perceptron)
  • 3.4.1参数学习
  • 3.4.2收敛性

这有帮助吗?

导出为 PDF
  1. AI
  2. Deep Learning

《第三章》

上一页《第二章》下一页《第四章》

最后更新于3年前

这有帮助吗?

3.1线性判别函数和决策边界

3.1.1二分类

在二分类问题中,我们只需要一个线性判别函数𝑓(𝒙; 𝒘) = 𝒘T𝒙+𝑏. 特征空间 ℝ^𝐷 中所有满足 𝑓(𝒙; 𝒘) = 0的点组成一个分割超平面(Hyperplane),称为决策边界(Decision Boundary)或决策平面(Decision Surface).特征空间中每个样本点到决策平面的有向距离(Signed Distance)为𝛾 =𝑓(𝒙; 𝒘)/‖𝒘‖ . 理解:存在权重w,使其和所有特征x,标签y组合起来均大于0.

3.1.2多分类

对于(2),需要(C-1)+(C-2)+...+1=C(C-1)/2个判别函数 对于(3),argmax(f(x))是使得 f(x)取得最大值所对应的变量点x(或x的集合)。arg即argument,此处意为“自变量”。从而可以理解为c的概率最大.此方法在特征空间中不会有不确定的值.

3.2logistic回归

𝑔(⋅) 通常称为激活函数(Activation Function) 逆函数 𝑔−1(⋅)也称为联系函数(Link Function). 标准 Logistic函数在机器学习中使用得非常广泛,经常用来将一个实数空间的数映射到(0,1)区间. Logistic回归可以看作是预测值为 “ 标签的对数几率”的线性回归模型. 因此, Logistic 回归也称为对数几率回归(Logit Regression)

3.2.1参数学习

因为logistic函数的导数是: 𝜎′(𝑥) = 𝜎(𝑥)(1 − 𝜎(𝑥)),带入y_hat'=y_hat(1-y_hat),下列中的y为真实标签数值.

3.3softmax回归

Softmax 回归(Softmax Regression), 也称为多项(Multinomial)或多类(Multi-Class)的 Logistic回归,是 Logistic回归在多分类问题上的推广.

3.3.1参数学习

3.4感知器(Perceptron)

3.4.1参数学习

3.4.2收敛性

这边定义,只有C个分类,没有不属于所有分类的数. Softmax回归往往需要使用正则化来约束其参数. 因为𝐶 个权重向量是冗余的,也能避免计算 softmax函数时在数值计算上溢出问题.

损失函数是:ℒ(𝒘; 𝒙, 𝑦) = max(0, −𝑦𝒘T𝒙). 每次分错一个样本 (𝒙, 𝑦)时,即 𝑦𝒘T𝒙 < 0,就用这个样本来更新权重.

𝛾是一个正的常数.

🤖
📽️
多类线性可分
交叉熵
线性可分
多分类三种方式
logistic函数
logistic对数几率
参数更新
softmax普通表示
softmax向量表示
推导过程
softmax风险函数
softmax关于W的梯度
感知器参数学习算法
感知器缺点
感知器收敛性