当前位置: 首页 > news >正文

机器学习周志华学习笔记-第6章<支持向量机>

机器学习周志华学习笔记-第6章<支持向量机>

卷王,请看目录

  • 6支持向量机
    • 6.1 函数间隔与几何间隔
        • 6.1.1 函数间隔
        • 6.1.2 几何间隔
    • 6.2 最大间隔与支持向量
    • 6.3 对偶问题
    • 6.4 核函数
    • 6.5 软间隔支持向量机
    • 6.6 支持向量机
    • 6.7核方法

6支持向量机

支持向量机是一种经典的二分类模型,是一种监督学习算法。基本模型定义为特征空间中最大间隔的线性分类器,其学习的优化目标便是间隔最大化,因此支持向量机本身可以转化为一个凸二次规划求解的问题。

6.1 函数间隔与几何间隔

对于二分类学习,假设现在的数据是线性可分的,这时分类学习最基本的想法就是找到一个合适的超平面,该超平面能够将不同类别的样本分开,类似二维平面使用 a x + b y + c = 0 ax+by+c=0 ax+by+c=0来表示,超平面实际上表示的就是高维的平面,如下图所示:
在这里插入图片描述对数据点进行划分时,易知:当超平面距离与它最近的数据点的间隔越大,分类的鲁棒性越好,即当新的数据点加入时,超平面对这些点的适应性最强,出错的可能性最小。因此需要让所选择的超平面能够最大化这个间隔Gap(如下图所示), 常用的间隔定义有两种,一种称之为函数间隔,一种为几何间隔,下面将分别介绍这两种间隔,并对SVM为什么会选用几何间隔做了一些阐述。
在这里插入图片描述

6.1.1 函数间隔

在超平面 ω ’ x + b = 0 \omega’x+b=0 ωx+b=0确定的情况下, ∣ ω ’ x ∗ + b ∣ |\omega’x^*+b| ωx+b能够代表点 x ∗ x^* x距离超平面的远近,易知:当 ω ’ x ∗ + b > 0 \omega’x^*+b>0 ωx+b>0时,表示 x ∗ x^* x在超平面的一侧(正类,类标为1),而当 ω ’ x ∗ + b < 0 \omega’x^*+b<0 ωx+b<0时,则表示 x ∗ x^* x在超平面的另外一侧(负类,类别为-1)。因此 ( ω ’ x ∗ + b ) y ∗ (\omega’x^*+b)y^* ωx+by的正负性恰能表示数据点 x ∗ x^* x是否被分类正确。于是便引出了函数间隔的定义(functional margin):
γ ^ = y ( ω T x + b ) = y f ( x ) \hat{\gamma}=y\left(\omega^{T} x+b\right)=y f(x) γ^=y(ωTx+b)=yf(x)
而超平面 ( ω , b ) (\omega,b) ω,b关于所有样本点 ( X i , Y i ) (X_i,Y_i) XiYi的函数间隔最小值则为超平面在训练数据集T上的函数间隔:
γ ^ = min ⁡ γ ^ i , ( i = 1 , … , n ) \hat{\gamma}=\min \hat{\gamma}_{i},(i=1, \ldots, n) γ^=minγ^i,(i=1,,n)
可以看出:这样定义的函数间隔在处理SVM上会有问题,当超平面的两个参数 ω \omega ω b b b同比例改变时,函数间隔也会跟着改变,但是实际上超平面还是原来的超平面,并没有变化。例如: ω 1 x 1 + ω 2 x 2 + ω 3 x 3 + b = 0 \omega_1x_1+\omega_2x_2+\omega_3x_3+b=0 ω1x1+ω2x2+ω3x3+b=0其实等价于 2 ω 1 x 1 + 2 ω 2 x 2 + 2 ω 3 x 3 + 2 b = 0 2\omega_1x_1+2\omega_2x_2+2\omega_3x_3+2b=0 2ω1x1+2ω2x2+2ω3x3+2b=0,但计算的函数间隔却翻了一倍。从而引出了能真正度量点到超平面距离的概念–几何间隔(geometrical margin)。

6.1.2 几何间隔

几何间隔代表的则是数据点到超平面的真实距离,对于超平面 ω ’ x + b = 0 \omega’x+b=0 ωx+b=0 ω \omega ω代表的是该超平面的法向量,设 x ∗ x^* x为超平面外一点 x x x在法向量 ω \omega ω方向上的投影点, x x x与超平面的距离为 γ \gamma γ,则有 x ∗ = x − γ ( ω / ∣ ∣ ω ∣ ∣ ) x^*=x-\gamma(\omega/||\omega||) x=xγ(ω/∣∣ω∣∣),又 x ∗ x^* x在超平面上,即 ω ’ x ∗ + b = 0 \omega’x^*+b=0 ωx+b=0,代入即可得:

γ = ω T x + b ∥ ω ∥ = f ( x ) ∥ ω ∥ \gamma=\frac{\omega^{T} x+b}{\|\omega\|}=\frac{f(x)}{\|\omega\|} γ=ωωTx+b=ωf(x)
为了得到 γ \gamma γ的绝对值,令 γ \gamma γ乘上其对应的类别 y y y,即可得到几何间隔的定义:
γ ~ = y γ = γ ^ ∥ ω ∥ \tilde{\gamma}=y \gamma=\frac{\hat{\gamma}}{\|\omega\|} γ~=yγ=ωγ^
从上述函数间隔与几何间隔的定义可以看出:实质上函数间隔就是 ∣ ω ’ x + b ∣ |\omega’x+b| ωx+b,而几何间隔就是点到超平面的距离。

6.2 最大间隔与支持向量

通过前面的分析可知:函数间隔不适合用来最大化间隔,因此这里我们要找的最大间隔指的是几何间隔,于是最大间隔分类器的目标函数定义为:

max ⁡ γ ~ y i ( ω T x i + b ) = γ ^ i ≥ γ ^ , i = 1 , … , n \begin{array}{l} \max \tilde{\gamma} \\ y_{i}\left(\omega^{T} x_{i}+b\right)=\hat{\gamma}_{i} \geq \hat{\gamma}, \quad i=1, \ldots, n \end{array} maxγ~yi(ωTxi+b)=γ^iγ^,i=1,,n
在这里插入图片描述
一般地,我们令 γ ^ \hat{\gamma} γ^为1(这样做的目的是为了方便推导和目标函数的优化),从而上述目标函数转化为:
max ⁡ 1 ∥ ω ∥ , s.t.  y i ( ω T x i + b ) ≥ 1 , i = 1 , … , n \max \frac{1}{\|\omega\|}, \quad \text { s.t. } \quad y_{i}\left(\omega^{T} x_{i}+b\right) \geq 1, i=1, \ldots, n maxω1, s.t. yi(ωTxi+b)1,i=1,,n
对于 y ( ω ’ x + b ) = 1 y(\omega’x+b)=1 y(ωx+b)=1的数据点,即右图中位于 ω ’ x + b = 1 \omega’x+b=1 ωx+b=1 ω ’ x + b = − 1 \omega’x+b=-1 ωx+b=1上的数据点,我们称之为支持向量(support vector),易知:对于所有的支持向量,它们恰好满足 y ∗ ( ω ’ x ∗ + b ) = 1 y^*(\omega’x^*+b)=1 y(ωx+b)=1,而所有不是支持向量的点,有 y ∗ ( ω ’ x ∗ + b ) > 1 y^*(\omega’x^*+b)>1 y(ωx+b)>1

6.3 对偶问题

对于上述得到的目标函数,求 1 / ∣ ∣ ω ∣ ∣ 1/||\omega|| 1/∣∣ω∣∣的最大值相当于求 ∣ ∣ ω ∣ ∣ 2 ||\omega||^2 ∣∣ω2的最小值,因此很容易将原来的目标函数转化为:
min ⁡ 1 2 ∥ ω ∥ 2 , s.t.  y i ( ω T x i + b ) ≥ 1 , i = 1 , … . , n \min \frac{1}{2}\|\omega\|^{2}, \quad \text { s.t. } \quad y_{i}\left(\omega^{T} x_{i}+b\right) \geq 1, i=1, \ldots ., n min21ω2, s.t. yi(ωTxi+b)1,i=1,.,n
即变为了一个带约束的凸二次规划问题,按书上所说可以使用现成的优化计算包(QP优化包)求解,但由于SVM的特殊性,一般我们将原问题变换为它的对偶问题,接着再对其对偶问题进行求解。为什么通过对偶问题进行求解,有下面两个原因:

  • 一是因为使用对偶问题更容易求解
  • 二是因为通过对偶问题求解出现了向量内积的形式,从而能更加自然地引出核函数

对偶问题,顾名思义,可以理解成优化等价的问题,更一般地,是将一个原始目标函数的最小化转化为它的对偶函数最大化的问题。对于当前的优化问题,首先我们写出它的朗格朗日函数:
在这里插入图片描述
上式很容易验证:当其中有一个约束条件不满足时,L的最大值为 ∞(只需令其对应的 α \alpha α为 ∞即可);当所有约束条件都满足时,L的最大值为 1 / 2 ∣ ∣ ω ∣ ∣ 2 1/2||\omega||^2 1/2∣∣ω2(此时令所有的 α \alpha α为0),因此实际上原问题等价于:
min ⁡ ω , b θ ( ω ) = min ⁡ ω , b max ⁡ α i ≥ 0 L ( ω , b , α ) = p ∗ \min _{\omega, b} \theta(\omega)=\min _{\omega, b} \max _{\alpha_{i} \geq 0} L(\omega, b, \alpha)=p^{*} ω,bminθ(ω)=ω,bminαi0maxL(ω,b,α)=p
由于这个的求解问题不好做, 因此一般我们将最小和最大的位置交换一下(需满足 KKT 条件),变成原问题的对偶问题:
max ⁡ α i ≥ 0 min ⁡ ω , b L ( ω , b , α ) = d ∗ \max _{\alpha_{i} \geq 0} \min _{\omega, b} L(\omega, b, \alpha)=d^{*} αi0maxω,bminL(ω,b,α)=d

这样就将原问题的求最小变成了对偶问题求最大 (用对偶这个词还是很形象), 接下来便可先求 L 对 ω \omega ω b b b 的极小, 再求 L 对 α \alpha α 的极大。

  1. 首先求 L 对 ω \omega ω b b b 的极小, 分别求 L 关于 ω \omega ω b b b 的偏导, 可以得出:

∂ L ∂ ω = 0 ⇒ ω = ∑ i = 1 n α i y i x i ∂ L ∂ b = 0 ⇒ ∑ i = 1 n α i y i = 0 \begin{array}{l} \frac{\partial L}{\partial \omega}=0 \Rightarrow \omega=\sum_{i=1}^{n} \alpha_{i} y_{i} x_{i} \\ \\ \frac{\partial L}{\partial b}=0 \Rightarrow \sum_{i=1}^{n} \alpha_{i} y_{i}=0 \end{array} ωL=0ω=i=1nαiyixibL=0i=1nαiyi=0
将上述结果代入 L 得到:
L ( ω , b , α ) = 1 2 ∑ i , j = 1 n α i α j y i y j x i T x j − ∑ i , j = 1 n α i α j y i y j x i T x j − b ∑ i = 1 n α i y i + ∑ i = 1 n α i = ∑ i = 1 n α i − 1 2 ∑ i , j = 1 n α i α j y i y j x i T x j → 现在只包含  α \begin{aligned} L(\omega, b, \alpha) & =\frac{1}{2} \sum_{i, j=1}^{n} \alpha_{i} \alpha_{j} y_{i} y_{j} x_{i}^{T} x_{j}-\sum_{i, j=1}^{n} \alpha_{i} \alpha_{j} y_{i} y_{j} x_{i}^{T} x_{j}-b \sum_{i=1}^{n} \alpha_{i} y_{i}+\sum_{i=1}^{n} \alpha_{i} \\ & =\sum_{i=1}^{n} \alpha_{i}-\frac{1}{2} \sum_{i, j=1}^{n} \alpha_{i} \alpha_{j} y_{i} y_{j} x_{i}^{T} x_{j} \rightarrow \text { 现在只包含 } \alpha \end{aligned} L(ω,b,α)=21i,j=1nαiαjyiyjxiTxji,j=1nαiαjyiyjxiTxjbi=1nαiyi+i=1nαi=i=1nαi21i,j=1nαiαjyiyjxiTxj 现在只包含 α

  1. 接着 L 关于 α \alpha α 极大求解 α \alpha α (通过 SMO 算法求解,此处不做深入)。
    max ⁡ α ∑ i = 1 n α i − 1 2 ∑ i , j = 1 n α i α j y i y j x i T x j s.t.  α i ≥ 0 , i = 1 , … , n ∑ i = 1 n α i y i = 0 \begin{aligned} \max _{\alpha} & \sum_{i=1}^{n} \alpha_{i}-\frac{1}{2} \sum_{i, j=1}^{n} \alpha_{i} \alpha_{j} y_{i} y_{j} x_{i}^{T} x_{j} \\ \text { s.t. } & \alpha_{i} \geq 0, i=1, \ldots, n \\ & \sum_{i=1}^{n} \alpha_{i} y_{i}=0 \end{aligned} αmax s.t. i=1nαi21i,j=1nαiαjyiyjxiTxjαi0,i=1,,ni=1nαiyi=0

  2. 最后便可以根据求解出的 , 计算出 ω \omega ω b b b , 从而得到分类超平面函数。
    ω ∗ = ∑ i = 1 n α i y i x i b ∗ = − max ⁡ i : y i = − 1 ω ∗ T x i + min ⁡ i : y i = 1 ω ∗ T x i 2 \begin{aligned} \omega^{*} & =\sum_{i=1}^{n} \alpha_{i} y_{i} x_{i} \\ b^{*} & =-\frac{\max _{i: y_{i}=-1} \omega^{* T} x_{i}+\min _{i: y_{i}=1} \omega^{* T} x_{i}}{2} \end{aligned} ωb=i=1nαiyixi=2maxi:yi=1ωTxi+mini:yi=1ωTxi
    在对新的点进行预测时, 实际上就是将数据点 x ∗ x^* x 代入分类函数 f ( x ) = ω ′ x + b f(x)=\omega^{\prime} x+b f(x)=ωx+b 中, 若 f ( x ) > 0 f(x)>0 f(x)>0 ,则为正类, f ( x ) < 0 f(x)<0 f(x)<0 , 则为负类, 根据前面推导得出的 ω \omega ω b b b , 分类函数如下所示, 此时便出现了上面所提到的内积形式。
    f ( x ) = ( ∑ i = 1 n α i y i x i ) T x + b = ∑ i = 1 n α i y i ⟨ x i , x ⟩ + b \begin{aligned} f(x) & =\left(\sum_{i=1}^{n} \alpha_{i} y_{i} x_{i}\right)^{T} x+b \\ & =\sum_{i=1}^{n} \alpha_{i} y_{i}\left\langle x_{i}, x\right\rangle+b \end{aligned} f(x)=(i=1nαiyixi)Tx+b=i=1nαiyixi,x+b

这里实际上只需计算新样本与支持向量的内积, 因为对于非支持向量的数据点, 其对应的拉格朗日乘子一定为 0 , 根据最优化理论( K-T 条件),对于不等式约束 y ( ω ′ x + b ) − 1 ⩾ 0 \mathrm{y}\left(\mathrm{\omega}^{\prime} \mathrm{x}+\mathrm{b}\right)-1 \geqslant 0 y(ωx+b)10 ,满足:

∂ i ( y i ( ω T x i + b ) − 1 ) = 0 ⇒ 即总有一个为  0 \partial_{i}\left(\mathrm{y}_{i}\left(\omega^{T} \mathrm{x}_{i}+\mathrm{b}\right)-1\right)=0 \Rightarrow \text { 即总有一个为 } 0 i(yi(ωTxi+b)1)=0 即总有一个为 0

6.4 核函数

由于上述的超平面只能解决线性可分的问题, 对于线性不可分的问题, 例如: 异或问题, 我们需要使用核函数将其进行推广。一般地, 解决线性不可分问题时, 常常采用咉射的方式, 将低维原始空间映射到高维特征空间, 使得数据集在高维空间中变得线性可分, 从而再使用线性学习器分类。如果原始空间为有限维, 即属性数有限, 那么总是存在一个高维特征空间使得样本线性可分。若 ∅ \varnothing 代表一个映射, 则在特征空间中的划分函数变为:

f ( x ) = ω T ϕ ( x ) + b f(\boldsymbol{x})=\boldsymbol{\omega}^{\mathrm{T}} \phi(\boldsymbol{x})+b f(x)=ωTϕ(x)+b

按照同样的方法, 先写出新目标函数的拉格朗日函数, 接着写出其对偶问题, 求 L 关于 ω \omega ω 和 b的极大, 最后运用 SOM 求解 α \alpha α 。可以得出:
(1) 原对偶问题变为:
max ⁡ α ∑ i = 1 n α i − 1 2 ∑ i , j = 1 n α i α j y i y j ⟨ ϕ ( x i ) , ϕ ( x j ) ⟩ s.t.  α i ≥ 0 , i = 1 , … , n ∑ i = 1 n α i y i = 0 \begin{aligned} \max _{\alpha} & \sum_{i=1}^{n} \alpha_{i}-\frac{1}{2} \sum_{i, j=1}^{n} \alpha_{i} \alpha_{j} y_{i} y_{j} \left\langle\phi\left(x_{i}\right), \phi\left(x_{j}\right)\right\rangle \\ \text { s.t. } & \alpha_{i} \geq 0, i=1, \ldots, n \\ & \sum_{i=1}^{n} \alpha_{i} y_{i}=0 \end{aligned} αmax s.t. i=1nαi21i,j=1nαiαjyiyjϕ(xi),ϕ(xj)αi0,i=1,,ni=1nαiyi=0
等价于:
在这里插入图片描述
(2) 原分类函数变为:
f ( x ) = ∑ i n α i y i ⟨ ϕ ( x i ) , ϕ ( x ) ⟩ + b \begin{aligned} f(x)=\sum_{i}^{n} \alpha_{i}y_{i} \left\langle\phi\left(x_{i}\right), \phi\left(x\right)\right\rangle + b \end{aligned} f(x)=inαiyiϕ(xi),ϕ(x)+b
等价于:
在这里插入图片描述

求解的过程中,只涉及到了高维特征空间中的内积运算,由于特征空间的维数可能会非常大,例如:若原始空间为二维,映射后的特征空间为5维,若原始空间为三维,映射后的特征空间将是19维,之后甚至可能出现无穷维,根本无法进行内积运算了,此时便引出了核函数(Kernel)的概念

在这里插入图片描述
因此,核函数可以直接计算隐式映射到高维特征空间后的向量内积,而不需要显式地写出映射后的结果,它虽然完成了将特征从低维到高维的转换,但最终却是在低维空间中完成向量内积计算,与高维特征空间中的计算等效(低维计算,高维表现),从而避免了直接在高维空间无法计算的问题。引入核函数后,原来的对偶问题与分类函数则变为:
(1) 对偶问题:
max ⁡ α ∑ i = 1 n α i − 1 2 ∑ i , j = 1 n α i α j y i y j K ( x i , x j ) s.t.  α i ≥ 0 , i = 1 , … , n ∑ i = 1 n α i y i = 0 \begin{array}{ll} \max _{\alpha} & \sum_{i=1}^{n} \alpha_{i}-\frac{1}{2} \sum_{i, j=1}^{n} \alpha_{i} \alpha_{j} y_{i} y_{j} \red{K\left(x_{i}, x_{j}\right) }\\ \text { s.t. } & \alpha_{i} \geq 0, i=1, \ldots, n \\ & \sum_{i=1}^{n} \alpha_{i} y_{i}=0 \end{array} maxα s.t. i=1nαi21i,j=1nαiαjyiyjK(xi,xj)αi0,i=1,,ni=1nαiyi=0

(2) 分类函数:
f ( x ) = ∑ i = 1 n α i y i K ( x i , x ) + b f(x)=\sum_{i=1}^{n} \alpha_{i} y_{i} \red{K\left(x_{i}, x\right)}+b f(x)=i=1nαiyiK(xi,x)+b
因此,在线性不可分问题中,核函数的选择成了支持向量机的最大变数,若选择了不合适的核函数,则意味着将样本映射到了一个不合适的特征空间,则极可能导致性能不佳。同时,核函数需要满足以下这个必要条件:
在这里插入图片描述
由于核函数的构造十分困难,通常我们都是从一些常用的核函数中选择,下面列出了几种常用的核函数:
在这里插入图片描述

6.5 软间隔支持向量机

前面的讨论中,我们主要解决了两个问题:当数据线性可分时,直接使用最大间隔的超平面划分当数据线性不可分时,则通过核函数将数据映射到高维特征空间,使之线性可分。然而在现实问题中,对于某些情形还是很难处理,例如数据中有噪声的情形,噪声数据(outlier)本身就偏离了正常位置,但是在前面的SVM模型中,我们要求所有的样本数据都必须满足约束,如果不要这些噪声数据还好,当加入这些outlier后导致划分超平面被挤歪了,如下图所示,对支持向量机的泛化性能造成很大的影响。
在这里插入图片描述

为了解决这一问题,我们需要允许某一些数据点不满足约束,即可以在一定程度上偏移超平面,同时使得不满足约束的数据点尽可能少,这便引出了“软间隔”支持向量机的概念

  • 允许某些数据点不满足约束 y ( ω ′ x + b ) ≥ 1 y(\omega'x+b)≥1 y(ωx+b)1
  • 同时又使得不满足约束的样本尽可能少。

在这里插入图片描述
这样优化目标变为:
在这里插入图片描述
如同阶跃函数,0/1损失函数虽然表示效果最好,但是数学性质不佳。因此常用其它函数作为“替代损失函数”。
在这里插入图片描述
图像如下所示:
在这里插入图片描述
支持向量机中的损失函数为hinge损失,引入“松弛变量”,目标函数与约束条件可以写为:
在这里插入图片描述
书中描述如下:
在这里插入图片描述

其中C为一个参数,控制着目标函数与新引入正则项之间的权重,这样显然每个样本数据都有一个对应的松弛变量,用以表示该样本不满足约束的程度,将新的目标函数转化为拉格朗日函数得到:
在这里插入图片描述
按照与之前相同的方法,先让L求关于 ω , b \omega,b ωb以及松弛变量的极小,再使用SMO求出 α \alpha α,有:

在这里插入图片描述
ω \omega ω代入 L L L化简,便得到其对偶问题:
在这里插入图片描述
将“软间隔”下产生的对偶问题与原对偶问题对比可以发现:新的对偶问题只是约束条件中的 α \alpha α多出了一个上限C,其它的完全相同,因此在引入核函数处理线性不可分问题时,便能使用与“硬间隔”支持向量机完全相同的方法。

6.6 支持向量机

对样本 ( x , y ) (\boldsymbol{x}, y) (x,y) , 传统回归模型通常直接基于模型输出 $f(\boldsymbol{x}) $ 与真实输出 $y $ 之间的差别来计算损失, 当且仅当 f ( x ) f(\boldsymbol{x}) f(x) y y y 完全相同时, 损失才为零. 与此不同,支持向量回归(Support Vector Regression, 简称 SVR) 假设我们能容忍 f ( x ) f(\boldsymbol{x}) f(x) y y y之间最多有 ϵ \epsilon ϵ的偏差, 即仅当 f ( x ) f(\boldsymbol{x}) f(x) y y y 之间的差别绝对值大于 ϵ \epsilon ϵ 时才计算损失. 如下图所示, 这相当于以 f ( x ) f(x) f(x) 为中心, 构建了一个宽度为 2 ϵ \epsilon ϵ 的间隔带, 若训练样本落入此间隔带, 则认为是被预测正确的。
在这里插入图片描述
在这里插入图片描述
与之前类似,根据拉格朗日与对偶问题的最终转换可得:
在这里插入图片描述

6.7核方法

在这里插入图片描述
表示定理对损失函数没有限制,对正则化项Ω仅要求单调递增,甚至不要求几是凸函数,意味着对于一般的损失函数和正则化项,优化问题(6.57)的最优解 h ∗ ( x ) h*(x) h(x)都可表示为核函数 κ ( x , x i ) κ(x,x_i) κ(xxi)的线性组合;这显示出核函数的巨大威力。人们发展出一系列基于核函数的学习方法,统称为“核方法”(内核
方法)。最常见的,是通过“核化”(即引入核函数)来将线性学习器拓展为非线性学习器

相关文章:

机器学习周志华学习笔记-第6章<支持向量机>

机器学习周志华学习笔记-第6章<支持向量机> 卷王&#xff0c;请看目录 6支持向量机6.1 函数间隔与几何间隔6.1.1 函数间隔6.1.2 几何间隔 6.2 最大间隔与支持向量6.3 对偶问题6.4 核函数6.5 软间隔支持向量机6.6 支持向量机6.7核方法 6支持向量机 支持向量机是一种经典…...

第三届航空航天与控制工程国际 (ICoACE 2024)

重要信息 会议官网&#xff1a;www.icoace.com 线下召开&#xff1a;2024年11月29日-12月1日 会议地点&#xff1a;陕西西安理工大学金花校区 &#xff08;西安市金花南路5号&#xff09; 大会简介 2024年第三届航空航天与控制工程国际学术会议&#xff08;ICoACE 2024&a…...

【大数据技术基础】 课程 第8章 数据仓库Hive的安装和使用 大数据基础编程、实验和案例教程(第2版)

第8章 数据仓库Hive的安装和使用 8.1 Hive的安装 8.1.1 下载安装文件 访问Hive官网&#xff08;http://www.apache.org/dyn/closer.cgi/hive/&#xff09;下载安装文件apache-hive-3.1.2-bin.tar.gz 下载完安装文件以后&#xff0c;需要对文件进行解压。按照Linux系统使用的…...

BERT 详解

BERT简介 BERT&#xff08;Bidirectional Encoder Representations from Transformers&#xff09;是由 Google 在 2018 年提出的一种预训练语言模型。BERT 在自然语言处理&#xff08;NLP&#xff09;领域取得了重大突破&#xff0c;因为它能够有效地捕捉文本的上下文信息&am…...

使用 MySQL 的 REPLACE() 函数轻松替换表中字段

前言 在数据库操作中&#xff0c;经常需要对存储的数据进行一些处理和修改&#xff0c;替换字段中的部分信息。MySQL 提供了多种字符串函数来帮助开发者完成这些任务。其中一个非常实用的函数就是 REPLACE()。 REPLACE() 函数简介 REPLACE() 函数用于在字符串中查找指定的子…...

Http 响应协议

HTTP的响应协议 响应数据格式 响应行 响应数据的第一行&#xff0c;包括协议、状态码、描述 响应头 从响应数据格式的第二行开始&#xff0c;也是以key:value的格式 响应体 和响应头之间有一个空行&#xff0c;是响应数据格式的最后一部分&#xff0c;用于存放响应的数据 常见响…...

TCP/IP 协议:网络世界的基石(2/10)

一、引言 在当今数字化时代&#xff0c;互联网已经成为人们生活中不可或缺的一部分。而在互联网的背后&#xff0c;TCP/IP 协议扮演着至关重要的角色&#xff0c;堪称互联网的基石。 TCP/IP 协议是一组用于数据通信的协议集合&#xff0c;它的名字来源于其中最重要的两个协议…...

Lua--1.基础知识

Lua基础知识 变量简单的4种变量类型复杂的4种变量类型type函数 字符串操作长度获取--#多行打印字符串拼接别的类型转字符串-- tostring()字符串提供的公共方法 运算符算术运算符-- - * / % ^条件运算符-- > < > < ~(不等于 是 ~)逻辑运算符-- and or not位运算、…...

【GPT】力量训练的底层原理?

详细解读力量训练的每一个底层原理 力量训练之所以有效&#xff0c;是因为它利用了肌肉、神经系统和生物化学反应的基本机制。以下逐一详细解析&#xff0c;并解释相关概念。 1. 应力-恢复-适应理论 概念解析 应力&#xff08;Stress&#xff09;&#xff1a;指训练带来的负…...

各种排序算法

前置知识 排序: 按照递增或者递减的顺序把数据排列好 稳定性: 值相等的元素在排序之后前后顺序是否发生了改变 内部排序: 数据放在内存上 外部排序: 数据放在磁盘上 内部排序 基于比较的排序 几大排序算法 1. 堆排序 特点: 思想: 1. 创建大根堆,把所有元素放在大根堆里…...

源码解读笔记:协程的 ViewModel.viewModelScope和LifecycleOwner.lifecycleScope

分析下ViewModel.viewModelScope public val ViewModel.viewModelScope: CoroutineScopeget() {val scope: CoroutineScope? this.getTag(JOB_KEY)if (scope ! null) {return scope}return setTagIfAbsent(JOB_KEY,CloseableCoroutineScope(SupervisorJob() Dispatchers.Ma…...

11.27周三F34-Day8打卡

文章目录 1. 学习让我感觉很棒。(什么关系?动作 or 描述?主语部分是?)解析答案:【解析答案分析】【对比分析】【拓展内容】2. 她忽然想起来钥匙放另一个包里了。解析答案:【拓展内容】3. 她来不来都没关系。(该由什么引导?这句话又属于什么关系,动作 or 描述?)解析答案…...

XG(S)-PON原理

前言 近年来&#xff0c;随着全球范围内接入市场的飞快发展以及全业务运营的快速开展&#xff0c;已有的PON技术标准在带宽需求、业务支撑能力以及接入节点设备和配套设备的性能提升等方面都面临新的升级需求XG(S)-PON(10G GPON)是在已有GPON技术标准上演进的增强下一代GPON技…...

C语言实例之9斐波那契数列实现

1. 斐波那契数列简介 斐波那契数列&#xff08;Fibonacci sequence&#xff09;&#xff0c;又称黄金分割数列&#xff0c;因数学家莱昂纳多・斐波那契&#xff08;Leonardo Fibonacci&#xff09;以兔子繁殖为例子而引入&#xff0c;故又称为 “兔子数列”。 它的特点是从第三…...

YOLO系列论文综述(从YOLOv1到YOLOv11)【第1篇:概述物体检测算法发展史、YOLO应用领域、评价指标和NMS】

目录 1 前言2 YOLO在不同领域的应用3 物体检测指标和NMS3.1 mAP和IOU3.2 mAP计算流程3.2.1 VOC 数据集3.2.2 微软 COCO 数据集 3.3 NMS 1 前言 最近在做目标检测模型相关的优化&#xff0c;重新看了一些新的论文&#xff0c;发现了几篇写得比较好的YOLO系列论文综述&#xff0…...

数据结构--Map和Set

目录 一.二叉搜索树1.1 概念1.2 二叉搜索树的简单实现 二.Map2.1 概念2.2 Map常用方法2.3 Map使用注意点2.4 TreeMap和HashMap的区别2.5 HashMap底层知识点 三.Set3.1 概念3.2 Set常用方法3.3 Set使用注意点3.4 TreeSet与HashSet的区别 四.哈希表4.1 概念4.2 哈希冲突与避免4.3…...

计算机操作系统——进程控制(Linux)

进程控制 进程创建fork&#xff08;&#xff09;函数fork() 的基本功能fork() 的基本语法fork() 的工作原理fork() 的典型使用示例fork() 的常见问题fork() 和 exec() 结合使用总结 进程终止与$进程终止的本质进程终止的情况正常退出&#xff08;Exit&#xff09;由于信号终止非…...

【前端】ES6基础

1.开发工具 vscode地址 :https://code.visualstudio.com/download, 下载对应系统的版本windows一般都是64位的 安装可以自选目录&#xff0c;也可以使用默认目录 插件&#xff1a; 输入 Chinese&#xff0c;中文插件 安装&#xff1a; open in browser&#xff0c;直接右键文件…...

【排序算法 python实现】

排序算法 python实现 / 默写 # 汉诺塔 import copy import randomdef hanuo(n, a, b, c):if n 1:print(f{a} --> {c})returnhanuo(n - 1, a, c, b)print(f{a} --> {c})hanuo(n - 1, b, a, c)hanuo(3, A, B, C)# 冒泡排序 def bubble_sort(arr):n len(arr)for i in ran…...

Java图书管理系统(简易保姆级)

前面学习了这么多知识&#xff0c;为了巩固之前的知识&#xff0c;我们就要写一个图书管理系统来帮助大家复习&#xff0c;让大家的知识融会贯通~~~ 话不多说&#xff0c;直接开始今天的内容~ 首先呢&#xff0c;我们要有一个大体的思路&#xff1a; 实现效果思路有两种情况&a…...

嵌入式硬件设计:从概念到实现的全流程

嵌入式硬件设计是现代电子技术中一个至关重要的领域&#xff0c;涉及从硬件架构设计到硬件调试的各个方面。它为我们日常生活中的各类智能设备、家电、工业控制系统等提供了强大的支持。本文将介绍嵌入式硬件设计的基本流程、关键技术、常用工具以及常见的挑战和解决方案&#…...

第 4 章 Java 并发包中原子操作类原理剖析

原子变量操作类 AtomicLong 是原子性递增或者递减类&#xff0c;其内部使用 Unsafe 来实现&#xff0c;AtomicLong类也是在 rt.jar 包下面的&#xff0c;AtomicLong 类就是通过 BootStarp 类加载器进行加载的。这里的原子操作类都使用 CAS 非阻塞算法 private static final lon…...

从 0 到 1 掌握部署第一个 Web 应用到 Kubernetes 中

文章目录 前言构建一个 hello world web 应用项目结构项目核心文件启动项目 检查项目是否构建成功 容器化我们的应用编写 Dockerfile构建 docker 镜像推送 docker 镜像仓库 使用 labs.play-with-k8s.com 构建 Kubernetes 集群并部署应用构建 Kubernetes 集群环境编写部署文件 总…...

政安晨【零基础玩转各类开源AI项目】探索Cursor-AI Coder的应用实例

目录 Cusor的主要特点 Cusor实操 政安晨的个人主页&#xff1a;政安晨 欢迎 &#x1f44d;点赞✍评论⭐收藏 希望政安晨的博客能够对您有所裨益&#xff0c;如有不足之处&#xff0c;欢迎在评论区提出指正&#xff01; Cursor 是 Visual Studio Code 的一个分支。这使我们能够…...

CentOS 7 安装部署 KVM

1.关闭虚拟机 打开相关选项 打开虚拟机centos7 连接xshell 测试网络&#xff0c;现在就是没问题的&#xff0c;因为我们要使用网络源 安装 GNOME 桌面环境 安装KVM 模块 安装KVM 调试工具 构建虚拟机的命令行工具 qemu 组件,创建磁盘、启动虚拟机等 输入这条命令&#xff0c;…...

ArcGIS 10.2软件安装包下载及安装教程!

今日资源&#xff1a;ArcGIS 适用系统&#xff1a;WINDOWS 软件介绍&#xff1a;ArcGIS是一款专业的电子地图信息编辑和开发软件&#xff0c;提供一种快速并且使用简单的方式浏览地理信息&#xff0c;无论是2D还是3D的信息。软件内置多种编辑工具&#xff0c;可以轻松的完成地…...

一个专为云原生环境设计的高性能分布式文件系统

大家好&#xff0c;今天给大家分享一款开源创新的分布式 POSIX 文件系统JuiceFS&#xff0c;旨在解决海量云存储与各类应用平台&#xff08;如大数据、机器学习、人工智能等&#xff09;之间高效对接的问题。 项目介绍 JuiceFS 是一款面向云原生设计的高性能分布式文件系统&am…...

基于深度学习CNN算法的花卉分类识别系统01--带数据集-pyqt5UI界面-全套源码

文章目录 基于深度学习算法的花卉分类识别系统一、项目摘要二、项目运行效果三、项目文件介绍四、项目环境配置1、项目环境库2、环境配置视频教程 五、项目系统架构六、项目构建流程1、数据集2、算法网络Mobilenet3、网络模型训练4、训练好的模型预测5、UI界面设计-pyqt56、项目…...

3174、清除数字

3174、[简单] 清除数字 1、题目描述 给你一个字符串 s 。你的任务是重复以下操作删除 所有 数字字符&#xff1a; 删除 第一个数字字符 以及它左边 最近 的 非数字 字符。 请你返回删除所有数字字符以后剩下的字符串。 2、解题思路 遍历字符串&#xff1a; 我们需要逐个遍…...

C++ 优先算法 —— 无重复字符的最长子串(滑动窗口)

目录 题目&#xff1a; 无重复字符的最长子串 1. 题目解析 2. 算法原理 Ⅰ. 暴力枚举 Ⅱ. 滑动窗口&#xff08;同向双指针&#xff09; 3. 代码实现 Ⅰ. 暴力枚举 Ⅱ. 滑动窗口 题目&#xff1a; 无重复字符的最长子串 1. 题目解析 题目截图&#xff1a; 此题所说的…...

建设个定制网站需要多少钱/google网站推广

目录 一、导图 二、RCE漏洞简介 三、代码执行漏洞示例 四、命令执行漏洞示例 五、漏洞的产生条件 <网站原码层面> <网站应用层面> 六、漏洞检测 七、黑盒-应用层面-漏洞实例 八、白盒-代码层面-漏洞实例 九、黑盒-RCE公开漏洞-漏洞实例 十、漏洞产生的…...

网站做下CDN防护/培训学校招生方案范文

裤子 36 2迟8 鞋子 42/43稍微有点大 上衣 XXXL(XXL略微有点小) 内裤 XXL就可以要不然腰太细转载于:https://www.cnblogs.com/zhangzs000/p/11007380.html...

如何从网站获取图片做全景图/百度网页版链接地址

TCP服务器、客户端之间的相互通信 之前的版本只能实现TCP服务器之间单发单收&#xff0c;此版本能实现TCP服务器和客户端之间的相互通信。 见下面的程序&#xff1a; tcp_server.c #include <stdio.h> #include <string.h> #include <stdlib.h> #include …...

b2b网站如何策划/游戏推广平台代理

一、用户 1.1用户注册 1.2用户登录 1.3修改密码 1.4修改资料 在用户登陆成功后要跳转到一个页面&#xff0c;暂且叫做用户中心吧。在【UserController】添加[default] action [UserAuthorize]public ActionResult Default(){userRsy new UserRepository();var _user userRsy.…...

go.php wordpress/今日国内新闻头条

Billu_b0x 靶机 write up0x00 环境搭建0x01 信息收集0x02 漏洞挖掘0x03 获取shell0x04 提权0x05 思路总结0x00 环境搭建 下载链接 https://download.vulnhub.com/billu/Billu_b0x.zipnat模式 0x01 信息收集 IP探测 netdiscover -i eth0 -r 192.168.157.0/24 端口探测 mass…...

绿色风格的网站/网店运营具体做什么

1一、课题研究的现实背景及意义(一)研究背景1&#xff0e;我国中职教育发展的新形势&#xff0c;指出了中职语文教学结合专业进行改革的重要性教育部在《关于全面推进素质教育深化中等职业教育教学改革的意见》1中指出&#xff1a;“加强文化基础教育&#xff0c;改革文化基础课…...