当前位置: 首页 > news >正文

算法金 | 再见!!!梯度下降(多图)

大侠幸会,在下全网同名「算法金」

0 基础转 AI 上岸,多个算法赛 Top

「日更万日,让更多人享受智能乐趣」

接前天 李沐:用随机梯度下降来优化人生!

今天把达叔 6 脉神剑给佩奇了,上 吴恩达:机器学习的六个核心算法! ——梯度下降

1、 目标

  • 梯度下降优化算法的概述,目的在于帮助读者理解不同算法的优缺点。

2、 开整

  • 梯度下降法在优化神经网络中的应用和普遍性。

3、 梯度下降法的变形形式

  • 批梯度下降法:使用整个数据集计算梯度。
  • 随机梯度下降法(SGD):使用单个样本计算梯度。
  • 小批量梯度下降法:使用小批量样本计算梯度。

4、 挑战

  • 学习率的选择、学习率调整、不同参数的学习率需求、高度非凸误差函数的优化问题。

5、 梯度下降优化算法

  • 动量法:加速SGD并减少摇摆。
  • Nesterov加速梯度下降法(NAG):提供预知能力以调整步长。
  • Adagrad:自适应学习率,适应稀疏数据。
  • Adadelta:解决Adagrad学习率递减问题。
  • RMSprop:处理Adagrad学习率问题,使用指数衰减平均。
  • Adam:结合动量和自适应学习率。

6、 并行和分布式SGD

  • Hogwild!:无锁并行SGD。
  • Downpour SGD:异步SGD,使用参数服务器。
  • 延迟容忍SGD:适应更新延迟的并行SGD。
  • TensorFlow:支持大规模分布式计算的框架。
  • 弹性平均SGD(EASGD):增强探索能力的SGD。

7、 优化SGD的其他策略

  • 数据集的洗牌和课程学习:避免模型偏差,提高收敛性。
  • 批量归一化:提高学习率,减少对初始化的依赖。
  • Early stopping:提前结束训练以防止过拟合。
  • 梯度噪音:提高模型对初始化的鲁棒性。

8、 总结

  • 对梯度下降及其优化算法的总结,以及不同场景下算法的选择建议。

走你~

1. 摘要

  • 梯度下降优化算法的概述,目的在于帮助读者理解不同算法的优缺点

梯度下降优化算法的概述

梯度下降优化算法是机器学习和深度学习中最常用的优化算法之一。它通过不断调整模型参数,使得损失函数的值逐渐减小,从而使模型逐步逼近最优解

梯度下降优化算法的优点

  1. 简单易实现:梯度下降算法的基本原理简单,容易理解和实现
  2. 广泛应用:无论是线性回归、逻辑回归,还是复杂的神经网络,梯度下降算法都可以应用

梯度下降优化算法的缺点

  1. 依赖初始值:梯度下降算法的收敛速度和最终结果可能会受到初始值的影响
  2. 容易陷入局部最优:在复杂的非凸损失函数中,梯度下降算法可能会陷入局部最优解,而无法找到全局最优解

梯度下降算法的改进

为了克服上述缺点,研究人员提出了多种改进算法,如动量法、Adagrad、Adam等。这些改进算法在加速收敛、避免局部最优等方面有显著效果。我们将在后续内容中详细介绍这些改进算法

2. 应用和普遍性

  • 梯度下降法在优化神经网络中的应用和普遍性

梯度下降法在机器学习和深度学习中的重要性不可忽视。作为一种经典的优化算法,梯度下降法被广泛应用于各种模型的训练过程中,尤其是在神经网络的优化中。

梯度下降法的基本原理

梯度下降法的核心思想是通过不断调整模型参数,使得损失函数的值逐渐减小,从而使模型逐步逼近最优解。具体来说,梯度下降法通过计算损失函数相对于模型参数的梯度,然后沿着梯度的反方向更新参数,以达到最小化损失函数的目的。

(梯度下降 by Divakar Kapil)

神经网络中的应用

在神经网络的训练过程中,梯度下降法起到了至关重要的作用。神经网络的训练过程本质上就是一个通过梯度下降法优化损失函数的过程。具体步骤如下:

  1. 前向传播:计算当前参数下的模型输出和损失函数值
  2. 反向传播:计算损失函数相对于模型参数的梯度
  3. 参数更新:使用梯度下降法更新模型参数

这个过程会反复进行,直到损失函数的值收敛到某个最小值。

普遍性

梯度下降法不仅在神经网络中广泛应用,还被应用于其他很多机器学习模型中,比如线性回归、逻辑回归、支持向量机等。它的普遍性和适用性使得它成为机器学习领域的一个重要工具。

在实际应用中,梯度下降法的具体形式有很多,比如批梯度下降法、随机梯度下降法和小批量梯度下降法。不同形式的梯度下降法在计算效率、收敛速度和收敛稳定性上各有优劣,我们将在下一部分详细介绍这些变形形式。

3. 梯度下降法的变形形式

  • 批梯度下降法:使用整个数据集计算梯度
  • 随机梯度下降法(SGD):使用单个样本计算梯度
  • 小批量梯度下降法:使用小批量样本计算梯度

批梯度下降法

批梯度下降法,也称为标准梯度下降法,是最基本的梯度下降变形形式。它使用整个数据集来计算损失函数的梯度,然后一次性更新模型参数。

优点

  • 稳定性高:每次更新都是基于整个数据集,因此梯度估计非常准确
  • 容易实现:算法实现简单,便于理解和应用

缺点

  • 计算量大:每次更新都需要遍历整个数据集,对于大型数据集计算开销巨大
  • 内存需求高:需要将整个数据集加载到内存中,可能导致内存不足

公式

批梯度下降法的更新公式如下:

(梯度下降 by Saugat Bhattarai)

随机梯度下降法(SGD)

随机梯度下降法是一种通过每次仅使用一个样本来计算梯度的变形形式。它每次随机选择一个样本进行参数更新,这使得算法在处理大型数据集时更加高效。

优点

  • 计算效率高:每次更新只需要计算一个样本的梯度,大大减少了计算开销
  • 内存需求低:每次只需加载一个样本,节省内存

缺点

  • 收敛不稳定:由于每次更新基于单个样本,梯度估计有较大噪声,可能导致收敛过程不稳定
  • 可能震荡:在非凸损失函数中,更新方向可能来回震荡,难以到达全局最优解

公式

随机梯度下降法的更新公式如下:

(SGD by bogotobogo com)

小批量梯度下降法

小批量梯度下降法是一种折中方案,它每次使用一个小批量(mini-batch)样本来计算梯度并更新参数。小批量的大小通常在 32 到 512 之间。

优点

  • 计算效率与稳定性平衡:结合了批梯度下降和随机梯度下降的优点,计算效率和稳定性较好
  • 硬件友好:小批量的计算可以充分利用现代硬件的并行计算能力

缺点

  • 参数调整复杂:需要选择合适的小批量大小,以平衡计算效率和稳定性

公式

小批量梯度下降法的更新公式如下:

(Mini-batch gradient descent by Ayush Pradhan)

三种方式对比下,感受下这性感的曲线

4. 挑战

  • 学习率的选择
  • 学习率调整
  • 不同参数的学习率需求
  • 高度非凸误差函数的优化问题

学习率的选择

学习率是梯度下降算法中的一个关键参数,它决定了每次更新参数的步长。选择合适的学习率非常重要,学习率过大或过小都会影响模型的收敛效果。

学习率过大

当学习率过大时,参数更新的步长过大,可能会导致模型在损失函数表面跳跃,从而错过最优解。这种情况会导致损失函数震荡或发散,无法收敛。

学习率过小

当学习率过小时,参数更新的步长过小,模型收敛速度会变得非常慢,甚至可能陷入局部最优。这种情况会导致训练时间过长,难以获得满意的结果。

学习率调整

为了应对学习率选择的问题,研究人员提出了多种学习率调整策略,以动态调整学习率,使得模型能够更快、更稳定地收敛。

学习率衰减

学习率衰减是一种常用的策略,它会随着训练的进行逐渐减小学习率。这样可以在训练初期使用较大的学习率加速收敛,在训练后期使用较小的学习率稳定收敛。

学习率调度器

学习率调度器是一种更灵活的调整策略,可以根据预设的规则动态调整学习率。例如,在每经过一定次数的迭代后,将学习率减半。

自适应学习率

一些优化算法如 Adagrad、RMSprop 和 Adam,通过引入自适应学习率机制,使得每个参数都有不同的学习率,能够根据参数的历史梯度信息自动调整学习率。

不同参数的学习率需求

在实际应用中,不同的模型参数可能需要不同的学习率。例如,在深度神经网络中,靠近输入层的参数可能需要较小的学习率,而靠近输出层的参数可能需要较大的学习率。为了解决这个问题,可以使用分层学习率策略,针对不同层设置不同的学习率。

高度非凸误差函数的优化问题

在深度学习中,模型的损失函数通常是高度非凸的,包含多个局部最优解。传统的梯度下降算法在这种情况下容易陷入局部最优解,从而影响模型性能。

动量法

动量法通过在更新参数时加入动量项,能够在一定程度上克服局部最优问题。它会在每次更新时,保留一部分之前的更新方向,从而加速收敛。

5. 梯度下降优化算法

  • 动量法:加速SGD并减少摇摆
  • Nesterov加速梯度下降法(NAG):提供预知能力以调整步长
  • Adagrad:自适应学习率,适应稀疏数据
  • Adadelta:解决Adagrad学习率递减问题
  • RMSprop:处理Adagrad学习率问题,使用指数衰减平均
  • Adam:结合动量和自适应学习率

动量法

动量法是一种在梯度下降法基础上改进的优化算法。它通过在参数更新时加入一个动量项,可以加速收敛并减少参数更新过程中的摇摆现象。

原理

动量法会在每次更新参数时,保留一部分之前的更新方向,并在此基础上进行新的更新。这种方法使得更新方向更加平滑,从而加快收敛速度。

优点

  • 加速收敛:尤其在鞍点附近,动量法可以显著加速收敛速度
  • 减少振荡:在陡峭的损失函数区域,可以减少参数更新过程中的振荡

缺点

  • 参数选择:需要选择合适的动量系数和学习率

Nesterov加速梯度下降法(NAG)

NAG是在动量法的基础上进一步改进的算法。它在计算梯度时,考虑了当前动量的方向,从而提供了预知能力,可以更准确地调整步长。

原理

NAG会先根据当前动量方向预估一下参数的位置,然后在这个预估位置计算梯度,从而更新参数。

优点

  • 更准确的更新方向:由于考虑了动量方向,更新方向更加准确
  • 更快的收敛速度:在一些情况下,比动量法收敛速度更快

缺点

  • 实现复杂:相对于动量法,NAG的实现更复杂

(MGD vs NAG by Akshay L Chandra)

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

(仔细看,NAG(蓝色)与动量(红色)相比-摇摆幅度较小 by Akshay L Chandra)

Adagrad

Adagrad是一种自适应学习率的优化算法,特别适用于处理稀疏数据。它通过调整每个参数的学习率,使得在训练过程中自动适应不同参数的更新需求。

原理

Adagrad会根据历史梯度累积平方和来调整每个参数的学习率。对于更新较频繁的参数,学习率会逐渐减小;对于更新较少的参数,学习率则相对较大。

优点

  • 无需手动调整学习率:自动适应不同参数的学习率
  • 适合稀疏数据:在处理稀疏数据时表现良好

缺点

  • 学习率递减:随着时间推移,学习率会不断减小,导致收敛速度减慢

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

(AdaGrad(白色)与梯度下降(青色)在具有鞍点的地形上。AdaGrad 的学习率被设置为高于梯度下降的学习率,但无论学习率如何,AdaGrad 的路径更直的观点在很大程度上都是正确的 by Lili Jiang)

Adadelta

Adadelta是对Adagrad的改进算法,主要解决Adagrad学习率递减的问题。它通过限制累积梯度的窗口大小,避免学习率无限减小。

原理

Adadelta会使用滑动平均的方法来限制累积梯度的影响,从而使得学习率在训练过程中保持相对稳定。

优点

  • 稳定的学习率:避免了Adagrad中学习率无限减小的问题
  • 无需手动调整学习率:与Adagrad一样,自动适应不同参数的学习率

缺点

  • 复杂性增加:相对于Adagrad,Adadelta的实现更加复杂

RMSprop

RMSprop也是一种自适应学习率的优化算法,主要解决了Adagrad学习率递减的问题。它通过引入指数衰减平均,使得学习率在训练过程中保持相对稳定。

原理

RMSprop会使用指数衰减平均的方法来计算累积梯度的平方,从而调整每个参数的学习率。

优点

  • 稳定的学习率:避免了Adagrad中学习率无限减小的问题
  • 适用于深度神经网络:在深度神经网络中表现良好

缺点

  • 参数选择复杂:需要选择合适的衰减率和学习率

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

(RMSProp (绿色) vs AdaGrad (白色).第一轮只是显示球;第二次运行还显示了由平方表示的梯度平方和 by Lili Jiang)

Adam

Adam是一种结合动量和自适应学习率的优化算法,综合了动量法和RMSprop的优点,在深度学习中广泛应用。

原理

Adam算法会同时计算梯度的一阶动量和二阶动量,并使用这两个动量来调整每个参数的学习率。

优点

  • 快速收敛:结合动量和自适应学习率,收敛速度快
  • 稳定性高:在深度神经网络中表现出色,稳定性高

缺点

  • 参数选择复杂:需要选择合适的动量系数和学习率

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

再次,感受下这德芙般丝滑的曲线

6. 并行和分布式SGD

  • Hogwild!:无锁并行SGD
  • Downpour SGD:异步SGD,使用参数服务器
  • 延迟容忍SGD:适应更新延迟的并行SGD
  • TensorFlow:支持大规模分布式计算的框架
  • 弹性平均SGD(EASGD):增强探索能力的SGD

Hogwild!:无锁并行SGD

Hogwild! 是一种无锁并行SGD算法,旨在提高梯度下降的并行计算效率。在这种算法中,每个计算节点可以独立地更新参数,而无需等待其他节点完成更新,从而大大提高了计算速度。

原理

Hogwild! 算法通过允许多个计算节点同时更新共享参数,而不使用锁机制,从而减少了同步开销。虽然这样可能会引入一些更新冲突,但实际应用中这种影响通常较小。

优点

  • 高效并行:大大减少了同步开销,提高了计算效率
  • 简单实现:实现相对简单,不需要复杂的锁机制

缺点

  • 可能引入冲突:由于无锁更新,可能会引入一些更新冲突,影响最终结果

Downpour SGD:异步SGD,使用参数服务器

Downpour SGD 是一种异步SGD算法,它使用参数服务器来协调多个计算节点的参数更新。每个计算节点独立计算梯度并异步发送给参数服务器,参数服务器负责更新全局参数。

原理

Downpour SGD 算法通过使用参数服务器来管理全局参数,各个计算节点可以独立地进行计算并异步更新参数。这样可以提高并行计算的效率,同时保持参数的一致性。

优点

  • 高效并行:异步更新减少了同步开销,提高了计算效率
  • 适应大规模数据:适合处理大规模数据和模型

缺点

  • 实现复杂:需要参数服务器和多个计算节点的协调,增加了实现复杂度
  • 延迟问题:由于异步更新,可能会引入更新延迟,影响收敛速度

延迟容忍SGD:适应更新延迟的并行SGD

延迟容忍SGD是一种能够适应更新延迟的并行SGD算法。它通过在更新过程中容忍一定的延迟,来提高并行计算的效率。

原理

延迟容忍SGD 通过允许一定的延迟来进行参数更新,从而提高计算效率。即使在更新过程中有一些节点的更新延迟,算法仍然能够有效地进行参数更新。

优点

  • 适应延迟:能够容忍一定的更新延迟,提高并行计算的效率
  • 稳定性高:在有延迟的环境中,算法仍能稳定收敛

缺点

  • 参数选择复杂:需要选择合适的延迟容忍参数,增加了实现复杂度

TensorFlow:支持大规模分布式计算的框架

TensorFlow 是一个支持大规模分布式计算的开源框架,它提供了多种并行和分布式计算的工具,能够方便地实现并行和分布式SGD。

原理

TensorFlow 通过数据并行和模型并行的方式,实现了大规模分布式计算。数据并行是将数据分成多个小批量,分发到不同的计算节点进行并行计算;模型并行是将模型分成多个部分,分发到不同的计算节点进行并行计算。

优点

  • 强大功能:支持多种并行和分布式计算方式,功能强大
  • 社区支持:有广泛的社区支持和丰富的文档

缺点

  • 学习曲线陡峭:相对于其他框架,TensorFlow 的学习曲线较陡峭,初学者需要一定的时间来掌握

弹性平均SGD(EASGD):增强探索能力的SGD

弹性平均SGD(EASGD)是一种增强探索能力的并行SGD算法。它通过在参数更新时加入弹性平均项,增强了参数的探索能力,避免陷入局部最优。

原理

EASGD 通过在参数更新时,将参数向全局平均值靠拢,从而增强参数的探索能力。具体来说,在每次更新时,不仅根据梯度更新参数,还会根据全局平均值调整参数。

优点

  • 增强探索能力:通过加入弹性平均项,增强了参数的探索能力
  • 避免局部最优:有效避免陷入局部最优

缺点

  • 实现复杂:需要计算全局参数的平均值,增加了实现复杂度

7. 优化SGD的其他策略

  • 数据集的洗牌和课程学习:避免模型偏差,提高收敛性
  • 批量归一化:提高学习率,减少对初始化的依赖
  • Early stopping:提前结束训练以防止过拟合
  • 梯度噪音:提高模型对初始化的鲁棒性

数据集的洗牌和课程学习

在使用随机梯度下降(SGD)时,数据集的洗牌和课程学习策略可以显著提高模型的收敛性和稳定性。

数据集的洗牌

在每个训练周期开始前,将数据集进行随机打乱(洗牌),可以防止模型对数据顺序的依赖,从而减少过拟合的风险。

课程学习

课程学习是一种逐步增加训练难度的策略,先用简单的样本进行训练,再逐步引入更复杂的样本。这种方法可以帮助模型更快地收敛,并提高最终的模型性能。

批量归一化

批量归一化是一种加速深度神经网络训练的技术。通过对每一层的激活值进行归一化,批量归一化可以使得每层输入的分布更加稳定,从而允许使用更高的学习率,并减少对参数初始化的依赖。

原理

批量归一化在每一层的输入上,先计算均值和方差,然后对输入进行归一化处理,再通过可训练的尺度和平移参数进行线性变换。

优点

  • 加速训练:允许使用更高的学习率,加速训练过程
  • 稳定性:减少对参数初始化的依赖,提高训练稳定性

缺点

  • 计算开销:在每层增加了额外的计算开销

Early stopping

Early stopping 是一种防止过拟合的策略。当验证集的损失函数在训练过程中不再下降时,提前停止训练,从而防止模型在训练集上过拟合。

原理

在每个训练周期结束时,计算验证集的损失函数值。如果损失函数在连续若干周期内不再下降或开始上升,则提前停止训练。

优点

  • 防止过拟合:通过提前停止训练,防止模型在训练集上过拟合
  • 节省计算资源:避免了不必要的训练周期,节省计算资源

缺点

  • 需要验证集:需要一个独立的验证集来监控模型性能

梯度噪音

在梯度下降过程中加入噪音,可以帮助模型跳出局部最优解,提高模型对参数初始化的鲁棒性。

原理

在每次更新参数时,向梯度中加入一个随机噪音项,使得参数更新过程更加随机,从而增加探索全局最优解的可能性。

优点

  • 增强探索能力:帮助模型跳出局部最优解
  • 提高鲁棒性:提高模型对参数初始化的鲁棒性

缺点

  • 可能增加训练时间:随机噪音的引入可能会增加训练时间

[ 抱个拳,总个结 ]

  • 对梯度下降及其优化算法的总结,以及不同场景下算法的选择建议

梯度下降及其优化算法总结

梯度下降法是机器学习和深度学习中最基础和常用的优化算法之一。通过不断调整模型参数,使得损失函数的值逐渐减小,梯度下降法能够帮助模型逐步逼近最优解。根据数据集和具体应用场景的不同,可以选择不同形式的梯度下降法,如批梯度下降法、随机梯度下降法和小批量梯度下降法。

1. 批梯度下降法

  • 使用整个数据集计算梯度
  • 适用于较小的数据集,计算稳定但速度慢

2. 随机梯度下降法(SGD)

  • 使用单个样本计算梯度
  • 计算速度快,但梯度估计噪声大,适用于大规模数据集

3. 小批量梯度下降法

  • 使用小批量样本计算梯度
  • 结合了批梯度下降法和随机梯度下降法的优点,计算效率和稳定性较好

梯度下降优化算法

为了提高梯度下降法的收敛速度和稳定性,研究人员提出了多种优化算法,这些优化算法在不同的应用场景下有各自的优劣。

1. 动量法

  • 加速SGD并减少摇摆,适用于有鞍点的损失函数

2. Nesterov加速梯度下降法(NAG)

  • 提供预知能力以调整步长,比动量法收敛更快

3. Adagrad

  • 自适应学习率,适应稀疏数据,但学习率递减

4. Adadelta

  • 解决Adagrad学习率递减问题,保持稳定学习率

5. RMSprop

  • 使用指数衰减平均处理Adagrad学习率问题,适用于深度神经网络

6. Adam

  • 结合动量和自适应学习率,综合了动量法和RMSprop的优点,适用于各种应用场景

并行和分布式SGD

在处理大规模数据和模型时,并行和分布式SGD是提高计算效率的重要手段。以下是一些常用的并行和分布式SGD算法:

1. Hogwild!

  • 无锁并行SGD,提高计算效率,但可能引入冲突

2. Downpour SGD

  • 异步SGD,使用参数服务器,适用于大规模分布式计算

3. 延迟容忍SGD

  • 适应更新延迟,提高并行计算效率

4. TensorFlow

  • 支持大规模分布式计算的框架,功能强大

5. 弹性平均SGD(EASGD)

  • 增强探索能力,避免局部最优

优化SGD的其他策略

除了上述优化算法,还有一些策略可以进一步优化SGD的效果:

1. 数据集的洗牌和课程学习

  • 避免模型偏差,提高收敛性

2. 批量归一化

  • 提高学习率,减少对初始化的依赖

3. Early stopping

  • 提前结束训练以防止过拟合

4. 梯度噪音

  • 提高模型对初始化的鲁棒性

不同场景下算法选择建议

  • 小规模数据集:可以选择批梯度下降法或小批量梯度下降法
  • 大规模数据集:随机梯度下降法或小批量梯度下降法更为合适
  • 稀疏数据:Adagrad 或 RMSprop 是不错的选择
  • 深度神经网络:Adam、RMSprop 或动量法可以加速收敛并提高稳定性
  • 分布式计算:Downpour SGD 或 TensorFlow 框架支持大规模分布式计算
  • 需要快速收敛:Nesterov加速梯度下降法(NAG)或 Adam

通过合理选择和组合这些算法和策略,可以在不同的应用场景中获得更好的优化效果,提高模型的性能和训练效率。

吴恩达:机器学习的六个核心算法!

回归算法,逻辑回归,决策树算法, 神经网络,K-means,梯度下降(本文)

- 科研为国分忧,创新与民造福 -

日更时间紧任务急,难免有疏漏之处,还请大侠海涵

内容仅供学习交流之用,部分素材来自网络,侵联删

[ 算法金,碎碎念 ]

全网同名,日更万日,让更多人享受智能乐趣

如果觉得内容有价值,烦请大侠多多 分享、在看、点赞,助力算法金又猛又持久、很黄很 BL 的日更下去;

同时邀请大侠 关注、星标 算法金,围观日更万日,助你功力大增、笑傲江湖

相关文章:

算法金 | 再见!!!梯度下降(多图)

大侠幸会,在下全网同名「算法金」 0 基础转 AI 上岸,多个算法赛 Top 「日更万日,让更多人享受智能乐趣」 接前天 李沐:用随机梯度下降来优化人生! 今天把达叔 6 脉神剑给佩奇了,上 吴恩达:机器…...

python Django安装及怎么检测是否安装成功

一、winr 输入cmd 进入控制台。输入pip install Django5.0.1 二、如果安装过程没有问题。就进行下一步进行检查是否成功安装。 三、 1.在控制台输入python,进入python环境 2.输入 import django 3.继续输入 django.get_version()。显示版本号表示成功安装。...

Swift开发——存储属性与计算属性

Swift语言开发者建议程序设计者多用结构体开发应用程序。在Swift语言中,结构体具有了很多类的特性(除类的与继承相关的特性外),具有属性和方法,且为值类型。所谓的属性是指结构体中的变量或常量,所谓的方法是指结构体中的函数。在结构体中使用属性和方法是因为:①匹别于结…...

如何解决input输入时存在浏览器缓存问题?

浏览器有时会在你输入表单过后缓存你的输入&#xff0c;有时候能提供方便。 但是在某些新建或新页面情况下出现历史的输入信息&#xff0c;用户体验很差。 解决方案 设置 autocomplete关闭 &#xff1a;<input type"text" autocomplete"off">增加…...

Java基础学习-方法

目录 方法基础概念 方法的格式&#xff1a; 案例&#xff1a;最简单方法的定义 案例&#xff1a;带参数的方法调用 案例&#xff1a;求圆的面积 带有返回值的方法&#xff1a; 方法注意点 方法的重载&#xff1a; ​编辑 案例&#xff1a;数组的遍历&#xff1a; 案例…...

Ribbon与Nginx的区别

负载均衡实现的位置不同&#xff1a; Ribbon&#xff1a;负载均衡器位于客户端&#xff0c;不需要单独搭建。Nginx&#xff1a;需要建立一个独立负载均衡服务器&#xff0c;服务端。 负载均衡策略&#xff1a; Ribbon&#xff1a;提供了多种负载均衡策略&#xff0c;如随机策…...

R包开发详细教程

开发一个R包可以帮助你组织和共享代码。以下是一个详细的步骤教程&#xff0c;介绍如何开发一个R包。 步骤 1: 准备工作 确保你已经安装了以下R包&#xff1a; install.packages("devtools") install.packages("roxygen2") install.packages("test…...

图像的高频和低频细节

在图像处理和计算机视觉中&#xff0c;"高频"和"低频"是用来描述图像中不同类型细节的术语。这些术语源自信号处理领域&#xff0c;其中频率的概念用于描述信号随时间变化的&#xff0c;但在图像处理中&#xff0c;它们被用来描述图像随空间变化的&#xf…...

PostgreSQL源码分析——常量表达式化简

常量表达式化简 常量表达式可以进行化简&#xff0c;可降低执行器计算表达式的代价。在逻辑优化阶段&#xff0c;会判断是否可以进行常量表达式化简&#xff0c;如果可以&#xff0c;则在执行器执行之前就预先对常量表达式树进行计算&#xff0c;计算出常量后&#xff0c;以新…...

速卖通自养号测评:安全高效的推广手段

在速卖通平台上&#xff0c;卖家们常常寻求各种方法来提升商品的曝光、转化率和店铺权重。其中&#xff0c;自养号测评作为一种低成本、高回报的推广方式&#xff0c;备受关注。然而&#xff0c;若操作不当&#xff0c;也可能带来风险。以下是如何安全有效地进行自养号测评的指…...

项目监督与控制

1.什么是项目过程度量&#xff1f;其方法有哪些&#xff1f; 项目过程度量是一种对项目执行过程中的活动和性能进行量化测量的方法。它涉及到收集、分析和解释项目数据&#xff0c;以便更好地理解项目的进度、质量和效率。过程度量的目的是提供关于项目健康状况的客观信息&…...

【LeetCode刷题】面试题 17.19. 消失的两个数字

1. 题目链接2. 题目描述3. 解题方法4. 代码 1. 题目链接 面试题 17.19. 消失的两个数字 2. 题目描述 3. 解题方法 例子假设&#xff1a; 数组A元素为 &#xff1a;1 &#xff0c;4&#xff0c;5 缺少的元素为&#xff1a;2&#xff0c; 3 那么所有整数就为1 ~ 5&#xff…...

如何定制Spring的错误json信息

一&#xff0c;前言 相信很多同学都有遇到过这样的spring错误信息。 在我们没有做catch处理时或者做全局的exceptionHandle时&#xff0c;Spring遇到抛出向外的异常时&#xff0c;就会给我们封装返回这么个格式的异常信息。 那么问题来了&#xff0c;我们能否对这个返回增加错…...

【第20章】Vue实战篇之Vue Router(路由)

文章目录 前言一、使用Vue-Router1.安装2. 创建路由器实例3. 注册路由器插件4. 根组件 二、访问路由器1.理论2.使用3. 展示 三、嵌套路由(子路由)1. 准备文件2. 配置路由3. 菜单配置4. 展示 总结 前言 Vue Router 是 Vue.js 的官方路由。它与 Vue.js 核心深度集成&#xff0c;…...

阿里云运维第一步(监控):开箱即用的监控

作者&#xff1a;仲阳 这是云的时代&#xff0c;现在云计算已经在各行各业广泛的应用。但是上云对于大多数客户来说&#xff0c;依然有很大的学习成本&#xff0c;如下图仅是阿里云都有几百款产品&#xff0c;怎么选择&#xff1f;怎么用&#xff1f;对于客户来说都是问题。“…...

Python量化交易学习——Part7:定制增强型中证红利策略

中证红利指数是一个反映A股市场高红利股票整体状况和走势的指数。它通过选取上海、深圳交易所中现金股息率高、分红比较稳定、具有一定规模及流动性的100只股票作为样本。这个指数的目的是提供一个全面且具有代表性的视角,以观察A股市场中高红利股票的表现。中证红利指数的样本…...

拥抱未来:探索改变游戏规则的新存储技术

目录 一.存储级内存&#xff08;Storage-Class Memory&#xff09; 3D XPoint 技术 特点 应用场景 优点 缺点 适用场景 示例 二.QLC NAND闪存 概述 优点 缺点 适用场景 前景展望 三.DNA存储 概述 优点 原理 实际应用 关键问题 研究进展 适用场景 分布式…...

shell中的流程控制

条件判断在流程控制中的重要性 有了条件判断才能进行if判断即分支流程&#xff0c;才能进行case的多分支流程&#xff0c;才能进行for循环和while循环。 单分支流程判断 如上图所示&#xff0c;在shell编程中常使用英文状态下的分号来在Linux控制台一次性执行多条命令&#x…...

DiffIR: Efficient Diffusion Model for Image Restoration

清华&ETH&字节&UTDhttps://github.com/Zj-BinXia/DiffIR 问题引入 IR任务和image synthesis任务不同点是IR任务本身有一个很强的低质量图片作为先验&#xff0c;所以可以不完全遵循图片生成的范式&#xff0c;本文主要在compact的IPR空间进行DM&#xff1b;本文提…...

xss一些笔记

&#xff08;乱写的一些笔记&#xff09; innerHTML只防script像是img就不会防 innerText都防 上面代码执行避免用户交互 js也可以用’‘执行 例子 alert’1‘ document.location.hash // #号后的部分&#xff0c;包括#号 document.location.host // 域名…...

以太坊网络中为什么要设置Gas上限

以太坊网络中的Gas上限&#xff08;Gas Limit&#xff09;是一个重要的机制&#xff0c;它主要出于以下几个目的&#xff1a; 防止无限循环和拒绝服务攻击&#xff08;DoS&#xff09;&#xff1a; Gas上限防止了智能合约中的无限循环&#xff0c;这可以保护网络免受恶意合约的…...

vue-cli是什么?和 webpack是什么关系?

前言 Vue CLI是Vue.js项目的官方脚手架&#xff0c;基于Node.js与Webpack构建。安装Vue CLI前需确保Node.js已安装&#xff0c;随后通过npm全局安装。Vue CLI能迅速创建和管理Vue.js项目&#xff0c;提升开发效率。而Webpack则负责资源打包&#xff0c;通过配置文件管理依赖、插…...

leetcode刷题(46-50)

算法是码农的基本功&#xff0c;也是各个大厂必考察的重点&#xff0c;让我们一起坚持写题吧。 遇事不决&#xff0c;可问春风&#xff0c;春风不语&#xff0c;即是本心。 我们在我们能力范围内&#xff0c;做好我们该做的事&#xff0c;然后相信一切都事最好的安排就可以啦…...

[渗透测试学习] Runner-HackTheBox

Runner-HackTheBox 信息搜集 nmap扫描端口 nmap -sV -v 10.10.11.13扫描结果如下 PORT STATE SERVICE VERSION 22/tcp open ssh OpenSSH 8.9p1 Ubuntu 3ubuntu0.6 (Ubuntu Linux; protocol 2.0) 80/tcp open http nginx 1.18.0 (Ubuntu) 8000…...

keil5显示内存和存储占用百分比进度条工具

简介 [Keil5_disp_size_bar] 以进度条百分比来显示keil编译后生成的固件对芯片的内存ram和存储flash的占用情况, 并生成各个源码文件对ram和flash的占比整合排序后的map信息的表格和饼图。 原理是使用C语言遍历当前目录找到keil工程和编译后生成的map文件 然后读取工程文件和m…...

示例:推荐一个应用Adorner做的消息对话框

一、目的&#xff1a;开发过程中&#xff0c;经常用到对话框&#xff0c;下面演示一个应用Adorner做的带遮盖层蒙版的控件&#xff0c;使用MainWindow的Adorner实现不需要额外定义遮盖层&#xff0c;使用Object作为参数&#xff0c;可自定义DataTemplate定制消息显示样式 二、效…...

Building wheels for collected packages: mmcv, mmcv-full 卡住

安装 anime-face-detector 的时候遇到一个问题&#xff1a;Installation takes forever #1386&#xff1a;在构建mmcv-full时卡住&#xff0c;这里分享下解决方法&#xff08;安装 mmcv 同理&#xff0c;将下面命令中的 mmcv-full 替换成 mmcv&#xff09; 具体表现如下&#x…...

可视化表单拖拽生成器优势多 助力流程化办公!

当前&#xff0c;很多企业需要实现流程化办公&#xff0c;进入数字化转型时期。要想实现这一目标&#xff0c;就需要借助更优质的平台产品。低代码技术平台是得到企业喜爱的发展平台&#xff0c;拥有可视化操作、灵活、高效、更可靠等优势特点&#xff0c;在推动企业实现流程化…...

数据集制作——语义分割前png、jpg格式标签图转yolo格式.txt文件(附代码)

&#x1f4aa; 专业从事且热爱图像处理&#xff0c;图像处理专栏更新如下&#x1f447;&#xff1a; &#x1f4dd;《图像去噪》 &#x1f4dd;《超分辨率重建》 &#x1f4dd;《语义分割》 &#x1f4dd;《风格迁移》 &#x1f4dd;《目标检测》 &#x1f4dd;《暗光增强》 &a…...

机器学习课程复习——ANN

Q&#xff1a;ANN&#xff1f; 基本架构 由输入层、隐藏层、输出层等构建前馈/反馈传播 工作原理 先加权求和&#xff1a;每个神经元的输出是输入加权和的激活再送入激活函数&#xff1a;激活函数的存在使得其能够拟合各类非线性任务 联想&#xff1a;像adaboosting的加权求…...

易龙天做的网站怎么样/网页友情链接

php5怎么下载&#xff1f;1.从网站下载WINDOWS版本的php压缩包或安装包(如果是安装包&#xff0c;可以直接安装&#xff0c;则以下操作基本上可以忽略。但为了更好的安全性&#xff0c;建议采用压缩包自己安装配置有关参数)2. 将下载的php5.0压缩包解压到指定位置&#xff0c;如…...

网站运营计划/全球网站排行榜

前期准备(安装依赖模块)pip3 install pycryptodome去蚂蚁金服开放平台申请蚂蚁金服开放平台网址https://open.alipay.com/platform/home.htm注册流程(注意正式支付开发与其一样只不过获取就不是沙箱的各项信息了)登录蚂蚁金服开放平台(与支付宝同意账号)---》注册成为开发者---…...

wordpress 分页url/徐州seo公司

原文:http://blog.csdn.net/liaokailin/article/details/48186331 spring boot实战(第二篇)事件监听 前言 spring boot在启动过程中增加事件监听机制&#xff0c;为用户功能拓展提供极大的便利。 支持的事件类型四种 ApplicationStartedEvent ApplicationEnvironmentPreparedEv…...

网站建设职位/西安seo关键词排名优化

appPackage和appActivity 进行appium自动化测试非常重要的两个参数&#xff0c;我们所测试的APP不同&#xff0c;这两个参数肯定也是不一样的。那如何快速的获取这APP的这两个参数呢&#xff1f;我这里介绍两个方法。 import org.openqa.selenium.remote.DesiredCapabilities;i…...

前端网页培训班/百度搜索优化

目的&#xff1a;我们通过cycleGAN生成了一些样本对&#xff0c;挑选出较好的样本对&#xff0c;想要在pix2pix上进行实验。 参考&#xff1a;https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix/blob/master/docs/datasets.md 目录 一、数据集创建方法 1.1 A和B的描…...

foxmail 网站/南宁seo网络推广

转自&#xff1a;https://www.cnblogs.com/heartstage/p/3362140.html 第一章&#xff1a; servlet2.3规范用到了一下的一些规范&#xff1a;J2EE、JSP1.1、JNDI 在14章中讲述了规范中的所有的classes类或接口&#xff08;改文中不讲述&#xff09;。对开发者而言以下的有些…...