当前位置: 首页 > news >正文

专门做品牌网站设计服务/软文的目的是什么

专门做品牌网站设计服务,软文的目的是什么,家政网站建设,网络营销的主要方式和技巧基于 Levenberg - Marquardt 法的 BP 网络学习改进算法详解 一、引言 BP(Back Propagation)神经网络在众多领域有着广泛应用,但传统 BP 算法存在收敛速度慢、易陷入局部最优等问题。Levenberg - Marquardt(LM)算法作…

基于 Levenberg - Marquardt 法的 BP 网络学习改进算法详解

一、引言

BP(Back Propagation)神经网络在众多领域有着广泛应用,但传统 BP 算法存在收敛速度慢、易陷入局部最优等问题。Levenberg - Marquardt(LM)算法作为一种有效的优化算法,被应用于改进 BP 网络学习,能够显著提高训练效率和网络性能。本文将深入阐述基于 Levenberg - Marquardt 法的 BP 网络学习改进算法,包括其原理、实现步骤和详细的代码示例。

二、传统 BP 网络学习算法回顾

(一)网络结构与前向传播

BP 神经网络一般由输入层、隐藏层和输出层构成。设输入层有 n n n 个神经元,输入向量为 x = ( x 1 , x 2 , ⋯ , x n ) \mathbf{x}=(x_1,x_2,\cdots,x_n) x=(x1,x2,,xn);隐藏层有 m m m 个神经元,输出向量为 h = ( h 1 , h 2 , ⋯ , h m ) \mathbf{h}=(h_1,h_2,\cdots,h_m) h=(h1,h2,,hm);输出层有 p p p 个神经元,输出向量为 y = ( y 1 , y 2 , ⋯ , y p ) \mathbf{y}=(y_1,y_2,\cdots,y_p) y=(y1,y2,,yp)

在前向传播过程中,对于输入层到隐藏层,隐藏层神经元的输入为:

n e t j = ∑ i = 1 n w i j 1 x i + b j 1 net_{j}=\sum_{i = 1}^{n}w_{ij}^{1}x_{i}+b_{j}^{1} netj=i=1nwij1xi+bj1

其中, w i j 1 w_{ij}^{1} wij1 是输入层到隐藏层的连接权重, b j 1 b_{j}^{1} bj1 是隐藏层的偏置。隐藏层神经元的输出通常经过激活函数(如 Sigmoid 函数 h j = 1 1 + e − n e t j h_{j}=\frac{1}{1 + e^{-net_{j}}} hj=1+enetj1)处理。

从隐藏层到输出层,输出层神经元的输入为:

u k = ∑ j = 1 m w j k 2 h j + b k 2 u_{k}=\sum_{j = 1}^{m}w_{jk}^{2}h_{j}+b_{k}^{2} uk=j=1mwjk2hj+bk2

输出层神经元的输出 y k = 1 1 + e − u k y_{k}=\frac{1}{1 + e^{-u_{k}}} yk=1+euk1(这里以 Sigmoid 函数为例)。

(二)误差计算与反向传播

对于训练样本集 { ( x ( μ ) , t ( μ ) ) } μ = 1 N \{(\mathbf{x}^{(\mu)},\mathbf{t}^{(\mu)})\}_{\mu = 1}^{N} {(x(μ),t(μ))}μ=1N,其中 x ( μ ) \mathbf{x}^{(\mu)} x(μ) 是第 μ \mu μ 个输入样本, t ( μ ) \mathbf{t}^{(\mu)} t(μ) 是对应的目标输出。常用的误差函数是均方误差:

E = 1 2 ∑ μ = 1 N ∑ k = 1 p ( y k ( μ ) − t k ( μ ) ) 2 E=\frac{1}{2}\sum_{\mu = 1}^{N}\sum_{k = 1}^{p}(y_{k}^{(\mu)}-t_{k}^{(\mu)})^{2} E=21μ=1Nk=1p(yk(μ)tk(μ))2

在反向传播过程中,根据误差函数对权重的梯度来更新权重。以输出层到隐藏层的权重 w j k 2 w_{jk}^{2} wjk2 为例,其梯度计算为:

∂ E ∂ w j k 2 = ∑ μ = 1 N ( y k ( μ ) − t k ( μ ) ) y k ( μ ) ( 1 − y k ( μ ) ) h j ( μ ) \frac{\partial E}{\partial w_{jk}^{2}}=\sum_{\mu = 1}^{N}(y_{k}^{(\mu)}-t_{k}^{(\mu)})y_{k}^{(\mu)}(1 - y_{k}^{(\mu)})h_{j}^{(\mu)} wjk2E=μ=1N(yk(μ)tk(μ))yk(μ)(1yk(μ))hj(μ)

然后根据梯度下降法更新权重:

w j k 2 ( t + 1 ) = w j k 2 ( t ) − η ∂ E ∂ w j k 2 w_{jk}^{2}(t + 1)=w_{jk}^{2}(t)-\eta\frac{\partial E}{\partial w_{jk}^{2}} wjk2(t+1)=wjk2(t)ηwjk2E

其中, η \eta η 是学习率, t t t 表示训练次数。类似地,可以计算输入层到隐藏层的权重更新公式。

三、传统 BP 算法的问题分析

(一)收敛速度问题

  1. 学习率的影响
    在传统 BP 算法中,学习率的选择至关重要且困难。若学习率过大,权重更新可能会过度,导致网络在误差曲面上跳过最小值点,甚至使训练过程发散;若学习率过小,权重更新缓慢,需要大量的训练迭代才能使误差降低到可接受的水平,尤其在处理复杂的高维数据或复杂函数逼近问题时,收敛速度会非常慢。
  2. 梯度下降的局限性
    传统 BP 基于梯度下降方法,每次权重更新仅沿着当前梯度的负方向进行。在复杂的误差曲面中,如存在狭长的峡谷或平坦区域,梯度方向可能并不直接指向全局最小值,这会导致在这些区域收敛效率低下。

(二)局部最优问题

由于传统 BP 算法沿着梯度下降方向更新权重,容易陷入局部最优解。在误差曲面中,当达到局部最优点时,梯度为零或接近零,此时权重更新停止,但这个局部最优点可能并非全局最优解,使得网络的性能无法进一步提升。

四、Levenberg - Marquardt 法原理

(一)基本思想

Levenberg - Marquardt 法是一种结合了梯度下降法和牛顿法优点的优化算法。它在接近最优解时具有牛顿法的二次收敛速度,在远离最优解时表现得像梯度下降法一样稳定。

对于目标函数 E ( w ) E(\mathbf{w}) E(w)(这里 w \mathbf{w} w 表示网络的所有权重和偏置组成的向量),牛顿法的迭代公式为:

w t + 1 = w t − [ ∇ 2 E ( w t ) ] − 1 ∇ E ( w t ) \mathbf{w}^{t + 1}=\mathbf{w}^{t}-[\nabla^{2}E(\mathbf{w}^{t})]^{-1}\nabla E(\mathbf{w}^{t}) wt+1=wt[2E(wt)]1E(wt)

其中, ∇ E ( w t ) \nabla E(\mathbf{w}^{t}) E(wt) 是目标函数在 w t \mathbf{w}^{t} wt 处的梯度向量, ∇ 2 E ( w t ) \nabla^{2}E(\mathbf{w}^{t}) 2E(wt) 是目标函数在 w t \mathbf{w}^{t} wt 处的 Hessian 矩阵。然而,计算 Hessian 矩阵及其逆矩阵在实际中计算量很大。

Levenberg - Marquardt 法使用一个近似的 Hessian 矩阵。它将目标函数 E ( w ) E(\mathbf{w}) E(w) 在当前点 w t \mathbf{w}^{t} wt 处进行二阶泰勒展开:

E ( w ) ≈ E ( w t ) + ∇ E ( w t ) T ( w − w t ) + 1 2 ( w − w t ) T H ( w − w t ) E(\mathbf{w})\approx E(\mathbf{w}^{t})+\nabla E(\mathbf{w}^{t})^{T}(\mathbf{w}-\mathbf{w}^{t})+\frac{1}{2}(\mathbf{w}-\mathbf{w}^{t})^{T}\mathbf{H}(\mathbf{w}-\mathbf{w}^{t}) E(w)E(wt)+E(wt)T(wwt)+21(wwt)TH(wwt)

其中, H \mathbf{H} H 是对 Hessian 矩阵的近似。在 LM 算法中,这个近似的 Hessian 矩阵为:

H = J T J + λ I \mathbf{H}=\mathbf{J}^{T}\mathbf{J}+\lambda\mathbf{I} H=JTJ+λI

其中, J \mathbf{J} J 是雅可比矩阵,它的元素是误差函数对权重的一阶偏导数, λ \lambda λ 是一个可调参数, I \mathbf{I} I 是单位矩阵。当 λ \lambda λ 很大时,算法接近梯度下降法;当 λ \lambda λ 很小时,算法接近牛顿法。

(二)参数更新公式

权重更新公式为:

w t + 1 = w t − ( J T J + λ I ) − 1 J T e \mathbf{w}^{t + 1}=\mathbf{w}^{t}-(\mathbf{J}^{T}\mathbf{J}+\lambda\mathbf{I})^{-1}\mathbf{J}^{T}\mathbf{e} wt+1=wt(JTJ+λI)1JTe

其中, e \mathbf{e} e 是误差向量。通过调整 λ \lambda λ 的值,可以控制算法的收敛速度和稳定性。在每次迭代中,如果误差减小,则减小 λ \lambda λ;如果误差增大,则增大 λ \lambda λ

五、基于 Levenberg - Marquardt 法的 BP 网络学习改进算法步骤

(一)初始化

  1. 网络参数初始化
    初始化 BP 网络的权重和偏置,可将权重随机初始化为较小的值,例如在区间 [ − 0.5 , 0.5 ] [-0.5,0.5] [0.5,0.5] 内。同时,初始化参数 λ \lambda λ(通常初始化为一个较小的值,如 0.01)、雅可比矩阵 J \mathbf{J} J(初始化为相应大小的零矩阵)和其他相关变量。
  2. 训练参数初始化
    设置训练的相关参数,如最大训练次数、误差阈值等,用于控制训练过程的终止条件。

(二)训练过程

  1. 前向传播
    对于每个训练样本,按照传统 BP 算法的前向传播方式计算网络的输出。
  2. 误差计算与雅可比矩阵计算
    计算当前样本的误差向量 e \mathbf{e} e,并通过反向传播计算雅可比矩阵 J \mathbf{J} J。雅可比矩阵的计算涉及到误差函数对每个权重的偏导数。
  3. 近似 Hessian 矩阵构建与权重更新
    根据当前的雅可比矩阵 J \mathbf{J} J 和参数 λ \lambda λ,构建近似 Hessian 矩阵 H = J T J + λ I \mathbf{H}=\mathbf{J}^{T}\mathbf{J}+\lambda\mathbf{I} H=JTJ+λI。然后,求解线性方程组 ( J T J + λ I ) Δ w = J T e (\mathbf{J}^{T}\mathbf{J}+\lambda\mathbf{I})\Delta\mathbf{w}=\mathbf{J}^{T}\mathbf{e} (JTJ+λI)Δw=JTe,得到权重更新量 Δ w \Delta\mathbf{w} Δw,并更新网络的权重和偏置: w t + 1 = w t − Δ w \mathbf{w}^{t + 1}=\mathbf{w}^{t}-\Delta\mathbf{w} wt+1=wtΔw
  4. 参数调整
    计算更新权重后的误差。如果误差减小,则减小 λ \lambda λ(例如, λ = λ / 10 \lambda=\lambda/10 λ=λ/10);如果误差增大,则增大 λ \lambda λ(例如, λ = 10 λ \lambda = 10\lambda λ=10λ)。
  5. 停止准则判断
    检查是否满足停止准则,如达到最大训练次数或者当前误差小于设定的误差阈值。如果满足,则停止训练;否则,返回步骤 1 继续下一次迭代。

六、代码示例

以下是使用 Python 实现的基于 Levenberg - Marquardt 法的 BP 网络学习改进算法的代码示例:

import numpy as np# Sigmoid 激活函数
def sigmoid(x):return 1 / (1 + np.exp(-x))# Sigmoid 函数的导数
def sigmoid_derivative(x):return x * (1 - x)class NeuralNetwork:def __init__(self, input_size, hidden_size, output_size):self.input_size = input_sizeself.hidden_size = hidden_sizeself.output_size = output_size# 随机初始化权重self.W1 = np.random.rand(self.input_size, self.hidden_size)self.b1 = np.zeros((1, self.hidden_size))self.W2 = np.random.rand(self.hidden_size, self.output_size)self.b2 = np.zeros((1, self.output_size))self.lambda_value = 0.01  # 初始lambda值def forward_propagation(self, X):self.z1 = np.dot(X, self.W1) + self.b1self.a1 = sigmoid(self.z1)self.z2 = np.dot(self.a1, self.W2) + self.b2self.a2 = sigmoid(self.z2)return self.a2def back_propagation(self, X, y):m = X.shape[0]dZ2 = (self.a2 - y) * sigmoid_derivative(self.z2)dW2 = np.dot(self.a1.T, dZ2)db2 = np.sum(dZ2, axis=0, keepdims=True)dZ1 = np.dot(dZ2, self.W2.T) * sigmoid_derivative(self.z1)dW1 = np.dot(X.T, dZ1)db1 = np.sum(dZ1, axis=0, keepdims=True)return dW1, db1, dW2, db2def jacobian_matrix(self, X, y):m = X.shape[0]J = np.zeros((m * self.output_size, (self.input_size * self.hidden_size) + self.hidden_size + (self.hidden_size * self.output_size) + self.output_size))for i in range(m):sample_X = X[i].reshape(1, -1)sample_y = y[i].reshape(1, -1)dW1, db1, dW2, db2 = self.back_propagation(sample_X, sample_y)start_idx_W1 = 0end_idx_W1 = self.input_size * self.hidden_sizestart_idx_b1 = end_idx_W1end_idx_b1 = end_idx_W1 + self.hidden_sizestart_idx_W2 = end_idx_b1end_idx_W2 = end_idx_b1 + self.hidden_size * self.output_sizestart_idx_b2 = end_idx_W2end_idx_b2 = end_idx_W2 + self.output_sizeJ[i * self.output_size:(i + 1) * self.output_size, start_idx_W1:end_idx_W1] = dW1.flatJ[i * self.output_size:(i + 1) * self.output_size, start_idx_b1:end_idx_b1] = db1.flatJ[i * self.output_size:(i + 1) * self.output_size, start_idx_W2:end_idx_W2] = dW2.flatJ[i * self.output_size:(i + 1) * self.output_size, start_idx_b2:end_idx_b2] = db2.flatreturn Jdef levenberg_marquardt_update(self, X, y):output = self.forward_propagation(X)error = output - yJ = self.jacobian_matrix(X, y)H = np.dot(J.T, J) + self.lambda_value * np.eye(J.shape[1])gradient = np.dot(J.T, error.flat)update_vector = np.linalg.solve(H, gradient)self.W1 -= update_vector[:self.input_size * self.hidden_size].reshape(self.input_size, self.hidden_size)self.b1 -= update_vector[self.input_size * self.hidden_size:self.input_size * self.hidden_size + self.hidden_size].reshape(1, self.hidden_size)self.W2 -= update_vector[self.input_size * self.hidden_size + self.hidden_size:self.input_size * self.hidden_size + self.hidden_size + self.hidden_size * self.output_size].reshape(self.hidden_size, self.output_size)self.b2 -= update_vector[self.input_size * self.hidden_size + self.hidden_size + self.hidden_size * self.output_size:].reshape(1, self.output_size)new_error = np.mean((self.forward_propagation(X) - y) ** 2)old_error = np.mean((output - y) ** 2)if new_error < old_error:self.lambda_value = self.lambda_value / 10else:self.lambda_value = self.lambda_value * 10def train(self, X, y, epochs):for epoch in range(epochs):self.levenberg_marquardt_update(X, y)if epoch % 100 == 0:output = self.forward_propagation(X)error = np.mean((output - y) ** 2)print(f'Epoch {epoch}: Error = {error}, Lambda = {self.lambda_value}')

以下是一个简单的测试示例:

# 示例用法
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([[0], [1], [1], [0]])
neural_network = NeuralNetwork(2, 3, 1)
neural_network.train(X, y, 1000)

七、总结

基于 Levenberg - Marquardt 法的 BP 网络学习改进算法通过巧妙地近似 Hessian 矩阵,结合了梯度下降法和牛顿法的优点。这种算法在 BP 网络训练中能够更快地收敛,并且在一定程度上减少了陷入局部最优解的可能性。代码示例详细展示了该算法在 Python 中的实现过程,在实际应用中,可以根据具体的问题和数据集进一步优化算法,如更精细地调整 λ \lambda λ 的调整策略、改进雅可比矩阵的计算方法等,以提高网络的训练效果和泛化能力。该算法在函数逼近、数据分类等需要高效训练神经网络的场景中具有重要的应用价值。

相关文章:

基于 Levenberg - Marquardt 法的 BP 网络学习改进算法详解

基于 Levenberg - Marquardt 法的 BP 网络学习改进算法详解 一、引言 BP&#xff08;Back Propagation&#xff09;神经网络在众多领域有着广泛应用&#xff0c;但传统 BP 算法存在收敛速度慢、易陷入局部最优等问题。Levenberg - Marquardt&#xff08;LM&#xff09;算法作…...

MySQL 8.0与PostgreSQL 15.8的性能对比

根据搜索结果&#xff0c;以下是MySQL 8.0与PostgreSQL 15.8的性能对比&#xff1a; MySQL 8.0性能特点&#xff1a; MySQL在处理大量读操作时表现出色&#xff0c;其存储引擎InnoDB提供了行级锁定和高效的事务处理&#xff0c;适用于并发读取的场景。MySQL通过查询缓存来提高读…...

qt连接postgres数据库时 setConnectOptions函数用法

连接选项&#xff0c;而这些选项没有直接的方法对应&#xff0c;你可能需要采用以下策略之一&#xff1a; 由于Qt SQL API的限制&#xff0c;你可能需要采用一些变通方法或查阅相关文档和社区资源以获取最新的信息和最佳实践。如果你确实需要设置特定的连接选项&#xff0c;并且…...

MySQL45讲 第二十七讲 主库故障应对:从库切换策略与 GTID 详解——阅读总结

文章目录 MySQL45讲 第二十七讲 主库故障应对&#xff1a;从库切换策略与 GTID 详解一、一主多从架构与主备切换的挑战&#xff08;一&#xff09;一主多从基本结构&#xff08;二&#xff09;主备切换的复杂性 二、基于位点的主备切换&#xff08;一&#xff09;同步位点的概念…...

JavaWeb笔记整理——Spring Task、WebSocket

目录 SpringTask ​cron表达式 WebSocket SpringTask cron表达式 WebSocket...

基于SpringBoot+RabbitMQ完成应⽤通信

前言&#xff1a; 经过上面俩章学习&#xff0c;我们已经知道Rabbit的使用方式RabbitMQ 七种工作模式介绍_rabbitmq 工作模式-CSDN博客 RabbitMQ的工作队列在Spring Boot中实现&#xff08;详解常⽤的⼯作模式&#xff09;-CSDN博客作为⼀个消息队列,RabbitMQ也可以⽤作应⽤程…...

Flutter踩坑记录(一)debug运行生成的项目,不能手动点击运行

问题 IOS14设备&#xff0c;切后台划掉&#xff0c;二次启动崩溃。 原因 IOS14以上 flutter 不支持debugger模式下的二次启动 。 要二次启动需要以release方式编译工程安装至手机。 操作步骤 清理项目&#xff1a;在命令行中运行flutter clean来清理之前的构建文件。重新构…...

React的hook✅

为什么hook必须在组件内的顶层声明&#xff1f; 这是为了确保每次组件渲染时&#xff0c;Hooks 的调用顺序保持一致。React利用 hook 的调用顺序来跟踪各个 hook 的状态。每当一个函数组件被渲染时&#xff0c;所有的 hook 调用都是按照从上到下的顺序依次执行的。React 内部会…...

2024.5 AAAiGLaM:通过邻域分区和生成子图编码对领域知识图谱对齐的大型语言模型进行微调

GLaM: Fine-Tuning Large Language Models for Domain Knowledge Graph Alignment via Neighborhood Partitioning and Generative Subgraph Encoding 问题 如何将特定领域知识图谱直接整合进大语言模型&#xff08;LLM&#xff09;的表示中&#xff0c;以提高其在图数据上自…...

从熟练Python到入门学习C++(record 6)

基础之基础之最后一节-结构体 1.结构体的定义 结构体相对于自定义的一种新的变量类型。 四种定义方式&#xff0c;推荐第一种&#xff1b;第四种适合大量定义&#xff0c;也适合查找&#xff1b; #include <iostream> using namespace std; #include <string.h>…...

jenkins的安装(War包安装)

‌Jenkins是一个开源的持续集成工具&#xff0c;基于Java开发&#xff0c;主要用于监控持续的软件版本发布和测试项目。‌ 它提供了一个开放易用的平台&#xff0c;使软件项目能够实现持续集成。Jenkins的功能包括持续的软件版本发布和测试项目&#xff0c;以及监控外部调用执行…...

WPS 加载项开发说明wpsjs

wpsjs几个常用的CMD命令&#xff1a; 1.打开cmd输入命令测试版本号 npm -v 2.首次安装nodejs&#xff0c;npm默认国外镜像&#xff0c;包下载较慢时&#xff0c;可切换到国内镜像 //下载速度较慢时可切换国内镜像 npm config set registry https://registry.npmmirror.com …...

【Anomaly Detection论文阅读记录】PaDiM与PatchCore模型的区别与联系

PaDiM与PatchCore模型的区别与联系 背景介绍 PADIM(Pretrained Anomaly Detection via Image Matching)和 PatchCore 都是基于深度学习的异常检测方法,主要用于图像异常检测,尤其是在无监督学习设置下。 PADIM 是一种通过利用预训练的视觉模型(例如,ImageNet预训练的卷…...

uni-app Vue3语法实现微信小程序样式穿透uview-plus框架

1 问题描述 我在用 uni-app vue3 语法开发微信小程序时&#xff0c;在项目中使用了 uview-plus 这一开源 UI 框架。在使用 up-text 组件时&#xff0c;想要给它添加一些样式&#xff0c;之前了解到微信小程序存在样式隔离的问题&#xff0c;也在uview-plus官网-注意事项中找到…...

K8S基础概念和环境搭建

K8S的基础概念 1. 什么是K8S K8S的全称是Kubernetes K8S是一个开源的容器编排平台&#xff0c;用于自动化部署、扩缩、管理容器化应用程序。 2. 集群和节点 集群&#xff1a;K8S将多个机器统筹和管理起来&#xff0c;彼此保持通讯&#xff0c;这样的关系称之为集群。 节点…...

[服务器] 腾讯云服务器免费体验,成功部署网站

文章目录 概要整体架构流程概要 腾讯云服务器免费体验一个月。 整体架构流程 腾讯云服务器体验一个月, 选择预装 CentOS 7.5 首要最重要的是: 添加阿里云镜像。 不然国外源速度慢, 且容易失败。 yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/li…...

vue中el-select 模糊查询下拉两种方式

第一种&#xff1a;先获取所有下拉数据再模糊查询&#xff0c;效果如下 1&#xff0c;页面代码&#xff1a;speciesList是种类列表List, speciesId 是speciesList里面对应的id&#xff0c;filterable是过滤查询标签 <el-form-item label"种类" prop"species…...

深入解析PostgreSQL中的PL/pgSQL语法

在数据库管理系统中&#xff0c;PostgreSQL因其强大的功能和稳定性而受到广泛欢迎。其中&#xff0c;PL/pgSQL作为PostgreSQL的过程化语言&#xff0c;为用户提供了更为灵活和强大的编程能力。本文将深入解析PL/pgSQL的语法&#xff0c;帮助读者更好地掌握这门语言&#xff0c;…...

Vue 3集成海康Web插件实现视频监控

​&#x1f308;个人主页&#xff1a;前端青山 &#x1f525;系列专栏&#xff1a;组件封装篇 &#x1f516;人终将被年少不可得之物困其一生 依旧青山,本期给大家带来组件封装篇专栏内容:Vue 3集成海康Web插件实现视频监控 引言 最近在项目中使用了 Vue 3 结合海康Web插件来实…...

多目标优化算法:多目标蛇鹫优化算法(MOSBOA)求解DTLZ1-DTLZ9,提供完整MATLAB代码

一、蛇鹫优化算法 蛇鹫优化算法&#xff08;Secretary Bird Optimization Algorithm&#xff0c;简称SBOA&#xff09;由Youfa Fu等人于2024年4月发表在《Artificial Intelligence Review》期刊上的一种新型的元启发式算法。该算法旨在解决复杂工程优化问题&#xff0c;特别是…...

机器翻译基础与模型 之三:基于自注意力的模型

基于RNN和CNN的翻译模型&#xff0c;在处理文字序列时有个问题&#xff1a;它们对序列中不同位置之间的依赖关系的建模并不直接。以CNN的为例&#xff0c;如果要对长距离依赖进行描述&#xff0c;需要多层卷积操作&#xff0c;而且不同层之间信息传递也可能有损失&#xff0c;这…...

如何使用PCL处理ROS Bag文件中的点云数据并重新保存 ubuntu20.04

如何使用PCL处理ROS Bag文件中的点云数据并重新保存 要精确地处理ROS bag中的点云数据并使用PCL进行处理&#xff0c;再将处理后的数据保存回新的ROS bag文件&#xff0c;以下方案提供了详细、专业和严谨的步骤。 步骤 1: 环境设置 确保安装了ROS和PCL&#xff0c;并配置好环…...

背包问题(动态规划)

背包问题是一种组合优化的问题&#xff0c;它有多种变体&#xff0c;但最常见的两种是0/1背包问题和完全背包问题。 0/1背包问题 问题描述&#xff1a; 假设你有一个背包&#xff0c;背包的容量为W&#xff08;可以是重量或者体积等度量&#xff09;&#xff0c;同时有n个物品…...

从0开始学习机器学习--Day26--聚类算法

无监督学习(Unsupervised learning and introduction) 监督学习问题的样本 无监督学习样本 如图&#xff0c;可以看到两者的区别在于无监督学习的样本是没有标签的&#xff0c;换言之就是无监督学习不会赋予主观上的判断&#xff0c;需要算法自己去探寻区别&#xff0c;第二张…...

Vue3插槽v-slot使用方式

在 Vue 3 中&#xff0c;v-slot 是用来定义和使用插槽的指令。插槽是 Vue 的一个功能&#xff0c;允许你在组件内部定义占位内容&#xff0c;便于在父组件中提供动态内容。以下是 v-slot 的详细使用方法&#xff1a; 1. 基础使用 <template><BaseComponent><te…...

Axure二级菜单下拉交互实例

1.使用boxlabe进行基础布局 2.设置鼠标悬浮和选中状态 3.转换为动态面板 选中所有二级菜单,进行按钮组转换 选中所有二级菜单,进行动态面板转换 4.给用户管理增加显示/隐藏事件 1)选择toggle代表上拉和下拉切换加载 2)勾选Bring to Front,并选择Push/Pull Widgets代表收缩时…...

华为VPN技术

1.启动设备 2.配置IP地址 [FW1]int g1/0/0 [FW1-GigabitEthernet1/0/0]ip add 192.168.1.254 24 [FW1-GigabitEthernet1/0/0]int g1/0/1 [FW1-GigabitEthernet1/0/1]ip add 100.1.1.1 24 [FW1-GigabitEthernet1/0/1]service-manage ping permit [FW2]int g1/0/0 [FW2-Gi…...

CommonsBeanutils与Shiro发序列化利用的学习

一、前言 前面的学习中&#xff0c;过了一遍cc1-cc7的利用链&#xff0c;在CC2的利用链中&#xff0c;学习了 java.util.PriorityQueue&#xff0c;它在Java中是一个优先队列&#xff0c;队列中每一个元素都有自己的优先级。在反序列化这个对象时&#xff0c;为了保证队列顺序…...

运维云计算SRE-第2周

1. 总结学过的权限&#xff0c;属性及ACL相关命令及选项&#xff0c;示例。 一、Linux安全模型 &#xff08;一&#xff09;资源分派 Authentication&#xff08;认证&#xff09;&#xff1a;验证用户身份&#xff0c;确保登录系统的用户是合法的。 Authorization&#xff08…...

React Native 全栈开发实战班 - 用户界面进阶之响应式设计实践

在移动应用开发中&#xff0c;响应式设计 是确保应用在不同设备、屏幕尺寸和方向下都能提供良好用户体验的关键。React Native 提供了多种工具和技巧来实现响应式设计&#xff0c;包括 Flexbox 布局、动态样式、屏幕尺寸适配等。本章节将详细介绍如何在 React Native 中进行响应…...