当前位置: 首页 > news >正文

【课程总结】day19(中):Transformer架构及注意力机制了解

前言

本章内容,我们将从注意力的基础概念入手,结合Transformer架构,由宏观理解其运行流程,然后逐步深入了解多头注意力、多头掩码注意力、融合注意力等概念及作用。

注意力机制(Attension)

背景

深度学习中的注意力机制(Attention Mechanism)是一种模仿人类视觉和认知系统的方法。

注意力的产生

如下图所示,人脑在看到一幅图像时是如何分配有限的注意力资源:红色区域表明视觉系统更加关注的区域。

人们会把注意力更多的投入到人的脸部、文本的标题以及文章的首句等位置。

注意力机制核心思想

模仿人的注意力分配方式,将输入数据的重要性动态地分配权重,从而提高模型的表现。

如上图:

  • 小孩的脸部:重要,乘以一个较大的权重(如0.99),突出重要性
  • 图片的背景:不重要,乘以一个较小的权重(如0.01),削弱重要性

注意力本质:关注的增强,不关注的减弱

公共底层架构Transformer

在了解注意力机制后,我们从人工智能的公共底层架构Transformer入手来逐步了解整体的运行机制。

背景回顾

在【课程总结】Day17(上):NLP自然语言处理及RNN网络中,我们曾介绍过自然语言是具有时序性:

“狗追猫。”
“猫追狗。”

以上例子中,字都是相同的,但是字的顺序不同的,所表达的意思完全相反。

RNN的问题


为了处理上述时序数据,RNN通过循环结构,将每个时间步的输出作为下一时间步的输入,最终得到一个完整的输出序列。但这也随之带来了一些问题:

  1. 梯度消失与爆炸:传统 RNN 在处理长序列时,容易出现梯度消失或梯度爆炸的问题,导致训练困难。
  2. 训练时间较长:由于序列数据的特性,RNN 的训练时间通常较长,尤其是在长序列上。
  3. 并行化困难:RNN 的计算依赖于前一个时间步的输出,导致其在训练和推理时难以进行并行化,效率较低,无法有效利用硬件加速。
Transformer的优势

2017年:Google的研究团队在论文《Attention is All You Need》中首次提出了Transformer架构。该架构完全基于自注意力机制(self-attention),摒弃了传统的循环结构,极大地提高了并行处理能力和训练效率。

优势

  1. 摆脱循环:Transformer 摆脱了循环,能够在训练和推理时进行并行化,大大提高效率。
  2. 并行化:Transformer 通过自注意力并行抽取特征,没有前后顺序的依赖,也就无从谈起信息遗忘。
  3. 可堆叠:有ResBlock和LayerNorm的加持,模型可以无限堆叠,重复越多,能力越大。
  4. 能力涌现:真正实现了量变到质变,能力发生了涌现。

所谓能力涌现是指:

  • 早期人工智能:只是在既有数据基础上进行学习,然后可以模仿处理类似问题,这种能力只能点对点的解决特定问题,不能称为智能。
  • Transformer及大模型: 面临新的场景时,可以把自己老的经验和知识迁移过来,解决新的问题,这才是智能。这种能力也称之为能力涌现。

Transformer架构

整体架构


Transformer是一个典型的encoder-decoder结构。

关于Seq2Seq的内容回顾,可以查看【课程总结】Day17(下):初始Seq2Seq模型,本文不再赘述。

宏观处理流程

由于Transformer的架构图有非常多的元素,直接深入细节可能不便于理解整体运行流程,所以我们对模型架构图做一些划分处理,以便从宏观维度理解整体的运行流程。

  • 第一步:上文输入内容经过上文输入处理部分进行embedding以及位置编码,生成对应上文的词向量数据。
  • 第二步:特征经过多头注意力处理部分进行特征抽取。
  • 第三步:抽取的特征经过后处理部分进行非线性变换,以增强模型的表达能力和捕捉复杂特征,最终形成中间表达
  • 第四步下文处理部分采用与上文处理部分的类似机制进行embedding和增加位置信息。(下文初始会增加<SOS>启动信号。)
  • 第五步:下文词向量数据经过多头掩码注意力处理部分进行特征抽取。
  • 第六步融合处理部分将上文产生的中间表达与下文特征进行融合,即提供上文,让模型补充下文。
  • 第七步输出概率部分融合处理部分产生的结果经过softmax进行概率分布,得到输出结果。
  • 第八步:进行自回归循环,将产生的输出结果交给下文处理部分继续第四~第七步,直到输入<EOS>结束。

注意
Transformer相比较RNN抛弃循环的部分,主要体现在上图浅蓝色的方框中,即通过注意力机制将RNN循环处理的方式一次性并行处理。

动图演示宏观处理过程:

输入处理部分

作用:解决序列数据不会丢失顺序的问题。由于Transformer取消了RNN的循环结构,其在处理特征时是并行处理,所以在输入部分需要引入Positional Encoding解决序列数据不会丢失顺序的问题。

以"狗追猫"为例

  • 原始输入:“狗追猫”
  • 经过分词:“狗 追 猫”
  • 经过word2idx之后:“1 2 3”
  • 此时inputs = [1, 2, 3]
  • 经过embedding之后:(假设转换后的词向量如下)
    • “狗” → [0.1,0.2,0.3,0.4]
    • “追” → [0.5,0.6,0.7,0.8]
    • “猫” → [0.9,1.0,1.1,1.2]
  • 经过Positional Encoding:
    • 第一步:计算位置编码:
      • 位置0的编码为 [0, 1, 0, 1]
      • 位置1的编码为 [0.0001, 1, 0.0001, 1]
      • 位置2的编码为 [0.0002, 1, 0.0002, 1]
    • 第二步:将位置编码和词向量相加:
      • 句子1:“狗追猫。”
        • 对于“狗”:[0.1,0.2,0.3,0.4]+[0,1,0,1]=[0.1,1.2,0.3,1.4]
        • 对于“追”:[0.5,0.6,0.7,0.8]+[0.0001,1,0.0001,1]≈[0.5001,1.6,0.7001,1.8]
        • 对于“猫”:[0.9,1.0,1.1,1.2]+[0.0002,1,0.0002,1]≈[0.9002,2.0,1.1002,2.2]
      • 句子2:“猫追狗。”
        • 对于“猫”:[0.9,1.0,1.1,1.2]+[0,1,0,1]=[0.9,2.0,1.1,2.2]
        • 对于“追”:[0.5,0.6,0.7,0.8]+[0.0001,1,0.0001,1]≈[0.5001,1.6,0.7001,1.8]
        • 对于“狗”:[0.1,0.2,0.3,0.4]+[0.0002,1,0.0002,1]≈[0.1002,1.2,0.3002,1.4]
  • 计算位置编码的方式一般是人工预设的方式计算出来。
  • 以上Position的示例是由GPT辅助生成,我并没有深究,关于计算公式详情请见Positional Encoding

通过位置编码,Transformer能够有效地捕获“狗追猫”和“猫追狗”这两个句子中词语的位置信息,从而理解它们之间的关系和语义,进而达到时序数据并行计算

编码encoder部分

对encoder结构归纳总结,其由两部分组成:前馈网络(Feed Forward)和 自注意力(Self-Attention)。

自注意力(Self-Attention)

基本思想:在处理序列数据时,每个元素都可以与序列中的其他元素建立关联,而不仅仅是依赖于相邻位置的元素。

计算原则:关注的增强,不关注的减弱

具体方法

  1. 输入表示:原始输入的词,经过变ID、embedding、位置编码等处理后,词向量序列(如图中$$PV^1$$~$$PV^5$$)。
  2. 一分三:通过三个不同的线性变换,将每个词一分三
    • $$Q = PVW_Q$$:query 查询向量(作用:查询他人)
    • $$K = PVW_K$$:key 关键词向量(作用:等着别人来查询)
    • $$V = PVW_V$$:value 值向量(作用:代表该词的信息)
  • PV :代表具有位置信息的词向量。
  • $$W_Q$$$$W_K$$$$W_V$$:代表三个公共的、可学习的权重矩阵。
  1. 计算注意力权重:通过计算查询与键的向量内积来获得相似度,然后进行缩放和softmax处理,归一化为注意力权重。

例如:q1与k1,q1与k2,q1与k3计算点积,然后除以$$\sqrt{d}$$进行缩放和softmax处理为小数。

  • ( d ) 是词向量维度。
  1. 加权求和:通过将每个元素与对应的注意力权重进行加权求和,可以得到自注意力机制的输出$$Z^1$$~$$Z^5$$
多头注意力(Multi-Head Attention)

多头注意力机制是在自注意力机制的基础上发展起来的,是自注意力机制的变体,旨在增强模型的表达能力和泛化能力。


多头注意力在生成q、k、v时,会再分配多个q、k、v,上图为2个头为例。

具体方法

  1. 输入表示:与自注意力相同。
  2. 一分三:对于每个注意力头 $$i$$,使用不同的线性变换矩阵来生成查询、键和值:
  • 查询 $$Q_i = X W_Q^i$$
  • $$K_i = X W_K^i$$
  • $$V_i = X W_V^i$$
  • $$W_Q^i$$$$W_K^i$$$$W_V^i$$ 是每个头的可学习权重矩阵。
  1. 计算注意力权重:对于每个头计算注意力权重,方法同自注意力。
  2. 加权求和:加权求每个头的输出。
  3. 拼接输出:将每个头的输出拼接起来,得到最终的输出。
  4. 线性转换:将拼接后的输出通过线性变换矩阵得到最终的输出。

多头注意力的计算仅进行了简单地概念了解,具体的计算过程未做深究,如须了解请参考The Illustrated Transformer

解码decoder部分

下文处理部分

该部分的逻辑与encoder中的上文处理部分逻辑一致,所以不再赘述。

多头掩码注意力(Masked Multi-Head Attention)处理部分

多头掩码注意力(Masked Multi-Head Attention)比多头注意力(Multi-Head Attention)结构多了一个masked。所以首先搞清楚mask掩码的作用。

Mask掩码的作用:
  • 作用1:处理非定长序列,区分 padding 和非 padding 部分
  • 作用2:处理定长序列,区分不同时间步之间的依赖关系
pad mask

背景
在NLP中,文本一般是不定长的,所以在进行 batch训练之前,要先进行长度的统一,其中过短的句子通过 padding 增加到固定的长度;但是 padding 对应的字符只是为了统一长度,padding参与运算等于让无效的部分参与了运算,这会影响模型的性能。

以上内容曾在【课程总结】Day18:Seq2Seq的深入了解也遇到过,Seq2Seq是通过传入实际的数据长度以略过padding部分。

在Transformer中,通过给无效区域加一个很大的负数偏置,使无效区域经过softmax计算之后得到的结果几乎为0,从而避免了无效区域参与计算。

subsequence mask

在语言模型中,常常需要从上一个词预测下一个词,但如果要在LM中应用 self attention 或者是同时使用上下文的信息,要想不泄露要预测的标签信息,就需要 mask 来“遮盖”它。

  • 一个包括四个词的句子[A,B,C,D],在计算了相似度scores之后,得到上面第一幅图
  • 将scores的上三角区域mask掉,即替换为负无穷,再做softmax得到第三幅图。
  • 这样,比如输入 B 在self-attention之后,也只和A,B有关,而与后序信息无关。

以上内容搬运自动图图解Transformer及其工程领域应用。

除此之外,其他功能与多头注意力一致,不再赘述。

融合注意力处理部分

融合处理部分的输入箭头中:

  • 左侧两个是来自encoder的中间表达K和V
  • 右侧一个箭头来自 decoder的输出
  • 这部分功能是将encoder的输出与decoder的输出进行融合,从而得到一个完整的输出。

回顾Transformer的整体结构

详细的结构图(带有内部组件)

简化的结构图(带有动画效果)

内容小结

  • 注意力机制是一种模仿人类视觉和认知系统的方法,其本质是:关注的增强,不关注的减弱
  • Transformer 架构基于自注意力机制(self-attention),摒弃了传统的RNN循环结构,极大地提高了并行处理能力和训练效率。
  • Transformer 是一个典型的seq2seq结构(encoder-decoder结构),
    • 在endoder部分,主要由上文输入处理外挂多头注意力处理组成;
    • 在decoder部分,主要由下文输入处理外挂多头掩码注意力融合处理组成。
  • 关于注意力
    • 自注意力机制 在处理序列数据时,每个元素都可以与序列中的其他元素建立关联,而不仅仅是依赖于相邻位置的元素。
    • 多头注意力机制 是在 自注意力机制 的基础上发展起来的,是自注意力机制的变体,旨在增强模型的表达能力和泛化能力。
    • 多头掩码注意力(Masked Multi-Head Attention)多头注意力(Multi-Head Attention) 结构多了一个masked
    • 融合注意力 是将encoder的输出与decoder的输出进行融合,从而得到一个完整的输出。
  • mask掩码有两种作用:
    • 作用1:处理非定长序列,区分 padding 和非 padding 部分。
    • 实现原理是:通过给无效区域加一个很大的负数偏置,使无效区域经过softmax计算之后得到的结果几乎为0,从而避免了无效区域参与计算。
    • 作用2:处理定长序列,区分不同时间步之间的依赖关系,即从上一个词预测下一个词,避免"未来词"信息干扰。
    • 实现原理是:在计算词的相似度scores之后,通过三角矩阵mask掉(即替换为负无穷)再做softmax,从而遮挡住"未来词"。
  • Transformer的decoder时通过自回归循环,将产生的输出结果交给下文处理部分重复进行多头注意力处理融合注意力处理,直到输入<EOS>结束。

参考资料

论文:Attention Is All You Need
博客:The Illustrated Transformer
CSDN:论文解读:Attention Is All You Need
CSDN:《Attention Is All You Need》算法详解
CSDN:动图图解Transformer及其工程领域应用

相关文章:

【课程总结】day19(中):Transformer架构及注意力机制了解

前言 本章内容&#xff0c;我们将从注意力的基础概念入手&#xff0c;结合Transformer架构&#xff0c;由宏观理解其运行流程&#xff0c;然后逐步深入了解多头注意力、多头掩码注意力、融合注意力等概念及作用。 注意力机制&#xff08;Attension&#xff09; 背景 深度学…...

4.4 标准正交基和格拉姆-施密特正交化

本节的两个目标就是为什么和怎么做(why and how)。首先是知道为什么正交性很好&#xff1a;因为它们的点积为零&#xff1b; A T A A^TA ATA 是对角矩阵&#xff1b;在求 x ^ \boldsymbol{\hat x} x^ 和 p A x ^ \boldsymbol pA\boldsymbol{\hat x} pAx^ 时也会很简单。第二…...

spring事务的8种失效的场景,7种传播行为

Spring事务大部分都是通过AOP实现的&#xff0c;所以事务失效的场景大部分都是因为AOP失效&#xff0c;AOP基于动态代理实现的 1.方法没有被public修饰 原因&#xff1a;Spring会为方法创建代理、AOP添加事务通知前提条件是该方法时public的。 2.类没有被Spring容器所托管 …...

进程的虚拟内存地址(C++程序的内存分区)

严谨的说法&#xff1a; 一个C、C程序实际就是一个进程&#xff0c;那么C的内存分区&#xff0c;实际上就是一个进程的内存分区&#xff0c;这样的话就可以分为两个大模块&#xff0c;从上往下&#xff0c;也就是0地址一直往下&#xff0c;假如是x86的32位Linux系统&#xff0c…...

英特尔移除超线程与AMD多线程性能对比

#### 英特尔Lunar Lake架构取消超线程 在英特尔宣布Lunar Lake架构时&#xff0c;一个令人惊讶的消息是下一代轻薄优化架构将移除Hyper-Threading&#xff08;超线程&#xff0c;简称SMT&#xff09;。而AMD最新的Zen 5/Zen5C多线程基准测试结果显示&#xff0c;该特性依然为A…...

定期自动巡检,及时发现机房运维管理中的潜在问题

随着信息化技术的迅猛发展&#xff0c;机房作为企业数据处理与存储的核心场所&#xff0c;其运维管理的复杂性和挑战性也与日俱增。为确保机房设备的稳定运行和业务的连续性&#xff0c;运维团队必须定期进行全面的巡检。然而&#xff0c;传统的手工巡检方式不仅效率低下&#…...

八股文(一)

1. 为什么不使用本地缓存&#xff0c;而使用Redis&#xff1f; Redis相比于本地缓存&#xff08;如JVM中的缓存&#xff09;有以下几个显著优势&#xff1a; 高性能与低延迟&#xff1a;Redis是一个基于内存的数据库&#xff0c;其读写性能非常高&#xff0c;通常可以达到几万…...

灵茶八题 - 子数组 ^w^

灵茶八题 - 子数组 w 题目描述 给你一个长为 n n n 的数组 a a a&#xff0c;输出它的所有连续子数组的异或和的异或和。 例如 a [ 1 , 3 ] a[1,3] a[1,3] 有三个连续子数组 [ 1 ] , [ 3 ] , [ 1 , 3 ] [1],[3],[1,3] [1],[3],[1,3]&#xff0c;异或和分别为 1 , 3 , …...

git clone private repo

Create personal access token Clone repo $ git clone https://<user_name>:<personal_access_tokens>github.com/<user_name>/<repo_name>.git...

vue3+ts+pinia+vant-项目搭建

1.pnpm介绍 npm和pnpm都是JavaScript的包管理工具&#xff0c;用于自动化安装、配置、更新和卸载npm包依赖。 pnpm节省了大量的磁盘空间并提高了安装速度&#xff1a;使用一个内容寻址的文件存储方式&#xff0c;如果多个项目使用相同的包版本&#xff0c;pnpm会存储单个副本…...

自动化测试概念篇

目录 一、自动化 1.1 自动化概念 1.2 自动化分类 1.3 自动化测试金字塔 二、web自动化测试 2.1 驱动 2.2 安装驱动管理 三、selenium 3.1 ⼀个简单的web自动化示例 3.2 selenium驱动浏览器的工作原理 一、自动化 1.1 自动化概念 在生活中&#xff1a; 自动洒水机&am…...

Mojo值的生命周期(Life of a value)详解

到目前为止,我们已经解释了 Mojo 如何允许您使用 Mojo 的所有权模型构建内存安全的高性能代码而无需手动管理内存。但是,Mojo 是为 系统编程而设计的,这通常需要对自定义数据类型进行手动内存管理。因此,Mojo 允许您根据需要执行此操作。需要明确的是,Mojo 没有引用计数器…...

java对接kimi详细说明,附完整项目

需求&#xff1a; 使用java封装kimi接口为http接口&#xff0c;并把调用kimi时的传参和返回数据&#xff0c;保存到mysql数据库中 自己记录一下&#xff0c;以做备忘。 具体步骤如下&#xff1a; 1.申请apiKey 访问&#xff1a;Moonshot AI - 开放平台使用手机号手机号验证…...

鸿蒙媒体开发【基于AVCodec能力的视频编解码】音频和视频

基于AVCodec能力的视频编解码 介绍 本实例基于AVCodec能力&#xff0c;提供基于视频编解码的视频播放和录制的功能。 视频播放的主要流程是将视频文件通过解封装->解码->送显/播放。视频录制的主要流程是相机采集->编码->封装成mp4文件。 播放支持的原子能力规…...

django集成pytest进行自动化单元测试实战

文章目录 一、引入pytest相关的包二、配置pytest1、将django的配置区分测试环境、开发环境和生产环境2、配置pytest 三、编写测试用例1、业务测试2、接口测试 四、进行测试 在Django项目中集成Pytest进行单元测试可以提高测试的灵活性和效率&#xff0c;相比于Django自带的测试…...

48天笔试训练错题——day40

目录 选择题 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 编程题 1. 发邮件 2. 最长上升子序列 选择题 1. DNS 劫持又称域名劫持&#xff0c;是指在劫持的网络范围内拦截域名解析的请求&#xff0c;分析请求的域名&#xff0c;把审查范围以外的请求放行&#xff0c;否则返回…...

LabVIEW在DCS中的优势

DCS&#xff08;Distributed Control System&#xff0c;分布式控制系统&#xff09;是一种用于工业过程控制的自动化系统。它将控制任务分散到多个控制单元中&#xff0c;通过网络连接和协调这些单元来实现对整个过程的监控和控制。DCS通常用于大型工业设施&#xff0c;如化工…...

英特尔:从硅谷创业到全球科技巨头

在科技行业&#xff0c;英特尔不仅是一个品牌&#xff0c;更是一种精神的象征。自1968年成立以来&#xff0c;英特尔经历了从初创企业到全球半导体产业领导者的华丽转变&#xff0c;其发展历程是科技创新与市场战略完美结合的典范。本文将深入探讨英特尔的发展历程&#xff0c;…...

生物计算与纳米技术:交汇前沿的科学领域

在当今科技迅猛发展的时代&#xff0c;生物计算和纳米技术作为前沿科技领域的两个重要方向&#xff0c;正在逐渐融合并带来深远的影响。生物计算涉及使用生物系统进行计算和数据存储&#xff0c;而纳米技术则关注制造极小尺度的电子器件和材料科学。本文将深入探讨这两个领域的…...

C#中栈和队列

在C#中&#xff0c;Stack和Queue是两种不同的集合类型&#xff0c;它们用于实现后进先出&#xff08;LIFO&#xff09;和先进先出&#xff08;FIFO&#xff09;的数据结构。 Stack&#xff08;堆栈&#xff09; Stack是一个后进先出的集合&#xff0c;这意味着最后一个添加到堆…...

技战法丨攻防演练防御——纵深、联动、诱捕(可搬运、可cv)

演习活动经过近几年的发展&#xff0c;攻击方的专业水平已大幅提高&#xff0c;逐渐呈现出隐秘化、APT化的趋势。其利用渗透技术对目标系统做深入探测&#xff0c;不断挖掘防守方网络系统的薄弱环节&#xff0c;这就要求防守方构建立体式纵深防护体系来抵御入侵。同时&#xff…...

1、 window平台opencv下载编译, 基于cmake和QT工具链

1. 环境准备&#xff0c;源码下载 1.1 前置环境 qt 下载安装cmake 安装&#xff0c;可参考&#xff1a; https://blog.csdn.net/qq_51355375/article/details/139186681 1.2 opencv 源码下载 官网地址&#xff1a; https://opencv.org/releases/ 下载源码&#xff1a; 2 …...

C++20三向比较运算符详解

三向比较运算符可以用于确定两个值的大小顺序&#xff0c;也被称为太空飞船操作符。使用单个表达式&#xff0c;它可以告诉一个值是否等于&#xff0c;小于或大于另一个值。 它返回的是类枚举&#xff08;enumeration-like&#xff09;类型&#xff0c;定义在 <compare> …...

监听机制与耗电量

一、监听机制与耗电量的关系 监听机制通常涉及对特定事件、状态或数据的持续监测。在移动设备和嵌入式系统中&#xff0c;这种监听可能由多种组件和传感器实现&#xff0c;如GPS、传感器&#xff08;如加速度计、陀螺仪&#xff09;、网络连接等。监听的频率越高&#xff0c;意…...

C++ //练习 16.29 修改你的Blob类,用你自己的shared_ptr代替标准库中的版本。

C Primer&#xff08;第5版&#xff09; 练习 16.29 练习 16.29 修改你的Blob类&#xff0c;用你自己的shared_ptr代替标准库中的版本。 环境&#xff1a;Linux Ubuntu&#xff08;云服务器&#xff09; 工具&#xff1a;vim 代码块 template <typename> class BlobP…...

【Mode Management】CanNm处于PBS状态下接收到一帧诊断报文DCM会响应吗

目录 前言 正文 1.CanNm从RSS状态切换到PBS状态行为分析 1.1.CanNm动作 1.2.ComM动作 1.3.DCM动作 1.4 小结 2.CanNM在PBS状态下收到一帧诊断报文行为分析 2.1.DCM动作1 2.2. ComM动作 2.3. DCM动作2 2.3. CanNm动作 2.4 问题 2.5 分析 3.总结 前言 我们知道EC…...

【C++】模版:范式编程、函数模板、类模板

目录 一.范式编程 二.函数模板 1.概念与格式 2.原理 3.实例化 4.匹配规则 三.类模板 一.范式编程 在写C函数重载的时候&#xff0c;可能会写很多同一类的函数&#xff0c;例如交换函数&#xff1a; void Swap(int& left, int& right) {int temp left;left r…...

验证图片旋转

最近在使用百度图片翻译时遇到一个问题&#xff0c;就是图片会翻转90&#xff0c;经与百度沟通&#xff0c;发现是原始图片中有个旋转参数引起的。 于是写个demo验证一下。 // 获取元数据中的旋转方向 func getOrientation() int {//打开图像文件f, err : os.Open("image…...

宏景eHR /ajax/ajaxService SQL注入漏洞复现

0x01 产品简介 宏景eHR人力资源管理软件是一款人力资源管理与数字化应用相融合,满足动态化、协同化、流程化、战略化需求的软件。 0x02 漏洞概述 宏景eHR /ajax/ajaxService 接口处存在SQL注入漏洞,,未经身份验证的远程攻击者通过利用SQL注入漏洞配合数据库xp_cmdshell可…...

从源码看 Redis:深入理解 redisDb 和 redisObject

Redis 是一个广泛使用的内存数据库&#xff0c;以其高性能和丰富的数据结构而闻名。不同于磁盘数据库&#xff0c;磁盘数据库将数据读取到文件中维护&#xff0c;而内存数据库将数据存储在内存中&#xff0c;意味着其想要维护数据&#xff0c;必须在代码中维护一个保存数据的结…...

网站建设服务领域/全国疫情高峰感染进度

您是否曾经想列出Linux系统中的所有用户或计算系统中的用户数量&#xff1f;有创建用户&#xff0c;删除用户&#xff0c;列出已登录用户的命令&#xff0c;但是列出Linux中所有用户的命令是什么&#xff1f;本教程将向您展示如何列出Linux系统中的用户。使用/etc/passwd文件获…...

公司推进企业安全文化建设/优化设计答案六年级上册语文

&#xfeff;&#xfeff;[函数名称] 二值图像腐蚀函数CorrosionProcess(WriteableBitmap src) [算法说明] 二值图像腐蚀操作属于图像形态学的范畴&#xff0c;形态学运算是只针对二值图像进行&#xff0c;并依据数学形态学(Mathermatical Morphogy)集合论方法发展起来的数字图…...

用dw做的网站怎样弄上网上/网络查询网站

Lets begin our journey on CS. 转载于:https://www.cnblogs.com/sjtubear/p/4191196.html...

适合女孩做的网站/百度用户客服电话

虽然将 .idea/* 加入了.gitignore,但是.idea仍然会被跟踪&#xff0c;这是因为在创建gitignore 的时候&#xff0c;idea 文件夹已经被跟踪。 解决办法&#xff1a; git rm -rf .idea; git commit -m "delete .idea"; git push origin master...

网站站长是什么/网站模版

大家可能会遇到由于bash脚本逐行执行&#xff0c;遇到错误仍会执行后面的内容&#xff0c;由于变量为空导致文件被删除&#xff0c;等等问题&#xff0c;下面介绍几个方式可以避免这些情况&#xff0c;提高bash脚本的可靠性。 一般shell脚本第一行我们会定义shell脚本解释器&a…...

网站建设与管理专业的行业发展/产品营销策划

(木野狐 2006-10-29) 由于之前一阵公司一个项目提出的需求&#xff0c;自己也想进行这方面的尝试&#xff0c;我对如何使用 Flash 来做 WinForm 程序的界面产生了兴趣&#xff0c;于是学习了一些资料&#xff0c;摘要于此。下图是我做的一个 demo 程序的界面&#xff1a; 要在 …...