9. 优化器
9.1 优化器
① 损失函数调用backward方法,就可以调用损失函数的反向传播方法,就可以求出我们需要调节的梯度,我们就可以利用我们的优化器就可以根据梯度对参数进行调整,达到整体误差降低的目的。
② 梯度要清零,如果梯度不清零会导致梯度累加。
9.2 神经网络优化一轮
import torch
import torchvision
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10("./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=True)
dataloader = DataLoader(dataset, batch_size=64,drop_last=True)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 = Sequential(Conv2d(3,32,5,padding=2),MaxPool2d(2),Conv2d(32,32,5,padding=2),MaxPool2d(2),Conv2d(32,64,5,padding=2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x = self.model1(x)return xloss = nn.CrossEntropyLoss() # 交叉熵
tudui = Tudui()
optim = torch.optim.SGD(tudui.parameters(),lr=0.01) # 随机梯度下降优化器
for data in dataloader:imgs, targets = dataoutputs = tudui(imgs)result_loss = loss(outputs, targets) # 计算实际输出与目标输出的差距optim.zero_grad() # 梯度清零result_loss.backward() # 反向传播,计算损失函数的梯度optim.step() # 根据梯度,对网络的参数进行调优print(result_loss) # 对数据只看了一遍,只看了一轮,所以loss下降不大
结果:
Files already downloaded and verified tensor(2.2978, grad_fn=<NllLossBackward0>) tensor(2.2988, grad_fn=<NllLossBackward0>) tensor(2.3163, grad_fn=<NllLossBackward0>) tensor(2.3253, grad_fn=<NllLossBackward0>) tensor(2.2952, grad_fn=<NllLossBackward0>) tensor(2.3066, grad_fn=<NllLossBackward0>) tensor(2.3085, grad_fn=<NllLossBackward0>) tensor(2.3106, grad_fn=<NllLossBackward0>) tensor(2.2960, grad_fn=<NllLossBackward0>) tensor(2.3053, grad_fn=<NllLossBackward0>) tensor(2.2892, grad_fn=<NllLossBackward0>) tensor(2.3090, grad_fn=<NllLossBackward0>) tensor(2.2956, grad_fn=<NllLossBackward0>) tensor(2.3041, grad_fn=<NllLossBackward0>) tensor(2.3012, grad_fn=<NllLossBackward0>) tensor(2.3043, grad_fn=<NllLossBackward0>) tensor(2.2760, grad_fn=<NllLossBackward0>) tensor(2.3051, grad_fn=<NllLossBackward0>) tensor(2.2951, grad_fn=<NllLossBackward0>) tensor(2.3168, grad_fn=<NllLossBackward0>) tensor(2.3140, grad_fn=<NllLossBackward0>) tensor(2.3096, grad_fn=<NllLossBackward0>) tensor(2.2945, grad_fn=<NllLossBackward0>) tensor(2.3115, grad_fn=<NllLossBackward0>) tensor(2.2987, grad_fn=<NllLossBackward0>) tensor(2.3029, grad_fn=<NllLossBackward0>) tensor(2.3096, grad_fn=<NllLossBackward0>) tensor(2.3064, grad_fn=<NllLossBackward0>) tensor(2.3161, grad_fn=<NllLossBackward0>) tensor(2.3129, grad_fn=<NllLossBackward0>) tensor(2.2903, grad_fn=<NllLossBackward0>) tensor(2.3043, grad_fn=<NllLossBackward0>) tensor(2.3034, grad_fn=<NllLossBackward0>) tensor(2.3169, grad_fn=<NllLossBackward0>) tensor(2.3090, grad_fn=<NllLossBackward0>) tensor(2.3039, grad_fn=<NllLossBackward0>) tensor(2.3019, grad_fn=<NllLossBackward0>) tensor(2.3071, grad_fn=<NllLossBackward0>) tensor(2.3018, grad_fn=<NllLossBackward0>) tensor(2.3083, grad_fn=<NllLossBackward0>) tensor(2.2994, grad_fn=<NllLossBackward0>) tensor(2.2909, grad_fn=<NllLossBackward0>) tensor(2.3130, grad_fn=<NllLossBackward0>) tensor(2.2993, grad_fn=<NllLossBackward0>) tensor(2.2906, grad_fn=<NllLossBackward0>) tensor(2.3084, grad_fn=<NllLossBackward0>) tensor(2.3123, grad_fn=<NllLossBackward0>) tensor(2.2931, grad_fn=<NllLossBackward0>) tensor(2.3059, grad_fn=<NllLossBackward0>) tensor(2.3117, grad_fn=<NllLossBackward0>) tensor(2.2975, grad_fn=<NllLossBackward0>) tensor(2.3109, grad_fn=<NllLossBackward0>) tensor(2.3029, grad_fn=<NllLossBackward0>) tensor(2.3020, grad_fn=<NllLossBackward0>) tensor(2.3022, grad_fn=<NllLossBackward0>) tensor(2.3005, grad_fn=<NllLossBackward0>) tensor(2.2920, grad_fn=<NllLossBackward0>) tensor(2.3016, grad_fn=<NllLossBackward0>) tensor(2.3053, grad_fn=<NllLossBackward0>) tensor(2.3082, grad_fn=<NllLossBackward0>) tensor(2.3011, grad_fn=<NllLossBackward0>) tensor(2.3040, grad_fn=<NllLossBackward0>) tensor(2.3130, grad_fn=<NllLossBackward0>) tensor(2.2981, grad_fn=<NllLossBackward0>) tensor(2.2977, grad_fn=<NllLossBackward0>) tensor(2.2994, grad_fn=<NllLossBackward0>) tensor(2.3075, grad_fn=<NllLossBackward0>) tensor(2.3016, grad_fn=<NllLossBackward0>) tensor(2.2966, grad_fn=<NllLossBackward0>) tensor(2.3015, grad_fn=<NllLossBackward0>) tensor(2.3000, grad_fn=<NllLossBackward0>) tensor(2.2953, grad_fn=<NllLossBackward0>) tensor(2.2958, grad_fn=<NllLossBackward0>) tensor(2.2977, grad_fn=<NllLossBackward0>) tensor(2.2928, grad_fn=<NllLossBackward0>) tensor(2.2989, grad_fn=<NllLossBackward0>) tensor(2.2968, grad_fn=<NllLossBackward0>) tensor(2.2982, grad_fn=<NllLossBackward0>) tensor(2.2912, grad_fn=<NllLossBackward0>) tensor(2.3005, grad_fn=<NllLossBackward0>) tensor(2.2909, grad_fn=<NllLossBackward0>) tensor(2.2940, grad_fn=<NllLossBackward0>) tensor(2.2959, grad_fn=<NllLossBackward0>) tensor(2.2993, grad_fn=<NllLossBackward0>) tensor(2.2933, grad_fn=<NllLossBackward0>) tensor(2.2951, grad_fn=<NllLossBackward0>) tensor(2.2824, grad_fn=<NllLossBackward0>) tensor(2.2987, grad_fn=<NllLossBackward0>) tensor(2.2961, grad_fn=<NllLossBackward0>) tensor(2.2914, grad_fn=<NllLossBackward0>) tensor(2.3025, grad_fn=<NllLossBackward0>) tensor(2.2895, grad_fn=<NllLossBackward0>) tensor(2.2943, grad_fn=<NllLossBackward0>) tensor(2.2974, grad_fn=<NllLossBackward0>) tensor(2.2977, grad_fn=<NllLossBackward0>) tensor(2.3069, grad_fn=<NllLossBackward0>) tensor(2.2972, grad_fn=<NllLossBackward0>) tensor(2.2979, grad_fn=<NllLossBackward0>) tensor(2.2932, grad_fn=<NllLossBackward0>) tensor(2.2940, grad_fn=<NllLossBackward0>) tensor(2.3014, grad_fn=<NllLossBackward0>) tensor(2.2958, grad_fn=<NllLossBackward0>) tensor(2.3013, grad_fn=<NllLossBackward0>) tensor(2.2953, grad_fn=<NllLossBackward0>) tensor(2.2951, grad_fn=<NllLossBackward0>) tensor(2.3116, grad_fn=<NllLossBackward0>) tensor(2.2916, grad_fn=<NllLossBackward0>) tensor(2.2871, grad_fn=<NllLossBackward0>) tensor(2.2975, grad_fn=<NllLossBackward0>) tensor(2.2950, grad_fn=<NllLossBackward0>) tensor(2.3039, grad_fn=<NllLossBackward0>) tensor(2.2901, grad_fn=<NllLossBackward0>) tensor(2.2950, grad_fn=<NllLossBackward0>) tensor(2.2958, grad_fn=<NllLossBackward0>) tensor(2.2893, grad_fn=<NllLossBackward0>) tensor(2.2917, grad_fn=<NllLossBackward0>) tensor(2.3001, grad_fn=<NllLossBackward0>) tensor(2.2988, grad_fn=<NllLossBackward0>) tensor(2.3069, grad_fn=<NllLossBackward0>) tensor(2.3083, grad_fn=<NllLossBackward0>) tensor(2.2841, grad_fn=<NllLossBackward0>) tensor(2.2932, grad_fn=<NllLossBackward0>) tensor(2.2857, grad_fn=<NllLossBackward0>) tensor(2.2971, grad_fn=<NllLossBackward0>) tensor(2.2999, grad_fn=<NllLossBackward0>) tensor(2.2911, grad_fn=<NllLossBackward0>) tensor(2.2977, grad_fn=<NllLossBackward0>) tensor(2.3027, grad_fn=<NllLossBackward0>) tensor(2.2940, grad_fn=<NllLossBackward0>) tensor(2.2939, grad_fn=<NllLossBackward0>) tensor(2.2950, grad_fn=<NllLossBackward0>) tensor(2.2951, grad_fn=<NllLossBackward0>) tensor(2.3000, grad_fn=<NllLossBackward0>) tensor(2.2935, grad_fn=<NllLossBackward0>) tensor(2.2817, grad_fn=<NllLossBackward0>) tensor(2.2977, grad_fn=<NllLossBackward0>) tensor(2.3067, grad_fn=<NllLossBackward0>) tensor(2.2742, grad_fn=<NllLossBackward0>) tensor(2.2964, grad_fn=<NllLossBackward0>) tensor(2.2927, grad_fn=<NllLossBackward0>) tensor(2.2941, grad_fn=<NllLossBackward0>) tensor(2.3003, grad_fn=<NllLossBackward0>) tensor(2.2965, grad_fn=<NllLossBackward0>) tensor(2.2908, grad_fn=<NllLossBackward0>) tensor(2.2885, grad_fn=<NllLossBackward0>) tensor(2.2984, grad_fn=<NllLossBackward0>) tensor(2.3009, grad_fn=<NllLossBackward0>) tensor(2.2931, grad_fn=<NllLossBackward0>) tensor(2.2856, grad_fn=<NllLossBackward0>) tensor(2.2907, grad_fn=<NllLossBackward0>) tensor(2.2938, grad_fn=<NllLossBackward0>) tensor(2.2880, grad_fn=<NllLossBackward0>) tensor(2.2975, grad_fn=<NllLossBackward0>) tensor(2.2922, grad_fn=<NllLossBackward0>) tensor(2.2966, grad_fn=<NllLossBackward0>) tensor(2.2804, grad_fn=<NllLossBackward0>)
9.3 神经网络优化多轮
import torch
import torchvision
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10("./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=True)
dataloader = DataLoader(dataset, batch_size=64,drop_last=True)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 = Sequential(Conv2d(3,32,5,padding=2),MaxPool2d(2),Conv2d(32,32,5,padding=2),MaxPool2d(2),Conv2d(32,64,5,padding=2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x = self.model1(x)return xloss = nn.CrossEntropyLoss() # 交叉熵
tudui = Tudui()
optim = torch.optim.SGD(tudui.parameters(),lr=0.01) # 随机梯度下降优化器
for epoch in range(20):running_loss = 0.0for data in dataloader:imgs, targets = dataoutputs = tudui(imgs)result_loss = loss(outputs, targets) # 计算实际输出与目标输出的差距optim.zero_grad() # 梯度清零result_loss.backward() # 反向传播,计算损失函数的梯度optim.step() # 根据梯度,对网络的参数进行调优running_loss = running_loss + result_lossprint(running_loss) # 对这一轮所有误差的总和
结果:
Files already downloaded and verified tensor(358.1069, grad_fn=<AddBackward0>) tensor(353.8411, grad_fn=<AddBackward0>) tensor(337.3790, grad_fn=<AddBackward0>) tensor(317.3237, grad_fn=<AddBackward0>) tensor(307.6762, grad_fn=<AddBackward0>) tensor(298.2425, grad_fn=<AddBackward0>) tensor(289.7010, grad_fn=<AddBackward0>) tensor(282.7116, grad_fn=<AddBackward0>) tensor(275.8972, grad_fn=<AddBackward0>) tensor(269.5961, grad_fn=<AddBackward0>) tensor(263.8480, grad_fn=<AddBackward0>) tensor(258.5006, grad_fn=<AddBackward0>) tensor(253.4671, grad_fn=<AddBackward0>) tensor(248.7994, grad_fn=<AddBackward0>) tensor(244.4917, grad_fn=<AddBackward0>) tensor(240.5728, grad_fn=<AddBackward0>) tensor(236.9719, grad_fn=<AddBackward0>) tensor(233.6264, grad_fn=<AddBackward0>) tensor(230.4298, grad_fn=<AddBackward0>) tensor(227.3427, grad_fn=<AddBackward0>)
9.4 神经网络学习率优化
import torch
import torchvision
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10("./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=True)
dataloader = DataLoader(dataset, batch_size=64,drop_last=True)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() self.model1 = Sequential(Conv2d(3,32,5,padding=2),MaxPool2d(2),Conv2d(32,32,5,padding=2),MaxPool2d(2),Conv2d(32,64,5,padding=2),MaxPool2d(2),Flatten(),Linear(1024,64),Linear(64,10))def forward(self, x):x = self.model1(x)return xloss = nn.CrossEntropyLoss() # 交叉熵
tudui = Tudui()
optim = torch.optim.SGD(tudui.parameters(),lr=0.01) # 随机梯度下降优化器
scheduler = torch.optim.lr_scheduler.StepLR(optim, step_size=5, gamma=0.1) # 每过 step_size 更新一次优化器,更新是学习率为原来的学习率的的 0.1 倍
for epoch in range(20):running_loss = 0.0for data in dataloader:imgs, targets = dataoutputs = tudui(imgs)result_loss = loss(outputs, targets) # 计算实际输出与目标输出的差距optim.zero_grad() # 梯度清零result_loss.backward() # 反向传播,计算损失函数的梯度optim.step() # 根据梯度,对网络的参数进行调优scheduler.step() # 学习率太小了,所以20个轮次后,相当于没走多少running_loss = running_loss + result_lossprint(running_loss) # 对这一轮所有误差的总和
结果:
Files already downloaded and verified tensor(359.4722, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>) tensor(359.4630, grad_fn=<AddBackward0>)
相关文章:
![](https://www.ngui.cc/images/no-images.jpg)
9. 优化器
9.1 优化器 ① 损失函数调用backward方法,就可以调用损失函数的反向传播方法,就可以求出我们需要调节的梯度,我们就可以利用我们的优化器就可以根据梯度对参数进行调整,达到整体误差降低的目的。 ② 梯度要清零,如果梯…...
![](https://img-blog.csdnimg.cn/17b878659990461da6d02eacced7cb61.jpeg#pic_center)
go学习之流程控制语句
文章目录 流程控制语句1.顺序控制2.分支控制2.1单分支2.2双分支单分支和双分支的四个题目switch分支结构 3.循环控制for循环控制while 和do...while的实现 4.跳转控制语句breakcontinuegotoreturngotoreturn 流程控制语句 介绍:在程序中,程序运行的流程…...
![](https://www.ngui.cc/images/no-images.jpg)
docker基于已有容器和通过Dockerfile进行制作镜像配置介绍
目录 一.制作镜像的两种方式 1.在已有容器中更新并提交这个镜像 2.使用Dockerfile来制作 二.基于容器制作镜像 1.格式 (1)主要格式 (2)可选参数 2.案例 基于容器创建镜像设置标签并进行验证是否可用 (1&…...
![](https://img-blog.csdnimg.cn/1c573d21f06541668d0c2e77cde86421.png)
2022年09月 C/C++(四级)真题解析#中国电子学会#全国青少年软件编程等级考试
第1题:最长上升子序列 一个数的序列bi,当b1 < b2 < … < bS的时候,我们称这个序列是上升的。对于给定的一个序列(a1, a2, …, aN),我们可以得到一些上升的子序列(ai1, ai2, …, aiK),这里1 < i1 < i2 &…...
![](https://img-blog.csdnimg.cn/db917e5cf05d4893a03409b53d349eac.png)
二级MySQL(九)——表格数据处理练习
在Mysql中,可以用INSERT或【REPLACE】语句,向数据库中已一个已有的表中插入一行或多行记录。 在Mysql中,可以用【DELETE】或【TRUNCATE】语句删除表中的所有记录。 在Mysql中,可以用【UPDATE】语句来修改数据表中的记录。 为了完…...
![](https://www.ngui.cc/images/no-images.jpg)
QT ListQvector at赋值出错以及解决办法 QT基础入门【QT存储结构】
1、问题 error: passing const QString as this argument discards qualifiers error: assignment of read-only location vec.QVector<int>::at(0) 在Qt中QList,Qvector一般获取元素都是通过at(index)来获取,但是at()的返回是一个const & 常引用,也就是元素不支…...
![](https://img-blog.csdnimg.cn/224d1a2ebfc54dcf9baabd01a4d8fcac.gif)
STM32 CubeMX (H750)RGB屏幕 LTDC
STM32 CubeMX STM32 RGB888 LTDC STM32 CubeMX一、STM32 CubeMX 设置时钟树LTDC使能设置屏幕参数修改RGB888的GPIO 二、代码部分效果 RGB屏幕线束定义: 一、STM32 CubeMX 设置 时钟树 这里设置的时钟,关于刷新速度 举例子:LCD_CLK24MHz 时…...
![](https://img-blog.csdnimg.cn/75d500a5aafe4940be8b4209a4263541.png)
Redis问题集合(三)在Redis容器里设置键值对
前言 前提是已经拉取了Redis镜像并创建了对应的容器做个记录,方便后续查看 步骤 查看Redis容器的ID:docker ps -a 进入容器:docker exec -it 容器ID /bin/bash进入redis命令行:redis-cli输入密码:auth 配置密码 查看…...
![](https://img-blog.csdnimg.cn/73c7c607d5e34ae489c9283ce89260bd.png)
spark中排查Premature EOF: no length prefix available
报错信息 /07/22 10:20:28 WARN DFSClient: Error Recovery for block BP-888461729-172.16.34.148-1397820377004:blk_15089246483_16183344527 in pipeline 172.16.34.64:50010, 172.16.34.223:50010: bad datanode 172.16.34.64:50010 [DataStreamer for file /bdp/data/u9…...
![](https://www.ngui.cc/images/no-images.jpg)
numpy高级函数之where和extract函数
1 numpy.where() 函数返回输入数组中满足给定条件的元素的索引 ---------------------------------------------------- 代码: n1np.random.randint(10,20,10) n2np.where(n1>15) 结果: [17 15 19 15 12 10 16 11 15 13] #原始数组 (array([…...
![](https://img-blog.csdnimg.cn/bf9279a673364672a2c67800212c40bd.png)
用Python写一个武侠游戏
前言 在本教程中,我们将使用Python写一个武侠类的游戏,大的框架全部搭好了,很多元素都可以自己添加,让游戏更丰富 📝个人主页→数据挖掘博主ZTLJQ的主页 个人推荐python学习系列: ☄️爬虫JS逆向系列专栏 -…...
![](https://img-blog.csdnimg.cn/6e18cdae55a745aa96d8c7fa5058bb4b.jpeg)
Java --- 异常处理
目录 一、什么是异常 二、异常抛出机制 三、如何对待异常 四、 Java异常体系 4.1、Throwable 4.2、Error 4.2、Exception 4.2.1、编译时异常 4.2.2、运行时期异常 五、异常处理 5.1、捕获异常(try-catch) 5.1.2、catch中异常处理方式 …...
![](https://img-blog.csdnimg.cn/0aa6f2e162d149c89088e529043a4902.png)
CDN/DCDN(全站加速)排查过程中如何获取Eagle ID/UUID
目录 前言1.通过浏览器直接访问文件时获取Request ID 前言 阿里云CDN/DCDN(全站加速)为接收到的每个请求分配唯一的服务器请求ID,作为关联各类日志信息的标识符。当您在使用CDN/DCDN(全站加速)过程中遇到错误且希望阿里云技术支持提供协助时,需要提交失…...
![](https://www.ngui.cc/images/no-images.jpg)
网络安全应急响应预案培训与演练目的
1、增强网络安全意识 网络安全事故隐患往往“生成”于无形。例如,漏洞或黑客攻 击发生之时,受害方企事业单位可能处于非常危险的境地而无所察 觉,一些内部部门人员的网络安全意识也容易懈怠。但不论是内部 员工的疏忽还是管理上的大意&am…...
![](https://img-blog.csdnimg.cn/560e1e21002943d28d3375e2c034f49d.png)
2023年高教社杯 国赛数学建模思路 - 复盘:校园消费行为分析
文章目录 0 赛题思路1 赛题背景2 分析目标3 数据说明4 数据预处理5 数据分析5.1 食堂就餐行为分析5.2 学生消费行为分析 建模资料 0 赛题思路 (赛题出来以后第一时间在CSDN分享) https://blog.csdn.net/dc_sinor?typeblog 1 赛题背景 校园一卡通是集…...
![](https://img-blog.csdnimg.cn/d4b727c1e138468ca073d1315ac23ede.png)
7.Oracle视图创建与使用
1、视图的创建与使用 在所有进行的SQL语句之中,查询是最复杂的操作,而且查询还和具体的开发要求有关,那么在开发过程之中,程序员完成的并不是是和数据库的所有内容,而更多的是应该考虑到程序的设计结构。可以没有一个项…...
![](https://www.ngui.cc/images/no-images.jpg)
rust学习-不安全操作
在 Rust 中,不安全代码块用于避开编译器的保护策略 四种不安全操作 解引用裸指针通过 FFI (Foreign Function Interface,外部语言函数接口)调用函数调用不安全的函数内联汇编(inline assembly)解引用裸指针 原始指针(raw pointer,裸指针)* 和引用 &T 有类似的功…...
![](https://img-blog.csdnimg.cn/51d675262c244de3a4597d9917aa58ac.png)
RHCE——八、DNS域名解析服务器
RHCE 一、概述1、产生原因2、作用3、连接方式4、因特网的域名结构4.1 拓扑4.2 分类4.3 域名服务器类型划分 二、DNS域名解析过程1、分类2、解析图:2.1 图:2.2 过程分析 三、搭建DNS域名解析服务器1、概述2、安装软件3、/bind服务中三个关键文件4、配置文…...
![](https://www.ngui.cc/images/no-images.jpg)
flink cdc初始全量速度很慢原因和优化点
link cdc初始全量速度很慢的原因之一是,它需要先读取所有的数据,然后再写入到目标端,这样可以保证数据的一致性和顺序。但是这样也会导致数据的延迟和资源的浪费。flink cdc初始全量速度很慢的原因之二是,它使用了Debezium作为捕获…...
![](https://img-blog.csdnimg.cn/4a5d4116ddd8453b8b16552797279006.png)
论文笔记: MOGRIFIER LSTM
2020 ICLR 修改传统LSTM 当前输入和隐藏状态充分交互,从而获得更佳的上下文相关表达 1 Mogrifier LSTM LSTM的输入X和隐藏状态H是完全独立的 机器学习笔记:GRU_gruc_UQI-LIUWJ的博客-CSDN博客这篇论文想探索,如果在输入LSTM之前…...
![](https://img-blog.csdnimg.cn/b02c598b75234c439266c14600a6a0f8.png)
Angular中使用drag and drop实现文件拖拽上传,及flask后端接收
效果:拖拽文件到组件上面时 边框变大变红 松手后发送到服务器(或者点击蓝字手动选择文件)并且把文件名显示在框内,美化还没做 html <div class"drapBox"><div id"drop" (dragenter)"dragenter($event)" (dragov…...
![](https://img-blog.csdnimg.cn/img_convert/b25f8a5ab87df082f2863791fcae152c.png#?w=1381&h=574&e=png&b=fdfdfd)
Spring Authorization Server入门 (十六) Spring Cloud Gateway对接认证服务
前言 之前虽然单独讲过Security Client和Resource Server的对接,但是都是基于Spring webmvc的,Gateway这种非阻塞式的网关是基于webflux的,对于集成Security相关内容略有不同,且涉及到代理其它微服务,所以会稍微比较麻…...
![](https://img-blog.csdnimg.cn/f9504804c9fa45aa9eed1e2c19566b88.png)
配置Flink
配置flink_1.17.0 1.Flink集群搭建1.1解压安装包1.2修改集群配置1.3分发安装目录1.4启动集群、访问Web UI 2.Standalone运行模式3.YARN运行模式4.K8S运行模式 1.Flink集群搭建 1.1解压安装包 链接: 下载Flink安装包 解压文件 [gpbhadoop102 software]$ tar -zxvf flink-1.1…...
![](https://img-blog.csdnimg.cn/e6fb5cbb4da64f7398b3b00164890a9b.png)
39、springboot的前端静态资源的WebJar支持(bootstrap、jquery等)及自定义图标和首页
★ WebJar支持 Spring Boot支持加载WebJar包中的静态资源(图片、JS、CSS), WebJar包中的静态资源都会映射到/webjars/**路径。——这种方式下,完全不需要将静态资源复制到应用的静态资源目录下。只要添加webjar即可。假如在应用的…...
![](https://img-blog.csdnimg.cn/img_convert/11253537c526df0427c6d09ca545922d.png)
【图论】缩点的综合应用(一)
一.缩点的概念 缩点,也称为点缩法(Vertex Contraction),是图论中的一种操作,通常用于缩小图的规模,同时保持了图的某些性质。这个操作的目标是将图中的一些节点合并为一个超级节点,同时调整相关…...
![](https://www.ngui.cc/images/no-images.jpg)
C++—纯虚函数
一、前言 定义一个函数为虚函数,不代表函数为不被实现的函数。 定义函数为虚函数是为了允许用基类的指针来调用子类的这个函数。 定义一个函数为纯虚函数,才代表函数没有被实现。 定义纯虚函数是为了实现一个接口,起到一个规范的作用&…...
![](https://www.ngui.cc/images/no-images.jpg)
经过卷积神经网络之后的图片的尺寸如何计算
经过卷积神经网络(Convolutional Neural Network,CNN)处理后,图片的尺寸会发生变化,这是由于卷积层、池化层等操作引起的。计算图片经过卷积神经网络后的尺寸变化通常需要考虑卷积核大小、步幅(stride&…...
![](https://www.ngui.cc/images/no-images.jpg)
Java升级JDK17(更高版本同理),修改maven
记住三个网址就行:下面这个是oracle的 Java Platform, Standard Edition 17 ReferenceImplementations https://www.oracle.com/java/technologies/downloads/#jdk17-windows 另外一个 redhat旗下的:这个是开源的(推荐这个!&am…...
![](https://img-blog.csdnimg.cn/img_convert/6f604a91f31369a47f472f896fd2aa25.png)
Go测试之.golden 文件
Go测试中的.golden 文件是干什么用的?请举例说明 在Go语言中,.golden文件通常用于测试中的黄金文件(golden files)。黄金文件是在测试期间记录预期输出结果的文件。测试用例运行时,黄金文件用于比较实际输出与预期输出…...
![](https://img-blog.csdnimg.cn/8f91680a03ca4336a1e2a02a06400749.png#pic_center)
回归预测 | MATLAB实现GA-RF遗传算法优化随机森林算法多输入单输出回归预测(多指标,多图)
回归预测 | MATLAB实现GA-RF遗传算法优化随机森林算法多输入单输出回归预测(多指标,多图) 目录 回归预测 | MATLAB实现GA-RF遗传算法优化随机森林算法多输入单输出回归预测(多指标,多图)效果一览基本介绍程…...
![](https://img-blog.csdnimg.cn/f6d6c3f3fdc446cc86062a9b517aeb78.jpg?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAemh0ZWxlY29t,size_20,color_FFFFFF,t_70,g_se,x_16)
网站域名后缀那个好/输入关键词自动生成文章
智和网管平台以提供全方位网络监控功能,全面管理联网设备为目标,深入用户需求,实现个性化网络监控解决方案。监控设备类型覆盖网络设备、服务器、交换机、中间件、数据库、安全设备、应用服务等;监测指标涵盖连通性、可用性、负载…...
![](https://img2018.cnblogs.com/blog/1449963/201810/1449963-20181008214545994-1633965803.png)
郑州做企业网站哪家好/推广找客户平台
此处进行简单的分类,对于普通的网页爬取内容,如果没有登录界面可以直接使用Jsoup的API进行爬取; 如果网站是在打开目标也之前需要进行登录,此时需要先使用用户加密码实现登录获取Cookie然后进行登录; 本文就第二种方式…...
![](https://s1.51cto.com/attachment/201010/003157434.jpg)
哈尔滨做网站seo的/如何进行网站推广?网站推广的基本手段有哪些
故事是这样发生的:前几天和同事在公司吃饭,同事讲起他早年间相亲的故事。女方是某IT公司的HR,研究生学历,两人第一次见面的一段对话,觉得非常的有意思。 两人是共同的朋友介绍的,第一次见面地点商定在一家餐…...
![](/images/no-images.jpg)
中小企业做网站贷款/如何在互联网推广自己的产品
变量的命名要注意,不要使用- ,而推荐使用_ 变量可以通过group来定义,也就是定义一些变量给整个组使用,例如: group_vars/ ├── all └── dbservers 对应的就是我们hosts中定义的组 当然,也可以在playbook中直接…...
![](/images/no-images.jpg)
杭州网站建设培训班/百度免费下载安装百度
JAVA方法和本地方法 原地址http://blog.sina.com.cn/s/blog_5b9b4abe01016zw0.html JAVA中有两种方法:JAVA方法和本地方法 JAVA方法是由JAVA编写的,编译成字节码,存储在class文件中本地方法是由其它语言编写的,编译成和处理器相关…...
![](https://img-blog.csdnimg.cn/04ea9887414e4e61a255d178201ec889.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAYTE4MDkwMzI0MjU=,size_20,color_FFFFFF,t_70,g_se,x_16)
找外包网站 和自己做/中国seo高手排行榜
iptables命令、规则、参数详解 参考链接:iptables命令、规则、参数详解 - zclzhao - 博客园 表 (table) 包含4个表: 4个表的优先级由高到低:raw-->mangle-->nat-->filter raw---RAW表只使用在PREROUTING链和OUTPUT链上,因为优先…...