当前位置: 首页 > news >正文

Mindspore安装

本文用于记录搭建昇思MindSpore开发及使用环境的过程,并通过MindSpore的API快速实现了一个简单的深度学习模型。

什么是MindSpore?

昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景覆盖三大目标。

安装步骤

鉴于笔者手头硬件资源有限,这里采用的环境是CPU。如下是在CPU环境的Windows系统上,使用pip方式快速安装MindSpore的步骤:

  1. 确认系统环境信息
  • 确认安装Windows 10是x86架构64位操作系统。
  • 确认安装Python(>=3.7.5),已有Python环境是Python3.9.7版本,满足要求。
  1. 安装MindSpore

运行以下命令:

# Python3.9
pip install https://ms-release.obs.cn-north-4.myhuaweicloud.com/2.0.0a0/MindSpore/cpu/x86_64/mindspore-2.0.0a0-cp39-cp39-win_amd64.whl --trusted-host ms-release.obs.cn-north-4.myhuaweicloud.com -i https://pypi.tuna.tsinghua.edu.cn/simple

在联网状态下,安装whl包时会自动下载mindspore安装包的依赖项。

安装报错

ERROR: Could not install packages due to an OSError: [WinError 5] 拒绝访问。: 'D:\\Program Files\\Anaconda\\Lib\\site-packages\\~-mpy\\.libs\\libopenblas.FB5AE2TYXYH2IJRDKGDGQ3XBKLKTF43H.gfortran-win_amd64.dll' Consider using the `--user` option or check the permissions.

在这里插入图片描述

这是因为pip安装模块的权限不够导致失败,笔者是通过执行下面的命令得以解决。

pip install -i http://pypi.douban.com/simple/  pip -U --trusted-host pypi.douban.com --user

执行完上述命令之后再次安装mindspore,如下图。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sRliKJ4o-1676715767200)(imgs/230217155424.png)]

在这里插入图片描述

  1. 验证安装是否成功
python -c "import mindspore;mindspore.run_check()"

输出如下内容,表明安装成功。

在这里插入图片描述

快速入门

这里以手写体数字识别为例,体验了基于MindSpore的API实现深度学习模型的过程。

场景描述

本文使用Mindspore,基于Resnet50神经网络完成手写体数字识别。

数据集处理

下载Mnist数据集

Mnist数据集是机器学习领域的一款经典数据集,其中包括6w个训练样本和1w个测试样本,每个样本都是28*28像素的灰度手写数字图片,数字0-9共10类。通过如下代码下载:

# Download data from open datasets
from download import downloadurl = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/" \"notebook/datasets/MNIST_Data.zip"
path = download(url, "./", kind="zip", replace=True)

在这里插入图片描述

获取数据集对象

train_dataset = MnistDataset('MNIST_Data/train')
test_dataset = MnistDataset('MNIST_Data/test')
print(train_dataset.get_col_names()) #['image', 'label']

数据集目录如下,其中标记为images的是图片,labels是标签。

在这里插入图片描述

数据处理

数据集自动下载完成后,可使用数据处理模块 mindspore.dataset 进行预处理。这里采用的是流水线处理,在海量数据下,该处理模式可以实现数据的高效处理,当然也会占用更多的CPU和内存资源。

  1. 使用map对图像数据及标签进行变换处理,并将处理完的数据集打包,batchsize为64。map函数会将数据集中第二个参数的指定的列作为输入,调用第一个参数的处理函数执行处理,如果有多个处理函数,上一个函数的输出作为下一个函数的输入。其中,map的第一个参数是处理函数列表,第二个参数表示需要处理的列。
def data_process(dataset, batch_size):image_transforms = [#图像缩放,输出像素值output = image * rescale + shift.vision.Rescale(1.0 / 255.0, 0),#根据平均值和标准偏差对输入图像进行归一化,其中,mean是图像各个通道的均值,std是各个通道的标准差vision.Normalize(mean=(0.1307,), std=(0.3081,)),#转换图像格式,在不同的硬件设备中可能会对(height, width, channel)# 或(channel, height, width)两种不同格式有针对性优化。MindSpore设# 置HWC为默认图像格式,在有CWH格式需求时,可使用该变换进行处理。vision.HWC2CHW()]# 转为mindspore的int32格式label_transform = transforms.TypeCast(mindspore.int32)# 对各个图像按照流水线处理dataset = dataset.map(image_transforms, 'image')# 将各个标签转为int32类型dataset = dataset.map(label_transform, 'label')dataset = dataset.batch(batch_size)return datasettrain_dataset = data_process(train_dataset, 64)
test_dataset = data_process(test_dataset, 64)
  1. 使用create_tuple_iterator或create_dict_iterator对数据集进行迭代。
# image, label = next(train_dataset.create_tuple_iterator())for image, label in test_dataset.create_tuple_iterator():print(f"Shape of image [N, C, H, W]: {image.shape} {image.dtype}")print(f"Shape of label: {label.shape} {label.dtype}")breakfor data in test_dataset.create_dict_iterator():print(f"Shape of image [N, C, H, W]: {data['image'].shape} {data['image'].dtype}")print(f"Shape of label: {data['label'].shape} {data['label'].dtype}")break

网络构建

基于mindspore的nn.Cell类,构建Resnet50神经网络。

神经网络模型由神经网络层和Tensor操作构成,基于 mindspore.nn 可实现常见的神经网络层,其中 nn.Cell 类是构建所有网络的基类,也是网络的基本单元。一个神经网络模型可表示为一个Cell,它又是由
不同的子Cell组成。基于这样的嵌套结构,即可简单地使用面向对象编程的思维,对神经网络结构进行构建和管理。

定义模型类

定义神经网络模型继承nn.Cell类,再在__init__方法中进行子Cell的实例化和状态管理,在construct方法中实现Tensor操作。

class Network(nn.Cell):def __init__(self):super().__init__()self.flatten = nn.Flatten()self.dense_relu_sequential = nn.SequentialCell(nn.Dense(28*28, 512),nn.ReLU(),nn.Dense(512, 512),nn.ReLU(),nn.Dense(512, 10))def construct(self, x):x = self.flatten(x)logits = self.dense_relu_sequential(x)return logits

构建完成后,实例化Network对象,并查看结构。

model = Network()
print(model)

在这里插入图片描述

模型层分解

构造一个shape为(3, 28, 28)的随机数据(3个28x28的图像)。

input_image = ops.ones((3, 28, 28), mindspore.float32)
print(input_image.shape) #(3, 28, 28)
  • nn.Flatten

    实例化nn.Flatten层,将28x28的2D张量转换为784大小的连续数组。

    flatten = nn.Flatten()
    flat_image = flatten(input_image)
    print(flat_image.shape) # (3, 784)
    
  • nn.Dense

    nn.Dense为全连接层,其使用权重和偏差对输入进行线性变换。

    layer1 = nn.Dense(in_channels=28*28, out_channels=20)
    hidden1 = layer1(flat_image)
    print(hidden1.shape) #(3, 20)
    
  • nn.ReLU

    nn.ReLU层给网络中加入非线性的激活函数,帮助神经网络学习各种复杂的特征。

    print(f"Before ReLU: {hidden1}\n\n")
    hidden1 = nn.ReLU()(hidden1)
    print(f"After ReLU: {hidden1}")
    

在这里插入图片描述

  • nn.SequentialCell

    nn.SequentialCell是一个有序的Cell容器。输入Tensor将按照定义的顺序通过所有Cell。我们可以使用SequentialCell来快速组合构造一个神经网络模型。

    seq_modules = nn.SequentialCell(flatten,layer1,nn.ReLU(),nn.Dense(20, 10)
    )logits = seq_modules(input_image)
    print(logits.shape) #(3,10)
    
  • nn.Softmax

    最后使用nn.Softmax将神经网络最后一个全连接层返回的logits的值缩放为[0, 1],表示每个类别的预测概率。axis指定的维度数值和为1。

    softmax = nn.Softmax(axis=1)
    pred_probab = softmax(logits)
    

    输出如下:

    [[0.09906127 0.09989168 0.101061   0.10052359 0.09982764 0.1007046
    0.10100672 0.09960879 0.09997301 0.09834171]
    [0.09906127 0.09989168 0.101061   0.10052359 0.09982764 0.1007046
    0.10100672 0.09960879 0.09997301 0.09834171]
    [0.09906127 0.09989168 0.101061   0.10052359 0.09982764 0.1007046
    0.10100672 0.09960879 0.09997301 0.09834171]]
    

模型参数

网络内部神经网络层具有权重参数和偏置参数(如nn.Dense),这些参数会在训练过程中不断进行优化,可通过 model.parameters_and_names() 来获取参数名及对应的参数详情。

print(f"Model structure: {model}\n\n")for name, param in model.parameters_and_names():print(f"Layer: {name}\nSize: {param.shape}\nValues : {param[:2]} \n")

在这里插入图片描述

模型训练

#定义损失函数和优化器
loss_fn = nn.CrossEntropyLoss()
optimizer = nn.SGD(model.trainable_params(), 1e-2)

通常,一个完成的模型训练过程包括如下三步:

  1. 正向计算:模型对结果预测,输出logits值,并与正确标签label求预测损失loss。
  2. 反向传播:利用自动微分机制,自动求模型参数(parameters)对于loss的梯度(gradients)。
  3. 参数优化:将梯度更新到参数上。
# 定义正向计算函数
def forward_fn(data, label):logits = model(data)loss = loss_fn(logits, label)return loss, logits#通过mindspore中的函数变换获取梯度计算函数
grad_fn = mindspore.value_and_grad(forward_fn, None, optimizer.parameters, has_aux=True)# 定义训练函数
def train_step(data, label):(loss, _), grads = grad_fn(data, label)optimizer(grads)return lossdef train(model, dataset):size = dataset.get_dataset_size()model.set_train()for batch, (data, label) in enumerate(dataset.create_tuple_iterator()):loss = train_step(data, label)if batch % 100 == 0:loss, current = loss.asnumpy(), batchprint(f"loss: {loss:>7f}  [{current:>3d}/{size:>3d}]")

定义测试函数,评估模型性能。

def test(model, dataset, loss_fn):num_batches = dataset.get_dataset_size()model.set_train(False)total, test_loss, correct = 0, 0, 0for data, label in dataset.create_tuple_iterator():pred = model(data)total += len(data)test_loss += loss_fn(pred, label).asnumpy()correct += (pred.argmax(1) == label).asnumpy().sum()test_loss /= num_batchescorrect /= totalprint(f"Test: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")

训练过程需多次迭代数据集,一次完整的迭代称为一轮(epoch)。在每一轮,遍历训练集进行训练,结束后使用测试集进行预测。打印每一轮的loss值和预测准确率(Accuracy),可以看出,
loss不断下降,准确度不断提高。

epochs = 3
for t in range(epochs):print(f"Epoch {t+1}\n-------------------------------")train(model, train_dataset)test(model, test_dataset, loss_fn)
print("Done!")

在这里插入图片描述

保存模型

模型训练完成后,将参数进行保存。

# Save checkpoint
mindspore.save_checkpoint(model, "model.ckpt")
print("Saved Model to model.ckpt")

加载模型

加载模型包括两步,具体如下。

# 实例化模型对象,构造模型。
model = Network()
# 加载模型参数,并将其加载至模型上。
param_dict = mindspore.load_checkpoint("model.ckpt")
param_not_load = mindspore.load_param_into_net(model, param_dict)
#param_not_load是未被加载的参数列表,为空时代表所有参数均加载成功。
print(param_not_load)#[]

模型推理

加载后的模型即可直接用于预测推理。

model.set_train(False)
for data, label in test_dataset:pred = model(data)predicted = pred.argmax(1)print(f'Predicted: "{predicted[:10]}", Actual: "{label[:10]}"')break

在这里插入图片描述

相关文章:

Mindspore安装

本文用于记录搭建昇思MindSpore开发及使用环境的过程,并通过MindSpore的API快速实现了一个简单的深度学习模型。 什么是MindSpore? 昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景覆盖三大目标。 安装步骤 鉴于笔者手头硬…...

C++010-C++嵌套循环

文章目录C010-C嵌套循环嵌套循环嵌套循环举例题目描述 输出1的个数题目描述 输出n行99乘法表题目描述 求s1!2!...10!作业在线练习:总结C010-C嵌套循环 在线练习: http://noi.openjudge.cn/ https://www.luogu.com.cn/ 嵌套循环 循环可以指挥计算机重复去…...

设计模式之迭代器模式与命令模式详解和应用

目录1 迭代器模式1.1 目标1.2 内容定位1.3 迭代器模式1.4 迭代器模式的应用场景1.5 手写字定义的送代器1.6 迭代器模式在源码中的体现1.7 迭代器模式的优缺点2 命令模式2.1 定义2.2 命令模式的应用场景2.3 命令模式在业务场景中的应用2.4 命令模式在源码中的体现2.5 命令模式的…...

【QA】[Vue/复选框全选] v-model绑定每一项的赋初值问题

发生场景:不只是复选框的状态改变,还有的功能要用到复选框的选中状态,比如:购物车计算总价,合计等等。 引入:复选框 checkbox 在使用时,需要用v-model绑定布尔值,来获取选中状态&…...

python基于django+vue微信小程序的校园二手闲置物品交易

在大学校园里,存在着很多的二手商品,但是由于信息资源的不流通以及传统二手商品信息交流方式的笨拙,导致了很多仍然具有一定价值或者具有非常价值的二手商品的囤积,乃至被当作废弃物处理。现在通过微信小程序的校园二手交易平台,可以方便快捷的发布和交流任何二手商品的信息,并…...

设计模式之观察者模式

什么是观察者模式 观察者模式定义了对象之间一种一对多依赖关系,使得每当一个对象状态发生改变时,其相关依赖对象都能收到通知并自动刷新。     观察者模式主要包含以下几个角色:         Subject(目标):指被观察的对…...

Java Lambda表达式

目录1 Lambda表达式1.1 函数式编程思想概括1.2 Lambda表达式标准格式1.3 Lambda表达式练习1(抽象方法无参无返回值)1.4 Lambda表达式练习2(抽象方法带参无返回值)1.5 Lambda表达式练习2(抽象方法带参带返回值&#xff…...

【1237. 找出给定方程的正整数解】

来源:力扣(LeetCode) 描述: 给你一个函数 f(x, y) 和一个目标结果 z,函数公式未知,请你计算方程 f(x,y) z 所有可能的正整数 数对 x 和 y。满足条件的结果数对可以按任意顺序返回。 尽管函数的具体式子…...

java基础学习 day41(继承中成员变量和成员方法的访问特点,方法的重写)

继承中,成员变量的访问特点 a. name前什么都不加,name变量的访问采用就近原则,先在局部变量中查找,若没找到,继续在本类的成员变量中查找,若没找到,继续在直接父类的成员变量中查找&#xff0c…...

【c语言进阶】深度剖析整形数据

🚀write in front🚀 📜所属专栏: 🛰️博客主页:睿睿的博客主页 🛰️代码仓库:🎉VS2022_C语言仓库 🎡您的点赞、关注、收藏、评论,是对我最大的激励…...

【信息系统项目管理师】项目管理十大知识领域记忆敲出(采购风险沟通干系人)

【信息系统项目管理师】项目管理十大知识领域记忆敲出(采购风险沟通干系人) 这里写目录标题【信息系统项目管理师】项目管理十大知识领域记忆敲出(采购风险沟通干系人)一.项目采购管理记忆敲出1.合同管理:2.规划采购管…...

[LeetCode 1237]找出给定方程的正整数解

题目描述 题目链接:[LeetCode 1237]找出给定方程的正整数解 给你一个函数 f(x, y) 和一个目标结果 z,函数公式未知,请你计算方程 f(x,y) z 所有可能的正整数 数对 x 和 y。满足条件的结果数对可以按任意顺序返回。 尽管函数的具体式子未知…...

6.2 构建 RESTful 应用接口

第6章 构建 RESTful 服务 6.1 RESTful 简介 6.2 构建 RESTful 应用接口 6.3 使用 Swagger 生成 Web API 文档 6.4 实战:实现 Web API 版本控制 6.2 构建 RESTful 应用接口 6.2.1 Spring Boot 对 RESTful 的支持 Spring Boot 提供的spring-boot-starter-web组件完全…...

20230218英语学习

How Italian Artist’s Mild Colors Dominate World of Design 温柔的“莫兰迪色”,如何引领设计时尚? The Morandi color scheme has become an across-the-board fashion that now prevails in the world of design.Soft and sophisticated Morandi c…...

Linux单一服务管理systemctl

基本上systemd这个启动服务机制只有systemctl命令来处理,所以全部的操作都需要使用systemctl systemctl管理单一服务 一般来说服务的启动有两个阶段,一个是开机是否启动,以及现在是否启动 systemctl【command】【unit】 command主要有&…...

【GStreamer 】 TX1中CPU和GPU解码显示海康相机RTSP流

大家好,我是虎哥,今天找了一套海康的相机,想后续测试一下DeepStream用网络相机RTSP流做输入看看后续目标识别和分类。但是还是想先实时看看视频,当然,可以选择VLC去查看,顺道我也用GStreamer 来测试了一下&…...

匿名内部类、Lambda表达式、方法引用对比分析

文章目录一、匿名内部类1. 语法格式2. 使用方法① 传统方式② 匿名内部类方式二、Lambda表达式1. 语法格式2. 使用方法① 匿名内部类方式② Lambda表达式方式三、方法引用1. 语法格式2. 使用方法① 类型的静态方法引用② 类型的构造方法引用③ 类型的实例方法引用④ 对象的实例…...

ESXi主机CVE-2021-21972漏洞复现安全处置建议

一、漏洞简介 vSphere 是 VMware 推出的虚拟化平台套件,包含 ESXi、vCenter Server 等一系列的软件。其中 vCenter Server 为 ESXi 的控制中心,可从单一控制点统一管理数据中心的所有 vSphere 主机和虚拟机。 vSphere Client(HTML5&#xf…...

研报精选230217

目录 【行业230217毕马威】奢侈品行业新气象【行业230217国信证券】医药生物行业2023年2月投资策略:持续关注疫后复苏和创新两大主线【行业230217国金证券】航空锻造:稳定格局筑专业化壁垒,顺势而为拓产业链深度【个股230217西南证券_招商轮船…...

c++11 标准模板(STL)(std::unordered_set)(一)

定义于头文件 <unordered_set> template< class Key, class Hash std::hash<Key>, class KeyEqual std::equal_to<Key>, class Allocator std::allocator<Key> > class unordered_set;(1)(C11 起)namespace pmr { templ…...

【C语言进阶】你听说过柔性数组吗?

&#x1f466;个人主页&#xff1a;Weraphael ✍&#x1f3fb;作者简介&#xff1a;目前是C语言学习者 ✈️专栏&#xff1a;C语言航路 &#x1f40b; 希望大家多多支持&#xff0c;咱一起进步&#xff01;&#x1f601; 如果文章对你有帮助的话 欢迎 评论&#x1f4ac; 点赞&a…...

[LeetCode]1237. 找出给定方程的正整数解

题目链接&#xff1a;https://leetcode.cn/problems/find-positive-integer-solution-for-a-given-equation/description/ 题目描述&#xff1a; 样例1&#xff1a; 输入&#xff1a;function_id 1, z 5 输出&#xff1a;[[1,4],[2,3],[3,2],[4,1]] 解释&#xff1a;functi…...

【路径规划】基于A*算法和Dijkstra算法的路径规划(Python代码实现)

&#x1f468;‍&#x1f393;个人主页&#xff1a;研学社的博客&#x1f4a5;&#x1f4a5;&#x1f49e;&#x1f49e;欢迎来到本博客❤️❤️&#x1f4a5;&#x1f4a5;&#x1f3c6;博主优势&#xff1a;&#x1f31e;&#x1f31e;&#x1f31e;博客内容尽量做到思维缜密…...

蓝桥杯 stm32 PWM 设置占空比

本文代码使用 HAL 库。 文章目录 前言一、创建CubeMX 工程 ,占空比分析:二、相关函数:1. 获取 CNT函数2.设置CNT为 0 函数(计算器清零)3.开启TIM2_CH1的输入捕获中断函数4.TIM 回调函数三、设置上升沿,下降沿四、在lcd上显示 R40 占空比 详细代码五、设置占空比,输出 PW…...

React 合成事件理解

1 事件三个阶段 捕获、目标、处理 &#xff08;具体百度&#xff0c;后面有空补全&#xff09;2import React from "react";class Test extends React.Component {parentRef;childRef;constructor(props) {super(props);this.parentRef React.createRef();this.chil…...

202302|读书笔记——国图点滴

杂志剪影|看一本赚一本系列 anywhere 随心而行随心而动&#xff0c;极简相生复古文艺 热情洋溢 色彩斑斓 极致优雅 深邃魅力 新生绽放 灿若星空 异彩纷呈含苞待放 惊艳绽放 爱在云端 空中婚礼 暗夜浪漫 策马逐梦橘影相映 浆果红唇 梦幻无暇 永无止境浮光掠影 微酥清风低调奢华…...

Linux 操作系统原理 — NUMA 架构中的多线程调度开销与性能优化

目录 文章目录 目录前言NUMA 架构中的多线程性能开销1、跨 Node 的 Memory 访问开销2、跨 Core 的多线程 Cache 同步开销3、多线程上下文切换开销4、多线程模式切换开销5、中断处理的开销6、TLB 缓存失效的开销7、内存拷贝的开销NUMA 架构中的性能优化:使用多核编程代替多线程…...

OpenGL - 如何理解 VAO 与 VBO 之间的关系

系列文章目录 LearnOpenGL 笔记 - 入门 01 OpenGLLearnOpenGL 笔记 - 入门 02 创建窗口LearnOpenGL 笔记 - 入门 03 你好&#xff0c;窗口LearnOpenGL 笔记 - 入门 04 你好&#xff0c;三角形 文章目录系列文章目录1. 前言2. 渲染管线的入口 - 顶点着色器2.1 顶点着色器处理过…...

Linux中sed的使用

语法&#xff1a; sed [选项] [sed内置命令字符] [输入文件]选项&#xff1a; 参数说明-n取消默认色的输出常与sed内置命令p一起使用-i直接将修改结果写入文件&#xff0c;不用-i&#xff0c;sed修改的是内存数据-e多次编译&#xff0c;不需要管道符了-r支持正则扩展 sed的内…...

[软件工程导论(第六版)]第1章 软件工程学概述(复习笔记)

文章目录1.1 软件危机1.1.1 软件危机的介绍1.1.2 产生软件危机的原因1.1.3 消除软件危机的途径1.2 软件工程1.2.1 软件工程的介绍1.2.2 软件工程的基本原理1.2.3 软件工程方法学1.3 软件生命周期组成1.4 软件过程概念1.4.1 瀑布模型1.4.2 快速原型模型1.4.3 增量模型1.4.4 螺旋…...

html简单动画代码/新塘网站seo优化

为什么80%的码农都做不了架构师&#xff1f;>>> 本原创文章属于《Linux大棚》博客。 博客地址为http://roclinux.cn。 文章作者为roc。 原文&#xff1a;16 Linux Server Monitoring Commands You Really Need To Know 为了让大家能更直观的学习这些命令&#xff…...

html5官方网站开发流程/引流推广公司

记得自己最初的梦想就是想投入到web前端的开发中来&#xff0c;正如我博客名字“准前端工程师”&#xff0c;曾经也幻想着能在web领域闯出一片自己的新天地&#xff0c;现在回过头来看看曾经的我&#xff0c;确实是活的如此迷茫以及随波逐流&#xff0c;同时也感谢我的第一份实…...

怎么做传奇网站图/宜兴百度推广公司

1 什么是事务隔离级别 事务隔离指的是事务之间同步关系。 2 食物隔离级别的分类 第一隔离级别&#xff0c;脏读级别 在脏读级别下&#xff0c;第一个事务修改了某个数据&#xff0c;但是还没有提交&#xff0c;第二个事务可以读取到这个未提及的数据。 第二隔离级别&#xff0c…...

郑州做网站制作的公司/北京百度快速排名

一.类的静态成员变量&#xff0c;以及静态函数。 静态成员变量&#xff1a; 1.静态成员共享机制 2.静态成员局部属于类&#xff0c;它不是对象的成员&#xff0c;位于静态区。 3.静态成员变量需要在外部进行初始化。 静态函数&#xff1a; 1.静态成员函数都在代码区&…...

网站建设流程有/服务营销案例

为什么80%的码农都做不了架构师&#xff1f;>>> 行为型模式&#xff1a;Chain Of Responsibility 职责链模式 &#xff11;、请求的发送者与接受者 &#xff11;&#xff09;某些对象请求的接受者可能多种多样&#xff0c;变化无常...... &#xff12;&#xf…...

沈阳网站设计外包/活动推广

本课件主要内容包括&#xff1a; HMM&#xff0c;马尔可夫过程&#xff0c;马尔可夫决策过程 非确定的情况 时间差分学习 MDP与RL MDP与强化学习&#xff1a;未来发展方向 关于动物的强化学习&#xff1f; 人类学习的RL模型 大脑的RL理论 时间差ML模型&#xff1a;预测…...