当前位置: 首页 > news >正文

Hadoop分布式计算与资源调度:打开专业江湖的魔幻之门

文章目录

  • 版权声明
  • 一 分布式计算概述
    • 1.1 分布式计算
    • 1.2 分布式(数据)计算模式
    • 1.3 小结
  • 二 MapReduce概述
    • 2.1 分布式计算框架 - MapReduce
    • 2.2 MapReduce执行原理
    • 2.3 小结
  • 三 YARN概述
    • 3.1 YARN & MapReduce
    • 3.2 资源调度
    • 3.3 程序的资源调度
    • 3.4 YARN的资源调度
    • 3.5 小结
  • 四 YARN架构
    • 4.1 核心结构
    • 4.2 小结
    • 4.3 辅助结构
    • 4.4 Web应用代理(Web Application Proxy)
    • 4.5 JobHistoryServer历史服务器
    • 4.6 YARN架构角色小结
  • 五 MapReduce & YARN 的部署
    • 5.1 部署说明
    • 5.2 集群规划
    • 5.3 MapReduce配置文件
    • 5.4 分发配置文件
    • 5.5 集群启动命令
    • 5.6 开始启动YARN集群
  • 六 MapReduce & YARN 初体验
    • 6.1 集群启停命令
      • 6.1.1 一键启动脚本
      • 6.1.2 单进程启停
    • 6.2 提交MapReduce任务到YARN执行
      • 6.2.1 提交wordcount示例程序
      • 6.2.2 查看运行日志
      • 6.2.3 提交求圆周率示例程序
    • 6.3 补充:蒙特卡罗算法求PI的基础原理

版权声明

  • 本博客的内容基于我个人学习黑马程序员课程的学习笔记整理而成。我特此声明,所有版权属于黑马程序员或相关权利人所有。本博客的目的仅为个人学习和交流之用,并非商业用途。
  • 我在整理学习笔记的过程中尽力确保准确性,但无法保证内容的完整性和时效性。本博客的内容可能会随着时间的推移而过时或需要更新。
  • 若您是黑马程序员或相关权利人,如有任何侵犯版权的地方,请您及时联系我,我将立即予以删除或进行必要的修改。
  • 对于其他读者,请在阅读本博客内容时保持遵守相关法律法规和道德准则,谨慎参考,并自行承担因此产生的风险和责任。本博客中的部分观点和意见仅代表我个人,不代表黑马程序员的立场。

一 分布式计算概述

1.1 分布式计算

  • 分布式计算:以分布式的形式完成数据的统计,得到需要的结果。
    在这里插入图片描述

1.2 分布式(数据)计算模式

  • 分散->汇总模式
    1. 将数据分片,多台服务器各自负责一部分数据处理
    2. 然后将各自的结果,进行汇总处理
    3. 最终得到想要的计算结果
  • 生活中的“人口普查”就是典型的分散汇总的分布式统计模式
    在这里插入图片描述

  • 中心调度->步骤执行模式
    1. 由一个节点作为中心调度管理者
    2. 将任务划分为几个具体步骤
    3. 管理者安排每个机器执行任务
    4. 最终得到结果数据
  • 生活中的各类项目的:项目经理 和 项目成员就是这种模式,一个管理分配任务,其余人员领取任务工作
    在这里插入图片描述

1.3 小结

  1. 什么是计算、分布式计算?
    • 计算:对数据进行处理,使用统计分析等手段得到需要的结果
    • 分布式计算:多台服务器协同工作,共同完成一个计算任务
  2. 分布式计算常见的2种工作模式
    • 分散->汇总 (MapReduce就是这种模式)
  • 中心调度->步骤执行 (大数据体系的Spark、Flink等是这种模式)

二 MapReduce概述

在这里插入图片描述

2.1 分布式计算框架 - MapReduce

  • MapReduce是“分散->汇总”模式的分布式计算框架,可供开发人员开发相关程序进行分布式数据计算。
  • MapReduce提供了2个编程接口:Map、Reduce,其中
    • Map功能接口提供了“分散”的功能, 由服务器分布式对数据进行处理
    • Reduce功能接口提供了“汇总(聚合)”的功能,将分布式的处理结果汇总统计
  • 用户如需使用MapReduce框架完成自定义需求的程序开发,只需要使用Java、Python等编程语言,实现Map Reduce功能接口即可。

2.2 MapReduce执行原理

  • 假设有如下文件,内部记录了许多的单词。且已经开发好了一个MapReduce程序,功能是统计每个单词出现的次数。
    在这里插入图片描述
  • 假定有4台服务器用以执行MapReduce任务,可以3台服务器执行Map,1台服务器执行Reduce

2.3 小结

  1. 什么是MapReduce
    • MapReduce是Hadoop中的分布式计算组件
    • MapReduce可以以分散->汇总(聚合)模式执行分布式计算任务
  2. MapReduce的主要编程接口
    • map接口,主要提供“分散”功能,由服务器分布式处理数据
    • reduce接口,主要提供“汇总”功能,进行数据汇总统计得到结果
  • MapReduce可供Java、Python等语言开发计算程序
  • 注:MapReduce尽管可以通过Java、Python等语言进行程序开发,但当下年代基本没人会写它的代码了,因为太过时了。 尽管MapReduce很老了,但现在仍旧活跃在一线,主要是Apache Hive框架非常火,而Hive底层就是使用的MapReduce。 所以对于MapReduce的代码开发,简单扩展一下,但不会深入讲解,对MapReduce的底层原理会放在Hive之后,基于Hive做深入分析。
  1. MapReduce的运行机制
    • 将要执行的需求,分解为多个Map Task和Reduce Task
    • 将Map Task 和 Reduce Task分配到对应的服务器去执行

三 YARN概述

3.1 YARN & MapReduce

  • MapReduce是基于YARN运行的,即没有YARN”无法”运行MapReduce程序,所以,MapReduce和YARN要同时学习
    在这里插入图片描述

3.2 资源调度

在这里插入图片描述

  • 对于资源的利用,有规划、有管理的调度资源使用,是效率最高的方式,在程序中亦是如此

3.3 程序的资源调度

  • 服务器会运行多个程序, 每个程序对资源(CPU内存等)的使用都不同。程序没有节省的概念,有多少就会用多少。所以,为了提高资源利用率,进行调度就非常有必要了。
  • 将服务器上的资源进行划分,对程序实行申请制度,需要多少申请多少,提高资源使用率
    在这里插入图片描述

3.4 YARN的资源调度

  • 对于服务器集群亦可使用这种思路,调度整个集群的资源
    在这里插入图片描述

  • 这就是 Hadoop YARN框架的作用:调度整个服务器集群的资源统一管理

  • YARN 管控整个集群的资源进行调度, 那么应用程序在运行时,就是在YARN的监管(管理)下去运行的。

  • 一个具体的MapReduce程序。 MapReduce程序会将任务分解为若干个Map任务和Reduce任务。

  • 假设,有一个MapReduce程序, 分解了3个Map任务,和1个Reduce任务,那么如何在YARN的监管(管理)下运行呢?
    在这里插入图片描述

3.5 小结

  1. YARN是做什么的?
    • YARN是Hadoop的一个组件,用以做集群的资源(内存、CPU等)调度
  2. 为什么需要资源调度
    • 将资源统一管控进行分配可以提高资源利用率
  3. 程序如何在YARN内运行
    • 程序向YARN申请所需资源
    • YARN为程序分配所需资源供程序使用
  4. MapReduce和YARN的关系
    • YARN用来调度资源给MapReduce分配和管理运行资源,所以,MapReduce需要YARN才能执行(普遍情况)

四 YARN架构

4.1 核心结构

在这里插入图片描述

  • ResourceManager:整个集群的资源调度者, 负责协调调度各个程序所需的资源。
  • NodeManager:单个服务器的资源调度者,负责调度单个服务器上的资源提供给应用程序使用。
    在这里插入图片描述
  • 如何实现服务器上精准分配如下的硬件资源呢?
  • NodeManager在服务器上构建一个容器(提前占用资源),然后将容器的资源提供给程序使用,程序运行在容器(集装箱)内,无法突破容器的资源限制。
    在这里插入图片描述

4.2 小结

  1. YARN的架构有哪2个角色?
    • 主(Master):ResourceManager
    • 从(Slave):NodeManager
  2. 两个角色各自的功能是什么?
    • ResourceManager: 管理、统筹并分配整个集群的资源
    • NodeManager:管理、分配单个服务器的资源,即创建管理容器,由容器提供资源供程序使用
  3. 什么是YARN的容器?
    • 容器(Container)是YARN的NodeManager在所属服务器上分配资源的手段
    • 创建一个资源容器,即由NodeManager占用这部分资源
    • 然后应用程序运行在NodeManager创建的这个容器内
  • 应用程序无法突破容器的资源限制

4.3 辅助结构

  • YARN的架构中除了核心角色,即:
    • ResourceManager:集群资源总管家
    • NodeManager:单机资源管家
  • 还可以搭配2个辅助角色使得YARN集群运行更加稳定
    • 代理服务器(ProxyServer):Web Application Proxy Web应用程序代理
    • 历史服务器(JobHistoryServer): 应用程序历史信息记录服务

4.4 Web应用代理(Web Application Proxy)

  • 代理服务器,即Web应用代理是 YARN 的一部分。默认情况下,它将作为资源管理器(RM)的一部分运行,但是可以配置为在独立模式下运行。使用代理的原因是为了减少通过 YARN 进行基于网络的攻击的可能性。
  • 因为, YARN在运行时会提供一个WEB UI站点(同HDFS的WEB UI站点一样)可供用户在浏览器内查看YARN的运行信息
    在这里插入图片描述
  • 对外提供WEB 站点会有安全性问题, 而代理服务器的功能就是最大限度保障对WEB UI的访问是安全的。 比如:警告用户正在访问一个不受信任的站点、剥离用户访问的Cookie等
  • 开启代理服务器,可以提高YARN在开放网络中的安全性 (但不是绝对安全只能是辅助提高一些)

  • 代理服务器默认集成在了ResourceManager中也可以将其分离出来单独启动,如果要分离代理服务器
  1. yarn-site.xml中配置yarn.web-proxy.address 参数即可
<property><name>yarn.web-proxy.address</name><value>node1:8089</value><description>代理服务器主机和端口</description>s/property>
</property>
  1. 并通过命令启动它即可 $HADOOP_YARN_HOME/sbin/yarn-daemon.sh start proxyserver

4.5 JobHistoryServer历史服务器

  • 历史服务器的功能:记录历史运行的程序的信息以及产生的日志并提供WEB UI站点供用户使用浏览器查看
    在这里插入图片描述
    JobHistoryServer历史服务器功能:
    • 提供WEB UI站点,供用户在浏览器上查看程序日志
    • 可以保留历史数据,随时查看历史运行程序信息
      JobHistoryServer需要配置:
  • 开启日志聚合,即从容器中抓取日志到HDFS集中存储
    在这里插入图片描述
    在这里插入图片描述
  • 配置历史服务器端口和主机
    在这里插入图片描述

4.6 YARN架构角色小结

  • 核心角色:ResourceManager和NodeManager
  • 辅助角色:ProxyServer,保障WEB UI访问的安全性
  • 辅助角色:JobHistoryServer,记录历史程序运行信息和日志

五 MapReduce & YARN 的部署

5.1 部署说明

Hadoop HDFS分布式文件系统,会启动:

  • NameNode进程作为管理节点
  • DataNode进程作为工作节点
  • SecondaryNamenode作为辅助
    Hadoop YARN分布式资源调度,会启动:
  • ResourceManager进程作为管理节点
  • NodeManager进程作为工作节点
  • ProxyServer、JobHistoryServer两个辅助节点

MapReduce运行在YARN容器内,无需启动独立进程


关于MapReduce和YARN的部署,其实就是2件事情:

  • 关于MapReduce: 修改相关配置文件,但是没有进程可以启动
  • 关于YARN: 修改相关配置文件, 并启动ResourceManager、NodeManager进程以及辅助进程(代理服务器、历史服务器)

  • 表格汇总
    在这里插入图片描述

5.2 集群规划

在这里插入图片描述

5.3 MapReduce配置文件

$HADOOP_HOME/etc/hadoop文件夹内,修改:

  • mapred-env.sh文件,添加如下环境变量

    # 设置JDK路径
    export JAVA_HOME=/export/server/jdk8
    # 设置JobHistoryServer进程内存为1G
    export HADOOP_JOB_HISTORYSERVER_HEAPSIZE=1000
    # 设置日志级别为INFO
    export HADOOP_MAPRED_ROOT_LOGGER=INFO,RFA
    
  • mapred-site.xml文件,添加如下配置信息:

      <property><name>mapreduce.framework.name</name><value>yarn</value><description>MapReduce的运行框架设置为YARN</description></property><property><name>mapreduce.jobhistory.address</name><value>node1:10020</value><description>历史服务器通讯端口为node1:10020</description></property><property><name>mapreduce.jobhistory.webapp.address</name><value>node1:19888</value><description>历史服务器web端口为nodel的19888</description></property><property><name>mapreduce.jobhistory.intermediate-done-dir</name><value>/data/mr-history/tmp</value><description>历史信息在HDFS的记录临时路径</description></property><property><name>mapreduce.jobhistory.done-dir</name><value>/data/mr-history/done</value><description>历史信息在HDFS的记录路径</description></property>
    <property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value><description>MapReduce HOME设置为HADOOP_HOME</description>
    </property>
    <property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value><description>MapReduce HOME设置为HADOOP_HOME</description>
    </property>
    <property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=$HADOOP_HOME</value><description>MapReduce HOME设置为HADOOP_HOME</description>
    </property>
    
  • yarn-env.sh文件,添加如下4行环境变量内容:

    #设置JDK路径的环境变量
    export JAVA_HOME=/export/server/jdk8
    #设置HADOOPHOME的环境变量
    export HADOOP_HOME=/export/server/hadoop
    #设置配置文件路径的环境变量
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    #设置日志文件路径的环境变量
    export HADOOP_LOG_DIR=$HADOOP_HOME/logs
    
  • yarn-site.xml文件,修改内容

    <configuration><!-- 核心配置 --><property><name>yarn.resourcemanager.hostname</name><value>node1</value><description>>ResourceManager设置在nodel节点</description></property><property><name>yarn.nodemanager.local-dirs</name><value>/data/nm-local</value><description>NodeManager中间数据本地存储路径</description></property><property><name>yarn.nodemanager.log-dirs</name><value>/data/nm-log</value><description>NodeManager中间数据本地存储路径</description></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value><description>为MapReduce程序开启Shuf fle服务</description></property><property><name>yarn.nodemanager.log.retain-seconds</name><value>10800</value><description>Default time (in seconds) to retain log files on the NodeManager Only applicable if log-aggregation is disabled.</description></property><!-- 额外配置 -->
    <property><name>yarn.log.server.url</name><value>http://node1:19888/jobhistory/logs</value><description>历史服务器URL</description>
    </property><property><name>yarn.web-proxy.address</name><value>node1:8089</value><description>代理服务器主机和端口</description></property><property><name>yarn.log-aggregation-enable</name><value>true</value><description>开启日志聚合</description></property><property><name>yarn.nodemanager.remote-app-log-dir</name><value>/tmp/logs</value><description>程序日志HDFS的存储路径</description></property><property><name>yarn.resourcemanager.scheduler.class</name><value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value><description>选择公平调度器</description></property>
    </configuration>
    

5.4 分发配置文件

  • MapReduce和YARN的配置文件修改好后,需要分发到其它的服务器节点中。
    scp mapred-env.sh mapred-site.xml yarn-env.sh yarn-site.xml node2:`pwd`/
    scp mapred-env.sh mapred-site.xml yarn-env.sh yarn-site.xml node3:`pwd`/
    
  • 分发完成配置文件,就可以启动YARN的相关进程

5.5 集群启动命令

常用的进程启动命令如下:

  • 一键启动YARN集群: $HADOOP_HOME/sbin/start-yarn.sh
    • 会基于yarn-site.xml中配置的yarn.resourcemanager.hostname来决定在哪台机器上启动resourcemanager
    • 会基于workers文件配置的主机启动NodeManager
  • 一键停止YARN集群: $HADOOP_HOME/sbin/stop-yarn.sh
  • 在当前机器,单独启动或停止进程
    • $HADOOP_HOME/bin/yarn --daemon start|stop resourcemanager|nodemanager|proxyserver
    • start和stop决定启动和停止
    • 可控制resourcemanager、nodemanager、proxyserver三种进程
  • 历史服务器启动和停止
    • $HADOOP_HOME/bin/mapred --daemon start|stop historyserver

5.6 开始启动YARN集群

在node1服务器,以hadoop用户执行

  1. 首先执行:$HADOOP_HOME/sbin/start-yarn.sh,一键启动所需的:ResourceManager、NodeManager、ProxyServer(代理服务器)
  2. 其次执行:$HADOOP_HOME/bin/mapred --daemon start historyserver 启动:HistoryServer(历史服务器)
    在这里插入图片描述
  3. 查看YARN的WEB UI页面
    • 打开 http://node1:8088 即可看到YARN集群的监控页面(ResourceManager的WEB UI)
      在这里插入图片描述
      在这里插入图片描述
  • 最后,可以给虚拟机打上快照,保存安装状态

六 MapReduce & YARN 初体验

6.1 集群启停命令

6.1.1 一键启动脚本

  • 启动:
    $HADOOP_HOME/sbin/start-yarn.sh
    
    • 从yarn-site.xml中读取配置,确定ResourceManager所在机器,并启动它
    • 读取workers文件,确定机器,启动全部的NodeManager
    • 在当前机器启动ProxyServer(代理服务器)
  • 关闭:$HADOOP_HOME/sbin/stop-yarn.sh

6.1.2 单进程启停

  • 控制单独控制进程的启停。
  • $HADOOP_HOME/bin/yarn单独控制所在机器的进程的启停
    • 用法:
    yarn --daemon (start|stop) (resourcemanager|nodemanager|proxyserver)
    
  • $HADOOP_HOME/bin/mapred,单独控制所在机器的历史服务器的启停
    • 用法:
    mapred --daemon (start|stop) historyserver
    

6.2 提交MapReduce任务到YARN执行

  • 在部署并成功启动YARN集群后,就可以在YARN上运行各类应用程序了。

  • YARN作为资源调度管控框架,其本身提供资源供许多程序运行,常见的有:MapReduce程序、Spark程序、Flink程序

  • Hadoop官方内置了一些预置的MapReduce程序代码,无需编程,只需要通过命令即可使用。
    常用的有2个MapReduce内置程序:

  • wordcount:单词计数程序。 【统计指定文件内各个单词出现的次数】

  • pi:求圆周率【通过蒙特卡罗算法(统计模拟法)求圆周率】


  • 这些内置的示例MapReduce程序代码,都在:$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar 这个文件内。
    在这里插入图片描述
  • 可以通过 hadoop jar 命令来运行它,提交MapReduce程序到YARN中。
    语法: hadoop jar 程序文件 java类名 [程序参数] ... [程序参数]

6.2.1 提交wordcount示例程序

  • 单词计数示例程序的功能很简单:
    • 给定数据输入的路径(HDFS)、给定结果输出的路径(HDFS)
    • 将输入路径内的数据中的单词进行计数,将结果写到输出路径
  1. 准备一份数据文件,并上传到HDFS中。
    • 将以下内容保存到Linux中为words.txt文件,并上传到HDFS
    itheima itcast itheima itcast
    hadoop hdfs hadoop hdfs
    hadoop mapreduce hadoop yarn
    itheima hadoop itcast hadoop
    itheima itcast hadoop yarn mapreduce
    
hadoop fs -mkdir -p /input/wordcount
hadoop fs -mkdir /output
hadoop fs -put words.txt /input/wordcount/
  • 执行如下命令,提交示例MapReduce程序WordCount到YARN中执行
hadoop jar /export/server/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount hdfs://node1:8020/input hdfs://node1:8020/output/wc1

注意:

  • 参数wordcount,表示运行jar包中的单词计数程序(Java Class)
  • 参数1是数据输入路径(hdfs://node1:8020/input/wordcount/)
  • 参数2是结果输出路径(hdfs://node1:8020/output/wc1), 需要确保输出的文件夹不存在

  • 提交程序后,可以在YARN的WEB UI页面看到运行中的程序(http://node1:8088/cluster/apps)
    在这里插入图片描述
  • 执行完成后,可以查看HDFS上的输出结果
    在这里插入图片描述
    • _SUCCESS文件是标记文件,表示运行成功,本身是空文件
    • part-r-00000,是结果文件,结果存储在以part开头的文件中
  • 执行完成后,可以借助历史服务器查看到程序的历史运行信息
    在这里插入图片描述

6.2.2 查看运行日志

点击logs链接,可以查看到详细的运行日志信息。
在这里插入图片描述
在这里插入图片描述
此功能基于:

  1. 配置文件中配置了日志聚合功能,并设置了历史服务器
    在这里插入图片描述
    在这里插入图片描述
  2. 启动了代理服务器和历史服务器
  3. 历史服务器进程会将日志收集整理,形成可以查看的网页内容供我们查看。

6.2.3 提交求圆周率示例程序

  • 可以执行如下命令,使用蒙特卡罗算法模拟计算求PI(圆周率)
    hadoop jar /export/server/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar pi 3 100000
    
    • 参数pi表示要运行的Java类,这里表示运行jar包中的求pi程序
    • 参数3,表示设置几个map任务
    • 参数1000,表示模拟求PI的样本数(越大求的PI越准确,但是速度越慢)
      在这里插入图片描述

6.3 补充:蒙特卡罗算法求PI的基础原理

  • Monte Carlo算法的基本思想是: 以模拟的”实验”形式、以大量随机样本的统计形式,来得到问题的求解。
    在这里插入图片描述
  • 如图,我们在正方形内,随机落点统计落在1/4圆内的点和总点数量的比例即可得到1/4的PI,最终乘以4即可得到PI
  • 比如,红色点的数量比全部点的数量,结果是0.765,那么乘以四可以得到3.06。3.06就是求得的PI所以,此方法,需要大量的样本(落点),样本越多越精准
  • 以Python语言实现的蒙特卡罗求PI
    在这里插入图片描述

相关文章:

Hadoop分布式计算与资源调度:打开专业江湖的魔幻之门

文章目录 版权声明一 分布式计算概述1.1 分布式计算1.2 分布式&#xff08;数据&#xff09;计算模式1.3 小结 二 MapReduce概述2.1 分布式计算框架 - MapReduce2.2 MapReduce执行原理2.3 小结 三 YARN概述3.1 YARN & MapReduce3.2 资源调度3.3 程序的资源调度3.4 YARN的资…...

为什么叫源表?源表是如何四象限工作的?

为何称呼为源表&#xff1f; “源”为电压源和电流源&#xff0c;“表”为测量表&#xff1b; “源表”即指一种可作为四象限的电压源或电流源提供精确的电压或电流&#xff0c;同时可同步测量电流值或电压值的测量仪表。&#xff08;恒流源时测电压&#xff0c;恒压源时测电…...

云原生周刊:Kubernetes v1.28 正式发布 | 2023.8.21

开源项目推荐 kurt 一个 Kubernetes 插件&#xff0c;可提供 Kubernetes 集群中重启内容的上下文信息。 Kubean Kubean 是一个基于 kubespray 的 Kubernetes 集群生命周期管理工具。 k8sgpt k8sgpt 是一款用简单的英语扫描 Kubernetes 集群、诊断和分流问题的工具。 它将…...

Git基础——基本的 Git本地操作

本文涵盖了你在使用Git的绝大多数时间里会用到的所有基础命令。学完之后&#xff0c;你应该能够配置并初始化Git仓库、开始或停止跟踪文件、暂存或者提交更改。我们也会讲授如何让Git忽略某些文件和文件模式&#xff0c;如何简单快速地撤销错误操作&#xff0c;如何浏览项目版本…...

PythonJS逆向解密——实现翻译软件+语音播报

前言 嗨喽&#xff0c;大家好呀~这里是爱看美女的茜茜呐 环境使用: python 3.8 pycharm 模块使用: requests --> pip install requests execjs --> pip install PyExecJS ttkbootstrap --> pip install ttkbootstrap pyttsx3 --> pip install pyttsx3 第三…...

gPRC与SpringBoot整合教程

&#x1f337;&#x1f341; 博主猫头虎 带您 Go to New World.✨&#x1f341; &#x1f984; 博客首页——猫头虎的博客&#x1f390; &#x1f433;《面试题大全专栏》 文章图文并茂&#x1f995;生动形象&#x1f996;简单易学&#xff01;欢迎大家来踩踩~&#x1f33a; &a…...

Hadoop Yarn 配置多队列的容量调度器

文章目录 配置多队列的容量调度器多队列查看 配置多队列的容量调度器 首先&#xff0c;我们进入 Hadoop 的配置文件目录中&#xff08;$HADOOP_HOME/etc/hadoop&#xff09;&#xff1b; 然后通过编辑容量调度器配置文件 capacity-scheduler.xml 来配置多队列的形式。 默认只…...

c语言练习题28:杨氏矩阵

杨氏矩阵 从左到右增加 从上到下增加 思路&#xff1a; 代码&#xff1a; #include<stdio.h> int findNum(int(*arr)[3], int x, int y, int k) {int i 0;int j y - 1;while (i<x&&j>0) {if (arr[i][j] > k) {j--;}else if (arr[i][j] < k) {i;…...

梳理系统学习R语言1-R语言实战-使用ggplot进行高阶绘图

以下为书中代码&#xff0c;会添加一些理解 library("ggplot2") ggplot(datamtcars,aes(xwt,ympg))geom_point()geom_point(pch17,color"blue",size2)geom_smooth(method"lm",color"red",linetype2)labs(title"Automobile Data&…...

测试框架pytest教程(2)-用例依赖库-pytest-dependency

对于 pytest 的用例依赖管理&#xff0c;可以使用 pytest-dependency 插件。该插件提供了更多的依赖管理功能&#xff0c;使你能够更灵活地定义和控制测试用例之间的依赖关系。 Using pytest-dependency — pytest-dependency 0.5.1 documentation 安装 pytest-dependency 插…...

electron软件安装时,默认选择为全部用户安装

后续可能会用electron开发一些工具&#xff0c;包括不限于快速生成个人小程序、开发辅助学习的交互式软件、帮助运维同学一键部署的简易版CICD工具等等。 开发进度&#xff0c;取决于我懒惰的程度。 不过不嫌弃的同学还是可以先关注一波小程序&#xff0c;真的发布工具了&…...

MySQL常用表级操作

基础信息相关 1.修改表名&#xff1a; rename table 旧表名 to 新表名; 2、修改字段类型&#xff1a; alter table 表名 modify column 字段名 字段类型(长度) 3、修改字段名称和类型&#xff1a; alter table 表名 change 现有字段名称 修改后字段名称 数据类型 4、增加字段&a…...

Golang Gorm 一对多关系 关系表创建

一对多关系 我们先从一对多开始多表关系的学习因为一对多的关系生活中到处都是&#xff0c;例如&#xff1a; 老板与员工女神和添狗老师和学生班级与学生用户与文章 在创建的时候先将没有依赖的创建。表名称ID就是外键。外键要和关联的外键的数据类型要保持一致。 package ma…...

java八股文面试[数据结构]——ConcurrentHashMap原理

HashMap不是线程安全&#xff1a; 在并发环境下&#xff0c;可能会形成环状链表&#xff08;扩容时可能造成&#xff0c;具体原因自行百度google或查看源码分析&#xff09;&#xff0c;导致get操作时&#xff0c;cpu空转&#xff0c;所以&#xff0c;在并发环境中使用HashMap是…...

学习记录——FeatEnHancer

FeatEnHancer: Enhancing Hierarchical Features for Object Detection and Beyond Under Low-Light Vision 一种适用于任意低光照任务增强方法 ICCV 2023 提出了FeatEnHancer&#xff0c;一种用于低光照视觉任务的增强型多尺度层次特征的新方法。提议的解决方案重点增强相关特…...

OpenCV中常用的函数

OpenCV是一个功能强大的计算机视觉库&#xff0c;提供了众多用于图像处理、计算机视觉和机器学习的函数和模块。以下是一些OpenCV中常用的函数和模块的子集&#xff1a; 图像读取和显示&#xff1a; cv::imread&#xff1a;用于读取图像文件。cv::imshow&#xff1a;用于显示图…...

【福利】Google Cloud Next ’23 精彩待发,Cloud Ace 作为联合赞助商提前发福利~

【Cloud Ace 是 Google Cloud 全球战略合作伙伴&#xff0c;在亚太地区、欧洲、南北美洲和非洲拥有二十多个办公室。Cloud Ace 在谷歌专业领域认证及专业知识目前排名全球第一位&#xff0c;并连续多次获得 Google Cloud 各类奖项。作为谷歌云托管服务商&#xff0c;我们提供谷…...

vue-admin-template实现按钮级控制

这里记录一下使用大佬的模板vue-admin-template&#xff0c;实现按钮级别控制 实现的思路&#xff1a;用户登录之后&#xff0c;返回用户详细信息(将用户的所有权限码发送给前端)&#xff0c;然后将权限码保存在全局状态管理对象中&#xff0c;然后在组件中进行判断是否显示 最…...

数据驱动工作效率提升的5个层次—以PreMaint设备数字化平台为例

在现代工业领域&#xff0c;数据分析已成为提升工作效率和优化生产的不可或缺的工具。从描述性分析到规范性分析&#xff0c;数据分析逐步揭示了设备运行和维护的深层信息&#xff0c;帮助企业更明智地做出决策。本文将以PreMaint设备数字化平台为例&#xff0c;探讨工业数据驱…...

白介素对NK细胞功能的影响(IL-1β、IL-12、IL-15、IL-18、IL-21)

1、促进NK细胞扩增和活化&#xff1a;IL-2/21 Soiffer RJ等自1996年起即报道IL-2低剂量持续输注和间歇给药对转移癌患者的CD56NK细胞有明显扩增效果。大部分NK细胞表面具有IL-2中亲和性受体&#xff0c;IL-2诱导NK的杀伤活性约需18&#xff5e;24小时。此外&#xff0c;IL-2还…...

C++笔记之虚函数重写规则、返回类型协变、函数的隐藏

C笔记之虚函数重写规则、返回类型协变、函数的隐藏 code review! 文章目录 C笔记之虚函数重写规则、返回类型协变、函数的隐藏1.返回类型协变2.C中函数的隐藏 —— C Primer Plus &#xff08;第6版&#xff09; —— cppreference 1.返回类型协变 2.C中函数的隐藏 在C中&a…...

抢鲜体验!vLive虚拟直播5大实用新功能上线!

vLive虚拟直播系统2.6.2版本全新上线&#xff01;新版本一共更新了5项实用功能&#xff0c;能让你的直播操作更加方便。现在就跟随小编一起来看看吧&#xff01; 1.本地下载场景支持一键迁移 用户下载后的场景可以直接迁移至另一个磁盘&#xff0c;无需重复下载。 2.信号源添加…...

网约车平台如何开发?需要多少钱?

随着共享经济的兴起&#xff0c;网约车行业迅速发展&#xff0c;并成为人们生活中不可或缺的一部分。为了满足市场需求和提供更好的服务&#xff0c;开发一款高质量的网约车源码平台至关重要。本文将深入探讨网约车源码平台的开发方案&#xff0c;从技术架构、安全性和用户体验…...

Rust踩雷笔记(5)——刷点链表的题(涉及智能指针Box,持续更新)

目录 leetcode 2 两数相加——模式匹配单链表Box 只能说Rust链表题的画风和C完全不一样&#xff0c;作为新手一时间还不太适应&#xff0c;于是单独为链表、智能指针开一篇&#xff0c;主要记录leetcode相关题型的答案以及注意事项。 leetcode 2 两数相加——模式匹配单链表Bo…...

[附源码]计算机毕业设计-JAVA火车票订票管理系统-springboot-论-文-ppt

PPT论文 文章目录 前言一、主要技术javaMysql数据库JSP技术 二、系统设计三、功能截图总结 前言 本论文主要论述了如何使用JAVA语言开发一个火车订票管理系统 &#xff0c;本系统将严格按照软件开发流程进行各个阶段的工作&#xff0c;采用B/S架构&#xff0c;面向对象编程思想…...

CARLA spawn Actor (Vehicle and Pedestrian)

1. Spawn Vehicles 2. Spawn Pedestrian References [1] Carla简单入门-1 基本的API使用 - 知乎 [2] https://carla.org/2019/07/12/release-0.9.6/...

【官方中文文档】Mybatis-Spring #SqlSessionFactoryBean

SqlSessionFactoryBean 在基础的 MyBatis 用法中&#xff0c;是通过 SqlSessionFactoryBuilder 来创建 SqlSessionFactory 的。而在 MyBatis-Spring 中&#xff0c;则使用 SqlSessionFactoryBean 来创建。 设置 要创建工厂 bean&#xff0c;将下面的代码放到 Spring 的 XML …...

el-tree树回显删除某项,再次点开树形组件无变化,实际数据已改变

el-tree树回显删除某项&#xff0c;再次点开树形组件无变化&#xff0c;实际数据已改变 页面有添加和删除已选选项的按钮&#xff0c;点击删除一个选项&#xff0c;再点添加&#xff0c;打开树形弹窗&#xff0c;发现弹窗被删除的选项还在 原因&#xff1a; 发现是添加的时候&…...

生产作业标准化是什么?生产车间作业流程标准化的步骤

生产作业标准化是以精益化为目标&#xff0c;对现行作业方法进行量化细化的分析改善&#xff0c;最终形成优化后的更好的作业程序。标准化的作用主要是以文件的方式保存企业成员积累的技术和经验&#xff0c;而不是因为人员的流动而失去整个技术和经验。 生产作业标准化的实施非…...

CSS3盒模型+flex

1.盒模型 标准盒模型: wwidthpaddingborderhheightpaddingborder 怪异盒模型(ie盒模型) wwidth包含了(paddingborder)hheight包含了(paddingborder) 2.CSS3弹性盒(重点新版弹性盒) 弹性盒: 设置为弹性盒后,父元素为容器,子元素为项目弹性盒中存在两根轴,默认水平为主轴,垂…...

做外贸无法登录国外网站怎么办/中国联通和腾讯

我们如果想要获得手机的电池电量信息&#xff0c;可以借助广播来实现。因为当手机电池电量发生变化的时候&#xff0c;系统会发送一个广播。具体代码如下 //注册 intentFilter.addAction(Intent.ACTION_BATTERY_CHANGED); mContext.registerReceiver(mHallReceiver, intentFilt…...

网站建设后台和前端/徐州网站关键词排名

Fedora 20自带OpenJDK&#xff0c;所以如果安装官方的JDK的话要先删除OpenJDK&#xff0c;步骤如下&#xff1a; 1&#xff1a;rpm -qa|grep jdk 查看当前的jdk情况。 2&#xff1a;yum -y remove java java-1.7.0-openjdk* 卸载openjdk&#xff0c;这个过程中因为依赖原因可能…...

望城门户网站/可以搜索任何网站的浏览器

zookeeper&#xff08;一&#xff09; --- zookeeper概述 写文章之前笔者先说明一下笔者最近了解zookeeper的原因&#xff0c;最近笔者所在的项目中需要用全文索引&#xff0c;而架构师和项目经理决定使用比较成熟的solrzookeeper的模式。这个任务比较幸运的落到了笔者的肩上&a…...

网站设置5个关键词/百家号查询排名数据查询

系统信息 arch 显示机器的处理器架构 uname -m 显示机器的处理器架构 uname -r 显示正在使用的内核版本 dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI) hdparm -i /dev/hda 罗列一个磁盘的架构特性 hdparm -tT /dev/sda 在磁盘上执行测试性读取操作 cat /proc/cpuinfo …...

烟台做网站工资/活动推广软文范例

我已经用python导入了一个json文件&#xff0c;并且仍然读取了第一个json元素我需要添加一个循环来读取所有文件JSON文件内容[{"severity": 4,"status": "OPEN","id": 1987,"description": "Multiple Login Failures f…...

公司的网站怎么做推广/站长网站优化公司

今天我们分享win环境PostgreSQL数据库导入、导出dmp格式的数据&#xff0c;同时也会顺带说一下linux环境操作dmp格式的数据操作&#xff0c;思路都是一致的。 首先确定我们win环境安装了psql数据库&#xff0c;并且处于启动状态&#xff0c;登录验证&#xff1a; psql -h 127…...