mit6824-02-Lab1:MapReduce分布式实现
文章目录
- 写在前面
- 总体思路分析
- 代码实现
- 参考链接
写在前面
具体上次写6824的第一篇文章已经过去了快一个月,上次学习了MapReduce论文相关理论后一直没有继续写代码实现,自己一边要搞论文没有整块时间实现,这两天抽写了相关代码,算是对Lab1的一个交代。
我写的大部分代码都是参考别人的已经实现的,我写这篇博客的目的也并不是为了传播高深的技术,我只是记录一下自己从代码开始时的一头雾水到参考别人代码实现了感叹Lab1的伟大之处。方便后续自己回顾。
看到别人博客提及,每个hits都有用,自己在没有写代码时并不能完全理解官方页面提到的Hits的具体实现方式。我觉得最重要的自己把这些实现都搞懂了原理,随后自己再去回顾这些提示感觉写的很秒。
总体思路分析
MapReduce论文理解:
https://blog.csdn.net/weixin_45863010/article/details/142641061
官方Lab1链接:
https://pdos.csail.mit.edu/6.824/labs/lab-mr.html
上面图片简单概述:首先协调者Coordinator启动,并且注册RPC调用通道,随后Woker使用RPC调用去Coordinator获取任务。
- Worker根本不区分是否是Map-Worker还是ReduceWorker。
- Worker充当Map还是Reduce的角色是根据任务类型来划分的,如果是Map任务就执行Map任务,如果是Reduce任务就执行Reduce任务。「我在这里没有使用不是Map任务就执行Reduce任务,具体原因可以参考下面代码实现」
- Coordinator启动后首先初始化所有Map任务,当且只有所有Map任务全部执行完成,才能进行下一阶段Reduce,才能够初始化Reduce任务给Worker执行。「Reduce的执行依赖与Worker执行产生的中间文件,会将中间文件根据对应的reduceNum分配给一个Worker执行」
- 对于GFS或者本地磁盘存储Map产生的中间文件非常重要,MapWorker执行任务后会将任务执行结果存储到上述文件系统中,随后Coordinator根据ReduceNum分配需要执行的任务到ReduceWorker。在ReduceWorker获取到所有文件内容后,首先会排序。
我根据我写代码的理解画一个流程图如下:
代码实现
下面我将给出自己参考别人的代码实现,主要涉及到三个文件,我直接贴出对应的三个文件,代码里面附有详细的注释:
rpc.go
package mr//
// RPC definitions.
//
// remember to capitalize all names.
//import "os"
import "strconv"//
// example to show how to declare the arguments
// and reply for an RPC.
//// 定义任务结构体
type TaskRequest struct{}type TaskType inttype Task struct {TaskType TaskTypeTaskId intFileSlice []stringReduceNum int
}// 定义各种任务类型
// WaitingTask是否是必要的:是必要的,解决当Map任务没有全部完成成,此时调用GetTask返回WaitingTask,
// Worker在接受到这个任务状态后进行短暂的休眠,随后继续调用任务执行后续流程
const (MapTask TaskType = iotaReduceTaskWaitingTaskExitTask
)type ExampleArgs struct {X int
}type ExampleReply struct {Y int
}// Add your RPC definitions here.// Cook up a unique-ish UNIX-domain socket name
// in /var/tmp, for the coordinator.
// Can't use the current directory since
// Athena AFS doesn't support UNIX-domain sockets.
func coordinatorSock() string {s := "/var/tmp/5840-mr-"s += strconv.Itoa(os.Getuid())return s
}
coordinator.go
package mrimport ("fmt""io/ioutil""log""strconv""strings""sync""time"
)
import "net"
import "os"
import "net/rpc"
import "net/http"// Phase 定义当前总体进度,分为三个阶段:Map阶段、Reduce阶段、Done阶段
type Phase int// State 定义任务状态
type State int// 当前整体进度,分为三个阶段
const (MapPhase Phase = iotaReducePhaseAllDone
)// 任务状态类型
// 任务对应的三种状态如何切换的:初始任务时将所有任务状态设置为Waiting,
// worker调用rpc执行某个任务时,任务状态由Waiting==>Working
// worker执行任务完成后调用rpc将任务状态有Working==>Done,至此任务完成,上面后两条暂时仅仅针对Map任务
// worker执行Reduce任务时,原理仍然同上,状态由 Waiting==>Working==>Done之间切换
const (Working State = iota // 此阶段在工作Waiting // 此阶段在等待执行, 当Map任务没有执行完成此时Reduce任务需要等待Done // 此阶段已经做完
)// TaskMetaInfo 保存任务的元数据,任务开始时间、任务状态、任务对应的指针以便后续找到任务
// 思考:为什么不将任务执行状态以及任务执行开始时间,定义到具体任务Task结构体中,也可以这样定义,但不符合要求
// 这些信息不需要暴露给Worker,只要Coordinator维护这些信息,并且能够根据这些信息判断出哪些任务需要执行即可
type TaskMetaInfo struct {// 添加任务开始执行时间StartTime time.TimeState State// 传入任务的指针,为了任务从通道中取出来之后,能够通过地址标记这个任务已经完成TaskAdr *Task
}// TaskMetaHolder 任务元信息结构体,主要存储任务进行的状态、任务开始时间以及任务对应的地址「以能够随时更改任务状态」
type TaskMetaHolder struct {TaskMeta map[int]*TaskMetaInfo
}func (t *TaskMetaHolder) acceptTaskMetaInfo(taskMetaInfo *TaskMetaInfo) bool {taskId := taskMetaInfo.TaskAdr.TaskIdmeta, _ := t.TaskMeta[taskId]if meta != nil {fmt.Printf("[acceptTaskMetaInfo] the taskId :%v have contain metaInfo", taskId)return false} else {t.TaskMeta[taskId] = taskMetaInfo}return true
}// the function is to judge waiting task to working
func (t *TaskMetaHolder) judgeTaskState(taskId int) bool {taskInfo, ok := t.TaskMeta[taskId]if !ok || taskInfo.State != Waiting {return false}taskInfo.StartTime = time.Now()taskInfo.State = Workingreturn true
}// the function is to judge if all tasks have done, server subsequent phase
func (t *TaskMetaHolder) allTaskDone() bool {var (mapDoneNum = 0mapUnDoneNum = 0reduceDoneNum = 0reduceUnDoneNum = 0)taskMeta := t.TaskMetafor _, taskMetaInfo := range taskMeta {if taskMetaInfo.TaskAdr.TaskType == MapTask {if taskMetaInfo.State == Done {mapDoneNum++} else {mapUnDoneNum++}} else if taskMetaInfo.TaskAdr.TaskType == ReduceTask {if taskMetaInfo.State == Done {reduceDoneNum++} else {reduceUnDoneNum++}}}if (mapDoneNum > 0 && mapUnDoneNum == 0) && (reduceDoneNum == 0 && reduceUnDoneNum == 0) {return true} else {if reduceDoneNum > 0 && reduceUnDoneNum == 0 {return true}}return false
}type Coordinator struct {// Your definitions here.Phase PhaseMapChan chan *TaskReduceChan chan *TaskReduceNum intFiles []stringTaskId int // 这个字段主要作用生成递增IDTaskMetaHolder TaskMetaHoldermu sync.Mutex
}// Your code here -- RPC handlers for the worker to call.// an example RPC handler.
//
// the RPC argument and reply types are defined in rpc.go.
func (c *Coordinator) Example(args *ExampleArgs, reply *ExampleReply) error {reply.Y = args.X + 1return nil
}// start a thread that listens for RPCs from worker.go
func (c *Coordinator) server() {rpc.Register(c)rpc.HandleHTTP()//l, e := net.Listen("tcp", ":1234")sockname := coordinatorSock()os.Remove(sockname)l, e := net.Listen("unix", sockname)if e != nil {log.Fatal("listen error:", e)}go http.Serve(l, nil)
}// main/mrcoordinator.go calls Done() periodically to find out
// if the entire job has finished.
func (c *Coordinator) Done() bool {//The coordinator, as an RPC server, will be concurrent; don't forget to lock shared datac.mu.Lock()defer c.mu.Unlock()ret := false// Your code here.if c.Phase == AllDone {fmt.Println("All tasks have Done")ret = true} else {//fmt.Println("Not All tasks have Done")}return ret
}// create a Coordinator.
// main/mrcoordinator.go calls this function.
// nReduce is the number of reduce tasks to use.
func MakeCoordinator(files []string, nReduce int) *Coordinator {c := Coordinator{Phase: MapPhase,MapChan: make(chan *Task, len(files)),ReduceChan: make(chan *Task, nReduce),ReduceNum: nReduce,Files: files,TaskMetaHolder: TaskMetaHolder{TaskMeta: make(map[int]*TaskMetaInfo, nReduce+len(files)),},TaskId: 0,}// Your code here.c.MakeMapTask(files)c.server()// 开启一个探测器,监测任务执行时间是否过长go c.crashHandler()return &c
}func (c *Coordinator) MakeMapTask(files []string) {for _, file := range files {taskID := c.genTaskId()task := Task{TaskType: MapTask,TaskId: taskID,FileSlice: []string{file},ReduceNum: c.ReduceNum,}// 保存任务初始状态taskMetaInfo := TaskMetaInfo{State: Waiting, TaskAdr: &task}c.TaskMetaHolder.acceptTaskMetaInfo(&taskMetaInfo)c.MapChan <- &task}
}func (c *Coordinator) MakeReduceTask() {for reduceNum := 0; reduceNum < c.ReduceNum; reduceNum++ {taskID := c.genTaskId()task := Task{TaskType: ReduceTask,TaskId: taskID,FileSlice: c.selectReduceNum(reduceNum),ReduceNum: c.ReduceNum,}// 保存任务初始状态taskMetaInfo := TaskMetaInfo{State: Waiting, TaskAdr: &task}c.TaskMetaHolder.acceptTaskMetaInfo(&taskMetaInfo)c.ReduceChan <- &task}
}/*
*构建Reduce任务,需要将Map任务存储的所有中间文件按照ReduceNum构建任务:
一个File也就是一个Map任务,执行结果会根据Key的哈希值将一个File分散为ReduceNums个任务,如:mr-0-0\mr-0-1\mr-0-2
末尾数字为需要分配给某个Reduce执行的文件,中间的数字为对于的Map的任务标识,也就是TaskId
*/
func (c *Coordinator) selectReduceNum(reduceNum int) []string {var res []stringpath, _ := os.Getwd()files, err := ioutil.ReadDir(path)if err != nil {log.Fatal("[selectReduceNum] failure", err)return res}for _, file := range files {if strings.HasPrefix(file.Name(), "mr-") && strings.HasSuffix(file.Name(), strconv.Itoa(reduceNum)) {res = append(res, file.Name())}}return res
}/*
* 为什么需要一个全局唯一ID生成器,主要Map的worker个数为len(files), Reduce的worker个数为ReduceNum个,
* Coordinator中有一个属性TaskMetaHolder用于保存任务的元数据,更内层使用一个map表格存储各个任务的元信息,key为任务ID,同时任务总数为
* Map对应的worker+Reduce对应的worker,所以需要使用一个全局任务Id生成器,生成递增的任务ID*/
func (c *Coordinator) genTaskId() int {res := c.TaskIdc.TaskId++return res
}func (c *Coordinator) PullTask(taskReq *TaskRequest, taskResp *Task) error {c.mu.Lock()defer c.mu.Unlock()switch c.Phase {case MapPhase:{if len(c.MapChan) > 0 {*taskResp = *<-c.MapChanif !c.TaskMetaHolder.judgeTaskState(taskResp.TaskId) {fmt.Println("[PullTask] task state is ", c.TaskMetaHolder.TaskMeta[taskResp.TaskId].State)}} else {// Map对应的任务被分发完了,但此时任务并没有全部完成,此时将任务状态设置为waiting状态taskResp.TaskType = WaitingTask// 检查Map任务是否都完成,完成后将流程进入Reduce阶段if c.TaskMetaHolder.allTaskDone() {c.toNextPhase()}return nil}}case ReducePhase:{if len(c.ReduceChan) > 0 {*taskResp = *<-c.ReduceChanif !c.TaskMetaHolder.judgeTaskState(taskResp.TaskId) {fmt.Println("[PullTask] task state is ", c.TaskMetaHolder.TaskMeta[taskResp.TaskId].State)}} else {taskResp.TaskType = WaitingTaskif c.TaskMetaHolder.allTaskDone() {c.toNextPhase()}return nil}}case AllDone:{taskResp.TaskType = ExitTask}default:panic("[PullTask] invalid Phase")}return nil
}func (c *Coordinator) MarkDone(task *Task, taskResp *Task) error {c.mu.Lock()defer c.mu.Unlock()switch task.TaskType {case MapTask:{metaInfo, ok := c.TaskMetaHolder.TaskMeta[task.TaskId]if ok && metaInfo.State == Working {metaInfo.State = Donefmt.Printf("[MarkDone] task is done, the taskId is: %v, the taskType is %v\n", task.TaskId, task.TaskType)} else {fmt.Printf("[MarkDone] error, the task not to be done, taskId id : %v, the tasktype is %v\n ", task.TaskId, task.TaskType)}break}case ReduceTask:{metaInfo, ok := c.TaskMetaHolder.TaskMeta[task.TaskId]if ok && metaInfo.State == Working {metaInfo.State = Donefmt.Printf("[MarkDone] task is done, the taskId is: %v, the taskType is %v\n", task.TaskId, task.TaskType)} else {fmt.Printf("[MarkDone] error, the task not to be done, taskId id : %v, the tasktype is %v\n ", task.TaskId, task.TaskType)}break}default:{panic("[MarkDone] invalid TaskType")}}return nil
}func (c *Coordinator) toNextPhase() {switch c.Phase {case MapPhase:{c.MakeReduceTask()c.Phase = ReducePhase}case ReducePhase:{c.Phase = AllDone}default:panic("[toNextPhase] invalid phase")}
}/*
*
为什么要设置这个探测器:参考如下回答。自己写的时候考虑到这个仅仅将当前对应的任务状态由Working更改为Waiting,并将其加入到对应的chan通道中
但worker中并没有终止相应任务的执行,此举是否会造成一个worker执行多次???
1.无论worker中一个任务是否执行多次,对于Map来说产生的中间文件名称是一样的,后续分配给新的worker后输出文件会覆盖前面的worker输出的文件,并且是从头填写
The coordinator can't reliably distinguish between crashed workers, workers that are alive but have stalled for some reason,
and workers that are executing but too slowly to be useful. The best you can do is have the coordinator wait for some amount of time,
and then give up and re-issue the task to a different worker. For this lab, have the coordinator wait for ten seconds;
after that the coordinator should assume the worker has died (of course, it might not have).
*/
func (c *Coordinator) crashHandler() {for {// 关于这个休眠时间的思考:// 如果不设置这个休眠时间,可能导致探测器协程不断获取锁,释放锁,不断循环,从而导致分发任务的方法PullTask无法获取锁// 从而无法执行后续任务,这里类似时间片算法的使用了。time.Sleep(2 * time.Second)c.mu.Lock()if c.Phase == AllDone {c.mu.Unlock()break}for _, metaInfo := range c.TaskMetaHolder.TaskMeta {if metaInfo.State == Working && time.Since(metaInfo.StartTime) > 9*time.Second {if metaInfo.TaskAdr.TaskType == MapTask {c.MapChan <- metaInfo.TaskAdrmetaInfo.State = Waiting} else if metaInfo.TaskAdr.TaskType == ReduceTask {c.ReduceChan <- metaInfo.TaskAdrmetaInfo.State = Waiting}}}c.mu.Unlock()}
}
worker.go
package mrimport ("encoding/json""fmt""io/ioutil""os""sort""strconv""time"
)
import "log"
import "net/rpc"
import "hash/fnv"// Map functions return a slice of KeyValue.
type KeyValue struct {Key stringValue string
}// for sorting by key.
type BySort []KeyValue// for sorting by key.
func (a BySort) Len() int { return len(a) }
func (a BySort) Swap(i, j int) { a[i], a[j] = a[j], a[i] }
func (a BySort) Less(i, j int) bool { return a[i].Key < a[j].Key }// use ihash(key) % NReduce to choose the reduce
// task number for each KeyValue emitted by Map.
func ihash(key string) int {h := fnv.New32a()h.Write([]byte(key))return int(h.Sum32() & 0x7fffffff)
}// main/mrworker.go calls this function.
func Worker(mapf func(string, string) []KeyValue,reducef func(string, []string) string) {// Your worker implementation here.// uncomment to send the Example RPC to the coordinator.//CallExample()// ----------------------------------------第一次实现----------------------------------// GetTask//for i := 0; i < 2; i++ {// task := GetTask()// DoMapTask(&task, mapf)//}// ----------------------------------------第二次调整-----------------------------------// 对任务状态加入枚举flag := truefor flag {task := GetTask()switch task.TaskType {case MapTask:{DoMapTask(&task, mapf)TaskDone(&task)}case ReduceTask:{DoReduceTask(&task, reducef)TaskDone(&task)}case WaitingTask:{//执行到此处说明Map任务有部分尚未完成,此时不能继续执行后续的Reduce任务,只有等待所有Map任务全部完成后才能执行Reduce//所以在此处休眠一会fmt.Printf("[Worker] the task is waiting, taskId : %v\n\n", task.TaskId)time.Sleep(2 * time.Second)}case ExitTask:{fmt.Println("[Worker] Exit Task")flag = false}}}
}// GetTask :Get a Task
func GetTask() Task {taskReq := TaskRequest{}taskResp := Task{}ok := call("Coordinator.PullTask", &taskReq, &taskResp)if ok {fmt.Printf("[GetTask] success get task : %v\n", taskResp)} else {fmt.Printf("[GetTask] call failed!\n")}return taskResp
}func DoMapTask(task *Task, mapf func(string, string) []KeyValue) {/***Map任务主要流程分为三部分:1. 根据RPC调用获取到文件名,调用已经写好的Map函数生成中间文件(intermediate)2. 根据RPC返回的任务参数中的ReduceNum的数值对中间文件(intermediate)进行分组,分组依据根据字母结构体的Key取Hash值随后对ReduceNum取余。3. 将分组后的中间文件保存到临时文件中---------------------个人理解-----------------------------------------生成的临时文件名:mr-X-Y(X是文件id,Y是哈希后对应ReduceNum)对于文件Id就是运行coordinator传入第二个参数files(文件集)中文件的顺序也就是说Map函数的主要功能是将传入的某个文件的词频统计出来(准确的说并没有统计词频,可以阅读wc.go源代码)仅仅将「单词-1」统计出来for _, w := range words {kv := mr.KeyValue{w, "1"}kva = append(kva, kv)随后将某个文件的所有词频根据Key也就是单词,根据单词的哈希值将单词分组,分组个数为ReduceNum*/var intermediate []KeyValuefmt.Printf("[DoMapTask] worker is map taskId : %v, fileName : %v\n", task.TaskId, task.FileSlice[0])file, err := os.Open(task.FileSlice[0])if err != nil {log.Fatalf("[DoMapTask] cannot open %v", task.FileSlice[0])}content, err := ioutil.ReadAll(file)if err != nil {log.Fatalf("[DoMapTask] cannot read %v", task.FileSlice[0])}file.Close()intermediate = mapf(task.FileSlice[0], string(content))reduceNum := task.ReduceNumhashKV := make([][]KeyValue, reduceNum)for _, value := range intermediate {index := ihash(value.Key) % reduceNumhashKV[index] = append(hashKV[index], value)}// 放入中间文件for i := 0; i < reduceNum; i++ {fileName := "mr-" + strconv.Itoa(task.TaskId) + "-" + strconv.Itoa(i)tempFile, err := os.Create(fileName)if err != nil {log.Fatalf("[DoMapTask] create temp file: %v failed.", fileName)}enc := json.NewEncoder(tempFile)for _, kv := range hashKV[i] {err = enc.Encode(&kv)if err != nil {log.Fatalf("[DoMapTask] encode error: %v", err)}}tempFile.Close()}
}func DoReduceTask(task *Task, reducef func(string, []string) string) {// 关于这个Reduce任务为什么需要先写入临时中间文件,随后等中间文件写完后,在重命名临时文件为最终文件/**To ensure that nobody observes partially written files in the presence of crashes,the MapReduce paper mentions the trick of using a temporary file and atomically renaming it once it is completely written.You can use ioutil.TempFile (or os.CreateTemp if you are running Go 1.17 or later) to create a temporary fileand os.Rename to atomically rename it.最上面一句:确保发生崩溃时没有人观察到部分写入的文件使用中间临时文件在发生崩溃时临时文件不会保存,此外使用中间文件命令和最终输出文件名称不一样能够保证输出的符合要求格式的文件都是完整的,不完整的文件即使没有删除,由于命名和要求格式不一样也不会考虑*/reduceFileNum := task.TaskIdintermediate := shuffle(task.FileSlice)dir, _ := os.Getwd()tempFile, err := os.CreateTemp(dir, "mr-tmp-*")if err != nil {log.Fatal("[DoReduceTask] Failed to create temp file", err)}i := 0// Debug//fmt.Printf("the intermediate length is %v\n", len(intermediate))for i < len(intermediate) {j := i + 1for j < len(intermediate) && intermediate[j].Key == intermediate[i].Key {j++}var values []stringfor k := i; k < j; k++ {values = append(values, intermediate[k].Value)}output := reducef(intermediate[i].Key, values)fmt.Fprintf(tempFile, "%v %v\n", intermediate[i].Key, output)i = j}tempFile.Close()fn := fmt.Sprintf("mr-out-%d", reduceFileNum)os.Rename(tempFile.Name(), fn)
}func shuffle(files []string) []KeyValue {var kva []KeyValuefor _, filepath := range files {file, _ := os.Open(filepath)dec := json.NewDecoder(file)for {var kv KeyValueif err := dec.Decode(&kv); err != nil {break}kva = append(kva, kv)}file.Close()// 删除临时文件//os.Remove(filepath)}sort.Sort(BySort(kva))return kva
}func TaskDone(task *Task) {taskReq := tasktaskResp := Task{}ok := call("Coordinator.MarkDone", &taskReq, &taskResp)if ok {fmt.Printf("[TaskDone] success mark task : %v\n", taskReq)} else {fmt.Printf("[TaskDone] call failed!\n")}
}// example function to show how to make an RPC call to the coordinator.
//
// the RPC argument and reply types are defined in rpc.go.
func CallExample() {// declare an argument structure.args := ExampleArgs{}// fill in the argument(s).args.X = 99// declare a reply structure.reply := ExampleReply{}// send the RPC request, wait for the reply.// the "Coordinator.Example" tells the// receiving server that we'd like to call// the Example() method of struct Coordinator.ok := call("Coordinator.Example", &args, &reply)if ok {// reply.Y should be 100.fmt.Printf("reply.Y %v\n", reply.Y)} else {fmt.Printf("call failed!\n")}
}// send an RPC request to the coordinator, wait for the response.
// usually returns true.
// returns false if something goes wrong.
func call(rpcname string, args interface{}, reply interface{}) bool {// c, err := rpc.DialHTTP("tcp", "127.0.0.1"+":1234")sockname := coordinatorSock()c, err := rpc.DialHTTP("unix", sockname)if err != nil {log.Fatal("dialing:", err)}defer c.Close()err = c.Call(rpcname, args, reply)if err == nil {return true}fmt.Println(err)return false
}
参考链接
https://blog.csdn.net/weixin_51322383/article/details/132068745
https://blog.csdn.net/weixin_45938441/article/details/124018485
相关文章:

mit6824-02-Lab1:MapReduce分布式实现
文章目录 写在前面总体思路分析代码实现参考链接 写在前面 具体上次写6824的第一篇文章已经过去了快一个月,上次学习了MapReduce论文相关理论后一直没有继续写代码实现,自己一边要搞论文没有整块时间实现,这两天抽写了相关代码,算…...

【NOIP普及组】 装箱问题
【NOIP普及组】 装箱问题 💐The Begin💐点点关注,收藏不迷路💐 有一个箱子容量为V(正整数,0<=V<=20000),同时有n个物品(0&…...

Flutter主题最佳实践
Styling your Flutter app not only makes it visually appealing but also enhances the user experience. Flutter offers a robust theming system that helps you maintain consistency and customize your app’s look and feel. 设计 Flutter 应用程序的风格不仅能使其在…...

计算机网络:网络层 —— IPv4 数据报的首部格式
文章目录 IPv4数据报的首部格式IPv4数据报分片生存时间 TTL字段协议字段首部检验和字段 IPv4数据报的首部格式 IPv4 数据报的首部格式及其内容是实现 IPv4 协议各种功能的基础。 在 TCP/IP 标准中,各种数据格式常常以32比特(即4字节)为单位来描述 固定部分&#x…...

MySQL 之 索引
索引 概述 是帮助MySQL高效获取数据的数据结构,在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据,这样就可以在数据结构上实现高效查找算法,这种…...

手动探针台的用途及组成部分
探针台系统分为手动探针台与自动探针台,以下我们主要分析手动探针台。 探针台用途: 手动探针台又称探针测试台主要用途是为半导体芯片的电参数测试提供一个测试平台,探针台可吸附多种规格芯片,并提供多个可调测试针以及探针座&am…...

❤️算法笔记❤️-(每日一刷-5、最长回文串)
文章目录 题目思路解答 题目 给你一个字符串 s,找到 s 中最长的 回文 子串。 示例 1: 输入:s "babad" 输出:"bab" 解释:"aba" 同样是符合题意的答案。示例 2: 输入…...

nginx 路径匹配,关于“/“对规则的影响
1、基本规则 假如后端实际地址为: http://127.0.0.1:8080/api/user/getById?id123 则: 1)通过nginx转发,使用http://127.0.0.1/api/user/getById?id123访问 server {listen 80;server_name 127.0.0.1;location /api…...

安全知识见闻-网络安全热门证书
一、OSCP(Offensive Security Certified Professional) 1. 证书介绍 2.考点 3.部分考试要求 4.练习方法 二、OSEP(Offensive Security Exploit Developer) 1.证书介绍 2.考点 3.练习方法 三、CISSP(Certified lnformation Systems Security Professional&a…...

Pandabuy事件警示:反向海淘品牌如何规避风险
Pandabuy,作为一个曾经备受海外消费者青睐的跨境电商平台,以其丰富的商品种类、优质的服务和便捷的购物流程迅速崛起。然而,近期的一系列丑闻,尤其是涉嫌销售大量仿制名牌运动鞋的事件,让Pandabuy陷入了前所未有的信任…...

【纯血鸿蒙】安装hdc工具
这里我先写Mac版的,Windows的在下面 首先要知道你的SDK安装在哪里了,不知道的话,可以打开DevEco Studio,打开设置页面里的HarmonyOS SDK,这个我们之前配置环境变量的时候用过。 其实主要是用到这里toolchains下的hdc命令。 所以我们需要配置环境变量。 1、打开Mac下的…...

TensorFlow面试整理-给定一个任务(如图像分类、文本分类),如何从头构建一个TensorFlow模型?
构建一个 TensorFlow 模型来执行图像分类或文本分类任务的步骤基本类似,虽然数据类型不同,但核心流程相同。以下将以 图像分类任务 和 文本分类任务 为例,展示如何从头构建 TensorFlow 模型,覆盖数据预处理、模型构建、编译、训练和评估的完整流程。 一、图像分类任务:从头…...

unity中出现一些莫名其妙的问题
问题现象:一个功能昨天测试还正常的今天突然不能用了,而且关于这个功能的代码都没调整过。 原因:相关逻辑上存在异常代码,可能是别人提交的代码运行中有异常未处理导致 处理办法:解决异常 查找哪些位置使用了该异常脚本…...

Python爬虫-汽车投诉排行榜单数据
前言 本文是该专栏的第40篇,后面会持续分享python爬虫干货知识,记得关注。 本文以某汽车平台为例,通过python采集其“汽车投诉排行”榜单数据。具体的实现思路以及完整实现代码逻辑,笔者将在正文为你详细介绍。废话不多说,跟着笔者直接往下看正文详细内容。(附带完整代码…...

[C++][数据结构][哈希表]详细讲解
目录 1. 哈希概念 2.哈希冲突 3.哈希函数 4.哈希冲突解决 4.1闭散列 4.1.1何时扩容?如何扩容? 4.1.2线性探测 4.1.3二次探测 4.2开散列(哈希桶) 4.2.1概念 4.2.2开散列增容 1. 哈希概念 顺序结构以及平衡树中,元素关键码与其存储…...

Android Gradle
#1024程序员节|征文# Gradle 是一款强大的自动化构建工具,广泛应用于 Android 应用开发。它通过灵活的配置和丰富的插件系统,为项目构建提供了极大的便利。本文只是简单的介绍 Gradle 在 Android 开发中的使用,包括其核心概念、构…...

Vue2自定义指令及插槽
这里写目录标题 自定义指令基础语法指令的值封装v-loading指令 插槽默认插槽后备内容(插槽的默认值)具名插槽作用域插槽 自定义指令 自定义指令:自己定义的指令,封装一些dom操作,扩展额外功能 基础语法 全局注册&am…...

【Qt】系统相关——多线程、Qt多线程介绍、常用函数、线程安全、网络、UDP Socket、TCP Socket
文章目录 Qt系统相关1. 多线程1.1 Qt多线程介绍1.2 常用函数1.3 线程安全 2. 网络2.1 UDP Socket2.2 TCP Socket Qt 系统相关 1. 多线程 1.1 Qt多线程介绍 QThread 代表一个在应用程序中可以独立控制的线程,它还可以和进程中的其他线程共享数据。QThread 对象管理…...

1GS/s 4通道14bit PCIE采集卡
1GS/s 4通道14bit PCIE采集卡是一款同时具备直流耦合程控放大器和双极性宽带信号输入的高速数据采集卡。板载FPGA具备实时信号处理能力,这些特性使其成为激光雷达、光纤传感、粒子物理等应用领域进行信号采集和分析的理想工具。提供快速的PCI Express 3.0 x8数据传输…...

动态IP是什么?
随着互联网成为人们生活的重要组成部分,以信息传递为主导的时代种,网络连接质量对我们的工作效率、学习进度以及娱乐体验等方面都有很大影响。 动态IP,作为网络连接中的一种重要IP代理形式,越来越受到用户的欢迎。本文将深入解析…...

51单片机完全学习——红外遥控
一、红外接收模块原理 红外接收头内部本身有一个反相,意思就是:平时发送方无信号时接收到的是1,发送方有发送载波时接收头引脚输出的是0,写代码的时候注意这一点。红外协议,你也可以理解成,他对0和1重新做…...

群控系统服务端开发模式-应用开发-业务架构逻辑开发BaseAPI
一、加密工具开发 首先在根目录下extend文件中创建Encipher文件夹,用于专门开发加解密工具,新建RSA算法控制器并命名为Encrypt.php。然后在根目录下config文件夹中创建rsa.php文件,用于配置RSA算法参数。 1、秘钥生成算法 <?php /*** RS…...

【AI日记】24.10.27 了解AI的未来
【AI论文解读】【AI知识点】【AI小项目】【AI战略思考】【AI日记】 工作 工作1 内容:挑选AI大佬的访谈,跳着看了几个时间:2小时 工作2 内容:OpenAI Sam Altman最新访谈:GPT-4o和AI未来 2024.5时间:2小时收…...

【时间之外】IT人求职和创业应知【19】
认知决定你的赚钱能力。以下是今天可能影响你求职和创业的热点新闻: 今日关键字:深圳长沙(备注:我都没有去过) 2024中国(长沙)民营企业科技创新发展大会召开 内容概述: 2024年10月…...

MOE混合专家模型总结(面试)
目录 1. MOE介绍 2.MOE出现的背景 3.有哪些MOE模型 4.门控网络或路由 5.为什么门控网络要引入噪声 6.如何均衡专家间的负载 7.“专家”指什么 8.专家的数量对预训练有何影响 9.什么是topk门控 10.MOE模型的主要特点 11.MOE和稠密模型的对比 12.MOE的优势 13.MOE的挑…...

第8次CCF CSP认证真题解
1、最大波动 题目链接:https://sim.csp.thusaac.com/contest/8/problem/0 100分代码: #include <iostream> #include <algorithm> using namespace std; int main(int argc, char *argv[]) {int n;cin >> n;int a[1010];for(int i …...

2024昆明ICPC A. Two-star Contest(直观命名+详细注释)
Problem - A - Codeforces 思路: 按照等级排序,维护同等级最大评分,每个等级的总评分至少比其第前一个等级的最大评分大1分 吐槽: 思路不难,但坑好多,感觉全踩了一遍 坑:(按解决…...

【算法刷题指南】双指针
🌈个人主页: 南桥几晴秋 🌈C专栏: 南桥谈C 🌈C语言专栏: C语言学习系列 🌈Linux学习专栏: 南桥谈Linux 🌈数据结构学习专栏: 数据结构杂谈 🌈数据…...

HTML,CSS,JavaScript三件套
前言 1.HTML 就是用来写网页的 就是超文本标记语言 1.1快速入门 标签是根标签,就是开始的地方 head就是头,加载一些资源信息,和展示title标题的地方,比如html快速入门那几个字就是title标题标签 body是身体,就是正…...

react 总结+复习+应用加深
文章目录 一、React生命周期1. 挂载阶段(Mounting)补充2. 更新阶段(Updating)补充 static getDerivedStateFromProps 更新阶段应用补充 getSnapshotBeforeUpdate3. 卸载阶段(Unmounting) 二、React组件间的…...