网页设计与制作教学大纲/网站优化推广哪家好
系列文章目录
- 基于 FFmpeg 的跨平台视频播放器简明教程(一):FFMPEG + Conan 环境集成
- 基于 FFmpeg 的跨平台视频播放器简明教程(二):基础知识和解封装(demux)
- 基于 FFmpeg 的跨平台视频播放器简明教程(三):视频解码
- 基于 FFmpeg 的跨平台视频播放器简明教程(四):像素格式与格式转换
- 基于 FFmpeg 的跨平台视频播放器简明教程(五):使用 SDL 播放视频
- 基于 FFmpeg 的跨平台视频播放器简明教程(六):使用 SDL 播放音频和视频
- 基于 FFmpeg 的跨平台视频播放器简明教程(七):使用多线程解码视频和音频
文章目录
- 系列文章目录
- 前言
- I 帧,P 帧,B帧
- PTS 与 DTS
- Timebase,时间基
- Timebase 转换
- 音画同步
- 精确地纪录和获取时间
- 纪录时间的时机
- 音画同步具体算法
- 总结
- 参考
前言
在上篇文章 基于 FFmpeg 的跨平台视频播放器简明教程(七):使用多线程解码视频和音频 中,我们使用多个线程来做不同的事情,让整个播放器更加的模块化。
我们的播放器现在能够同时视频和音频了,但还不够,你会发现视频画面和音频会对不上,这是因为我们没有做音画同步。在现有的代码中,我们每隔 30ms 去播放一帧画面,而音频则是由系统的音频线程来负责驱动调用。这等于说,视频和音频各播各的,画面与声音失去了同步。因此,本章将讨论如何进行音画同步。
本文参考文章来自 An ffmpeg and SDL Tutorial - Tutorial 05: Synching Video 和 An ffmpeg and SDL Tutorial - Tutorial 06: Synching Audio。这个系列对新手较为友好,但 2015 后就不再更新了,以至于文章中的 ffmpeg api 已经被弃用了。幸运的是,有人对该教程的代码进行重写,使用了较新的 api,你可以在 rambodrahmani/ffmpeg-video-player 找到这些代码。
本文的代码在 ffmpeg_video_player_tutorial-my_tutorial05_01_clock.cpp。
I 帧,P 帧,B帧
I 帧(关键帧):也被称为内插帧。每一帧都是独立的图像,也就是说它不依赖于其他任何帧的图像信息。I帧类似于完整的图像,编解码器只需要本帧数据就可以完成解码。在视频播放时,I帧也是快进、快退、拖动的定位点,通常情况下,视频中的第一帧就是I帧。
P 帧(预测帧):P帧的数据包含与前一个I帧或P帧的差别,在编码时仅考虑了前向预测,也就是只与前一帧比较,来找出两帧之间的区别,然后只记录下这个差别。P帧依赖于前面的I帧或P帧。
B 帧(双向预测帧):B帧记录的是该帧与前后帧的差别,即考虑了双向的预测,可以理解为,B帧被插在I、P帧之间,通过前后帧进行预测、记录、解压。B帧依赖于前后的I帧或P帧。
需要所有这些帧的主要原因是为了压缩视频。I帧需要的数据量最多,但是不可能所有帧都为I帧,这样压缩率就很低,所以P帧和B帧诞生了,P帧和B帧只记录和参考帧的差异信息,所以数据量小,压缩率高,缺点是如果参考帧丢失,那么将导致无法解压出真实图像。总的来说,所有这些帧的组合能够使视频数据得以有效的压缩,同时保持视频质量。
PTS 与 DTS
假设现在有 4 帧画面,且没有 B 帧的情况,一种最常见的编码情况是:
I P0 P1 P0
在 “I P P P” 这种编码模式下,视频帧的解码过程较为简单,播放顺序和解码顺序是一样的,因为这种情况下没有B帧存在,P帧只依赖前面的I帧或P帧。
具体来说,解码过程如下:
- 首先解码第一帧I帧,I帧是关键帧,可以独立解码,不依赖任何其他帧。
- 然后解码第二帧P帧,此P帧只依赖于前一帧,前一帧是I帧,已经解码。
- 接着解码第三帧P帧,此P帧也只依赖于前一帧,前一帧是P帧,已经解码。
- 最后解码第四帧P帧,此P帧只依赖于前一帧,前一帧是P帧,已经解码。
所以,解码顺序和播放顺序一致,均为:I P P P。
如果有 B 帧呢?一种最常见的编码情况是:
I B0 B1 P0
在 “I B B P” 这种编码模式下,视频帧的解码顺序和播放顺序也是不一样的。B帧依赖前面和后面的帧,因此需要等待后一个参考帧(I或P帧)解析完成后,才能开始 B 帧的解码。
- 首先解码第一帧I帧,I帧是关键帧,可以独立解码,不依赖任何其他帧。
- 然后解码第四帧P帧,P帧只依赖于之前的I帧或P帧,这一步可以顺利进行。
- 解码完第四帧P帧后,才能开始解码第二帧和第三帧B帧。B帧需要依赖前一帧和后一帧,也就是需要依赖第一帧I帧和第四帧P帧。
所以,解码顺序为:I P B B。然而,播放顺序仍然为:I B B P。
因此,类似的,在包含B帧的情况下,解码顺序和播放顺序是有所不同的,这也是为什么在视频解码过程中需要对帧进行重新排序的原因。
我们使用 DTS(Decoding Time Stamp;解码时间戳)来表示解码的顺序,PTS(Presentation Time Stamp;呈现时间戳)来表示播放的顺序。
在 FFmpeg 中,解封装得到 AVPacket 后,每个 AVPacket 都有个成员变量叫做 dts;解码得到 AVFrame 后,每个 AVFrame 都有一个成员变量叫 pts。这两个变量对应着 DTS 和 PTS 的概念。
仍然以上面的 4 帧画面为例,在没有 B 帧的情况,经过编码后,它的码流应该是 Stream: I P0 P1 P2
,解码顺序与播放顺序一致,因此:
PTS: 1 2 3 4DTS: 1 2 3 4Stream: I P0 P1 P2
在有 B 帧的情况,经过编码后码流为 Stream: I P B0 B1
,解码顺序是 DTS: 1 2 3 4
,播放顺序是 PTS: 1 4 2 3
,因此:
PTS: 1 4 2 3DTS: 1 2 3 4Stream: I P B0 B1
Timebase,时间基
DTS 和 PTS 都是时间戳,那么时间的单位是什么?是秒(s)还是毫秒(ms)呢?其实都不是,DTS 和 PTS 是以时间基(timebase)为单位的,时间基是由编码格式决定的,通常它是一个如1/90000这样的分数。
为什么要引入 timebase,而不是固定使用 秒(s)或者毫秒(ms) 呢?引入timebase主要是为了提供更为灵活和精细的时间表示方法。虽然可以选择只用秒或毫秒作为单位,但这可能会在一些特殊的情况下引入不必要的误差或者损失精度。
在多媒体处理中,每种编码格式或者媒体流可能有其特定的帧率或者时钟频率,用一个固定的时间单位如秒或毫秒可能难以精确地表示这些特定的时间点或时长。比如有些视频可能是24帧/秒,有的可能是30帧/秒,有的可能是29.97帧/秒等。
而timebase是一个分数形式的时间单位,它的分子和分母都可以根据具体的编码格式或者媒体流来自由设定,可以精确适配不同的帧率和时钟频率,使得时间表示既可以非常精细,也可以非常灵活。例如,对于一个帧率为29.97fps的视频,我们可以设置timebase为1/30000,这样就能够非常精确地表示每一帧的时间。所以,引入timebase主要是为了在多媒体处理中提供一个既灵活又精确的时间表示方法。
Timebase 不如常见的秒或者毫秒那样直观。对于绝大多数人来说,"1/30000秒"涉及到的分数运算可能会比较难以理解,相比之下,"33.33毫秒"可能会更直观一些。
但是在多媒体编程中,由于需要处理各种不同的编码格式和媒体流,每种可能有其特定的帧率或者时钟频率,这就需要一个更灵活和精细的时间表示方法来适应这些差异,这就是引入timebase的原因。
对于程序来说,处理timebase只不过是一些简单的乘法和除法运算,而对于熟悉多媒体编程的开发者来说,他们也已经习惯了timebase这样的时间表示方法。
在FFmpeg中,timebase是一个分数,表示的是时间单位,用于进行时间戳与实际时间的转换。它由一个分子和一个分母构成。分子通常为1,分母通常等于媒体的帧率或者时钟频率。
- 分子(numerator):通常为1,在方程中根据需要设定
- 分母(denominator):通常将帧率或者时钟频率设定为分母
以数字视频为例,如果一个视频的帧率是每秒30帧,那么它的timebase就是1/30,这个值表示的是每帧的时间长度。换算成秒,就是约0.0333秒。如果你有一个时间戳值,例如100,那么这个时间戳对应的实际时间就是100 * (1/30)= 约3.33秒。
再举一个数字音频的例子,如果音频的采样率是44100Hz,表示每秒钟有44100个音频样本,那么它的timebase就是1/44100。如果你有一个时间戳值,例如22050,那么这个时间戳对应的实际时间就是22050 * (1/44100)= 0.5秒。
需要注意的是,不同的流可能有不同的time_base。例如一个包含视频和音频的媒体文件,它的视频流的time_base可能是1/30(对应30fps的帧率),而音频流的time_base可能是1/44100(对应44100Hz的采样率)。所以在计算时间戳对应的实际时间时,需要使用正确的time_base。
或者换一种理解,在FFmpeg中,timebase以一个分数形式存在,分母表示将1秒拆分成的份额,而分子表示每一帧(或采样,或其他计数单位)占用的份额。例如,如果一个时间基准(timebase)是7/30,那么这意味着1秒被拆分成了30份,每一帧占用了7份。所以,每一帧对应的时间就是7 * 1/30 = 0.2333秒。
在大多数的实际应用中,timebase的分子通常为1,这是因为在大多数媒体格式中,每一帧(或其他的计数单位)通常都对应于一个单位的时间。这样的话,如1/24、1/30、1/60这样的timebase也就表示了每帧的时间,直接是1/24秒、1/30秒、1/60秒。
Timebase 转换
由于视频流和音频流使用的 timebase 是不同的,为了能够进行音画同步,我们首先要做的是将视频帧的 PTS 与音频帧的 PTS 都转换到同一个 Timebase 上,以便我们进行时间上的比较。
在FFmpeg中,AV_TIME_BASE是一个宏定义,其值为1000000。这是作为FFmpeg内部处理时间戳时的一个共同参考,用于统一不同的时间基准。
这个宏定义的原理是以微秒作为基础时间单位。这样,你可以用这个AV_TIME_BASE来将时间戳从微秒转换到FFmpeg内部使用的时间单位,反之亦然。例如,如果你有一个以秒为单位的时间量,你可以乘以AV_TIME_BASE将其转换为基于FFmpeg的时间单位。
例如,1秒 = 1 * AV_TIME_BASE,0.5秒 = 0.5 * AV_TIME_BASE。多了解这一点,可以帮助你更好地理解FFmpeg在处理时间戳时的一些机制和单位转换等问题。
需要注意的是,虽然FFmpeg内部用AV_TIME_BASE作为统一的时间处理标准,但是不同的流还是可能有各自的时间基准,这需要我们在处理时对时间戳进行相应的转换。
假设我们有一个视频流,帧率是30fps,所以视频流的timebase是1/30;我们还有一个音频流,样本率是44100Hz,所以音频流的timebase是1/44100。
假设我们现在有一个视频帧和一个音频样本,它们的PTS(显示时间戳)分别是v_pts和a_pts。首先,我们需要把v_pts和a_pts转换到以AV_TIME_BASE为单位的时间戳,也就是以微秒为单位的时间戳:
v_pts_us = v_pts * (1 / 30) * AV_TIME_BASE
a_pts_us = a_pts * (1 / 44100) * AV_TIME_BASE
然后,我们就可以直接比较v_pts_us和a_pts_us,这样就能知道音频和视频哪个应该先播放。
如果v_pts_us < a_pts_us,那么这个视频帧应该先播放; 如果a_pts_us < v_pts_us,那么这个音频样本应该先播放。这样,就实现了音画同步。当然这是一个简化的示例,在真实的应用中,可能还需要更复杂的逻辑来处理AV同步,例如处理拖动播放条引起的seek操作,处理音频和视频的解码延迟等。
在 FFmpeg API 中,转换时间戳的函数是 av_rescale_q。该函数通过给定的 AVRational 结构体(表示时间基数的分数结构体)来重新缩放时间戳。你可以像下面这样使用它:
int64_t v_pts_us = av_rescale_q(v_pts, video_stream->time_base, AV_TIME_BASE_Q);
这样 av_rescale_q 就会将 v_pts 从 video_stream->time_base (视频流的时间基数)转换为 AV_TIME_BASE_Q(AV_TIME_BASE的时间基数,值为1/1000000)。同样的,你可以用这个函数转换音频时间戳:
int64_t a_pts_us = av_rescale_q(a_pts, audio_stream->time_base, AV_TIME_BASE_Q);
音画同步
有了前面的知识铺垫,相信你已经对 FFmpeg 中关于时间概念有所了解,这是进行音画同步编程的前提。
就目前的程序而言,视频和音频正在愉快地运行,根本不需要同步。如果一切正常,我们就不必担心这个问题。但你的电脑并不完美,很多视频文件也不完美。因此,我们有三种选择:将音频同步到视频、将视频同步到音频,或者将两者同步到外部时钟(如电脑)。现在,我们介绍的是将视频同步到音频。
精确地纪录和获取时间
我们首先要解决的第一个问题是:如何精确的纪录当前视频/音频流的时间。只有拿到了精确的时间,我们才能知道视频与音频之间的快慢关系。
在 ffmpeg_video_player_tutorial-my_tutorial05_01_clock.cpp 中我们封装了一个叫 Clock 的类,它负责纪录时间。
class Clock {
public:std::atomic<double> pts{0}; // clock base, secondsstd::atomic<double> last_updated{0}; // last pts updated timestd::atomic<double> pre_pts{0};std::atomic<double> pre_frame_delay{0};
};
- pts,当前流的播放时间,单位 s
- last_updated,最近 pts 更新的时间,单位 s
- pre_pts,上次的 pts
- pre_frame_delay,上次帧的延迟。在某些情况我们将使用这个变量作为当前帧的延迟。
使用下面这些函数来更新/获取时钟:
void setClockAt(Clock &clock, double pts, double time) {clock.pts = pts;clock.last_updated = time;
}void setClock(Clock &clock, double pts) {setClockAt(clock, pts, (double)av_gettime() / 1000000.0);
}double getClock(const Clock &c) const {double time = (double)av_gettime() / 1000000.0;return c.pts + time - c.last_updated;
}
setClock(Clock &clock, double pts)
更新当前 clock 的 pts,同时更新 last_updated 值,last_updated 也就是调用该函数时的系统时间。为什么需要 last_updated ?getClock
给出了答案。
getClock
获取当前流的播放时间。下图解释了 getClock
的计算逻辑
pts=30 pts=60 pts=90 pts=120
last_updated=1000 last_updated=1030 last_updated=1090 last_updated=1120
Thread0: |--------------------|--------------------|--------------------| | || |
Thread1: |----------|---------------------------------------------|-----| time=1015 time=1110t0=30+(1015-1000) t1=90+(1110-1090)=45 =110
想象有两个线程,Thread 0(视频播放线程)和Thread 1。Thread 0定期播放视频帧,并更新视频流的时间。Thread 1在任何时间都可能访问视频流时钟以获取当前播放时间。
在时间点 t0,系统时间 time 为 1015,视频流时钟的 pts=30,last_updated=1000;经过的时间是 (time - last_updated) = 15,这表明更新 pts 距现在过去了15个时间单位,所以当前播放时间是 pts + 15 = 45。
在时间点 t1,系统时间 time 为 1110,视频流时钟的 pts=90,last_updated=1090;经过的时间是 (time - last_updated) = 20,这表明更新 pts 距现在过去了20个时间单位,所以当前播放时间是 pts + 20 = 110。
纪录时间的时机
在代码中,我们使用两个 clock 分别纪录视频和音频的时间
Clock audio_clock_t; // 纪录音频时间
Clock video_clock_t; // 纪录视频时间
那么应该在何时更新时钟的时间呢?
在视频流中,在渲染当前帧时,我们更新 video_clock_t
时钟,具体的,在 videoRefreshTimer
函数使用 ctx->videoSync
进行时钟更新
void videoRefreshTimer(void *userdata) {// ...auto real_delay = ctx->videoSync(video_frame);// ...
}
在音量流中,在播放当前音频帧时,我们更新 audio_clock_t
时钟,具体的,在 audioCallback
函数中使用 ctx->setClock
进行时钟更新:
void audioCallback(void *userdata, Uint8 *stream, int len){// ...play_ctx->setClock(play_ctx->audio_clock_t,frame->pts * av_q2d(audio_stream->time_base));// ...
}
当然,注意我们设置时钟时需要将 pts 转换到以秒(s)为单位,确保视频时钟和音频时钟时间单位一致。
音画同步具体算法
本文主要讲解如何将视频同步到音频,因此,在音频线程中,我们只需更新音频时钟,而无需进行任何同步操作。所有的音频视频同步操作都会在视频播放线程中进行。
简单来说,音视频同步的原理并不复杂。以每秒 25 帧(即每 40 毫秒刷新一帧)的视频为例。如果视频播放速度超过了音频,我们可以适当地延长下一帧的刷新时间,使视频播放速度慢一些,给音频一些“追赶”的时间,比如延长到 45 毫秒刷新一帧。相反,如果音频的播放速度快于视频,我们可以缩短下一帧的刷新时间,使视频播放快一些,以便能跟得上音频的速度。
具体计算视频下一帧刷新时间的代码在 videoSync 函数中,看代码:
int videoSync(AVFrame *video_frame) {auto video_timebase_d = av_q2d(decode_ctx->video_stream->time_base);auto pts = video_frame->pts * video_timebase_d;setClock(video_clock_t, pts);auto pts_delay = pts - video_clock_t.pre_pts;printf("PTS Delay:\t\t\t\t%lf\n", pts_delay);// if the obtained delay is incorrectif (pts_delay <= 0 || pts_delay >= 1.0) {// use the previously calculated delaypts_delay = video_clock_t.pre_frame_delay;}printf("Corrected PTS Delay:\t%f\n", pts_delay);// save delay information for the next timevideo_clock_t.pre_pts = pts;video_clock_t.pre_frame_delay = pts_delay;auto audio_ref_clock = getAudioClock();auto video_clock = getVideoClock();auto diff = video_clock - audio_ref_clock;printf("Audio Ref Clock:\t\t%lf\n", audio_ref_clock);printf("Audio Video Delay:\t\t%lf\n", diff);auto sync_threshold = std::max(pts_delay, AV_SYNC_THRESHOLD);printf("Sync Threshold:\t\t\t%lf\n", sync_threshold);if (fabs(diff) < AV_NOSYNC_THRESHOLD) {if (diff <= -sync_threshold) {pts_delay = 0;} else if (diff >= sync_threshold) {pts_delay = 2 * pts_delay; // [2]}}printf("Corrected PTS delay:\t%lf\n", pts_delay);return (int)std::round(pts_delay * 1000);}
};
上述代码片段是一个函数,用于视频同步。用于使用音频时钟作为参考来调整视频帧的展示时间,从而实现音画同步。
- 第一部分:计算出当前视频帧的表现时间 pts。影片序数(pts)是一个表示时间基数的特殊单位,表示在给定的时间标度(time base)下的时间。这里av_q2d 函数将 decode_ctx->video_stream->time_base 转化为双精度浮点数。将 pts设为当前音频时钟的时间。
- 第二部分:计算 pts_delay,它表示当前帧和上一帧之间的延迟。如果这被认为是无效的(即小于等于0或大于等于1.0),则会使用先前的帧延迟。这些信息存储起来供下一次使用。
- 第三部分:获取音频时钟 audio_ref_clock和视频时钟 video_clock,并计算出二者之间的差值diff,这表示音频和视频帧之间的延迟。
- 第四部分:计算出调整阈值 sync_threshold,当差值 diff 在阈值范围内时,不调整 pts_delay,音频和视频同步。若差值(音频和视频延时)过大,则根据其正负,使视频速度加快或放慢,实现音视频同步。
- 最后,返回 pts_delay 的值(以毫秒为单位),这个返回值将被用作等待时间,来决定何时展示下一帧。
在视频播放线程中,使用 videoSync
计算出下一帧的刷新等待时间后,使用 scheduleRefresh(ctx, real_delay);
设置一个定时器,让定时器在 real_delay
后发送一个事件让 SDL 去渲染下一帧画面。就这样,我们完成了音画同步。
总结
本文介绍了如何实现播放器的音画同步,首先介绍了 I/P/B 帧的区别,引出了 PTS 和 DTS 的概念;接着,介绍了在 FFmpeg 中的 timebase 的概念,让读者了解 FFmpeg 是如何描述时间的;然后,我们详细的描述了音画同步实施的具体要点,包括如何精确的纪录不同流的当前时间,在什么时间节点来更新时钟,以及音画同步的具体算法。
参考
- An ffmpeg and SDL Tutorial - Tutorial 05: Synching Video
- An ffmpeg and SDL Tutorial - Tutorial 06: Synching Audio
- FFmpeg 音视频(DTS / PTS)
- ffmpeg_video_player_tutorial-my_tutorial05_01_clock.cpp。
相关文章:

基于 FFmpeg 的跨平台视频播放器简明教程(八):音画同步
系列文章目录 基于 FFmpeg 的跨平台视频播放器简明教程(一):FFMPEG Conan 环境集成基于 FFmpeg 的跨平台视频播放器简明教程(二):基础知识和解封装(demux)基于 FFmpeg 的跨平台视频…...

【NLP pytorch】基于BiLSTM-CRF模型医疗数据实体识别实战(项目详解)
基于BiLSTM-CRF模型医疗数据实体识别实战 1数据来源与加载1.1 数据来源1.2 数据类别名称和定义1.3 数据介绍2 模型介绍2 数据预处理2.1 数据读取2.2 数据标注2.3 数据集划分2.4 词表和标签的生成3 Dataset和DataLoader3.1 Dataset3.2 DataLoader4 BiLSTM模型定义5 CRF模型6 模型…...

人工智能原理(1)
*请注意,本文仅供学习使用* 目录 一、人工智能发展 1、孕育期 2、摇篮期 3、形成期 4、发展期(1970-1979) 5、实用期 6、稳步发展期 二、何为人工智能 1、智能的主要观点 2、智能定义 3、人工智能定义 三、人工智能研究方法 1、…...

预测成真,国内传来三个消息,中国年轻人变了,创新力产品崛起
中国的年轻人真的变了! 最近,国内传来三个消息,让外媒的预测成真。 第一,奥迪要开始用国产车的平台了。这里需要说明的是新能源汽车,奥迪也曾多次公开表示,承认了当前中国新能源汽车核心技术上的领先。 第…...

维深(Wellsenn):2023中国消费端VR内容开发商调研报告(附下载
关于报告的所有内容,公众【营销人星球】获取下载查看 核心观点 国内互联网大厂商入局VR,字节跳动、网易表态明确。字节跳动2021年收购国内头部VR硬件厂商PICO后,加速构建VR内容生态,2021年 成立海南创见未来当前已推出VR视频应用…...

redis事务管理详解
事务管理 事务管理乐观锁与悲观锁watch命令实现乐观锁watch命令示例 事务管理 Redis 提供了事务管理功能,可以通过 Redis 的 MULTI、EXEC、WATCH 和 DISCARD 命令来实现。 开启事务: 使用 MULTI 命令开始一个事务,表示接下来执行的命令都属于…...

国产低功耗蓝牙HS6621CxC/6621Px系列支持Find My网络功能方案芯片
目录 什么是“Find My“?HS6621系列简介 什么是“Find My“? “Find My”是苹果公司于19年前推出的针对失物追踪,Find My iPhone(查找我的iPhone)和Find My Friends(查找朋友)的结合体应用。为…...

【openGauss】分区表的介绍与使用
一、openGauss分区表介绍 在openGauss中,数据分区是在一个节点内部对数据按照用户指定的策略做进一步的水平分表,将表中的数据按照指定方式划分为多个互不重叠的部分。 对于大多数用户使用场景,分区表和普通表相比具有以下优点: …...

代码随想录算法训练营day57
文章目录 Day57回文子串题目思路代码 最长回文子序列题目思路代码 Day57 回文子串 647. 回文子串 - 力扣(LeetCode) 题目 给你一个字符串 s ,请你统计并返回这个字符串中 回文子串 的数目。 回文字符串 是正着读和倒过来读一样的字符串。…...

【基础类】—前后端通信类系统性学习
一、什么是同源策略及限制 同源策略限制从一个源加载的文档或脚本如何与来自另一个源的资源进行交互。这是一个用于隔离潜在恶意文件的关键的安全机制。源:协议、域名和端口, 默认端口是80 三者有一个不同,即源不同,就是跨域 ht…...

vite项目中使用@代表根路径
1.配置vite.config.ts import { defineConfig } from vite import vue from vitejs/plugin-vue import path from pathexport default defineConfig({plugins: [vue()],resolve: {alias:{: path.resolve(__dirname, src) }} })2.报错path和__dirname 找不到模块“path”或其相…...

冶金化工操作VR虚拟仿真实验软件提高员工们协同作业的配合度
对于高风险行业来说,开展安全教育培训是企业的重点工作,传统培训逐渐跟不上时代变化和工人需求,冶金安全VR模拟仿真培训系统作为一种新型的教育和培训工具,借助VR虚拟现实技术为冶金行业的工人提供一个安全、高效的培训环境。 冶金…...

SQL Server数据库 -- 索引与视图
文章目录 一、索引 聚集索引非聚集索引二、视图三、自定义函数 标量函数表值函数四、游标五、总结 前言 在学习完创建库表、查询等知识点后,为了更加方便优化数据库的存储和内容,我们需要学习一系列的方法例如索引与视图等等,从而使我们更加…...

2023 java web面试秘籍
目录 第一章:Java Web基础知识1.介绍3.Java Web基本概念 4.常见面试问题第二章:Java Web核心概念和技术1.介绍3.Servlet和JSP4.Web安全5.常见面试问题 第三章:Java Web高级概念和技术1.介绍3.Spring框架4.安全性5.常见面试问题 第四章&#x…...

2023-08-05力扣今日二题
链接: 剑指 Offer 18. 删除链表的节点 题意: 如题 解: 基础链表操作 实际代码: #include<iostream> using namespace std; struct ListNode {int val;ListNode *next;ListNode(int x) : val(x), next(NULL) {} }; Li…...

stl_list类(使用+实现)(C++)
list 一、list-简单介绍二、list的常用接口1.常见构造2.iterator的使用3.Capacity和Element access4.Modifiers5.list的迭代器失效 三、list实现四、vector 和 list 对比五、迭代器1.迭代器的实现2.迭代器的分类(按照功能分类)3.反向迭代器(1)、包装逻辑…...

利用hfish反控境外攻击源主机
导师给了7个网络安全课题选题,本想和他聊了下思路,他一挥手让我先做出点东西再来聊就把我打发走了…… 正好前段时间阿里云到校做推广,用优惠卷薅了一台云服务器,装了hfish先看下情况 没想到才装上没两天数据库就爆了࿰…...

4、Rocketmq之存储原理
CommitLog ~ MappedFileQueue ~ MappedFile集合...

在线原型设计工具有好用的吗?就是这10个
随着设计工作的不断发展,原型设计在设计工作中越来越重要,而在线原型设计工具在减轻了设计师工作负担的同时也提高了设计师的工作效率,今天本文将为大家推荐10个能在线使用的原型设计工具,一起来看看吧! 1、即时设计 …...

Vc - Qt - QPainter translate
QPainter的translate()函数是用来对绘制坐标系统进行平移操作的方法。它可以将绘制的原点(坐标轴的起始点)在水平和垂直方向上进行平移。以下是一个使用QPainter的translate()方法进行坐标平移的示例代码: QPainter painter(this);// 绘制一个…...

Spark Catalog详解
前言 旁边的实习生说:我想要用spark代码中对hive库中的内部表和外部表进行批量删除(包括数据),咋感觉网上搜了一圈都找不到解决方案啊,spark这么鸡肋吗? 我:你应该静下心来好好把spark基础知识进行全面学习。 实习生:难道spark有这功能,而我没有学习过?咋弄啊? 我:…...

【Spring专题】手写简易Spring容器过程分析
前置知识 《【Spring专题】Spring底层核心原理解析》 思路整理 我们在上一节《【Spring专题】Spring底层核心原理解析》课里面有简单分析过一个Spring容器的一般流程,所以,本节课我们这里尝试写一下简易的Spring容器。 手写源码示例 一、手写前的准…...

fastadmin自定义键值组件Fieldlist
需求场景: 后台设置前端的固定话费充值金额。编辑时要求能够增删改,给到前端的数据,是要根据金额正序排列,用fastadmin的键值组件(Fieldlist),使用Art-Template模板语法自定义模板。 最终效果如下图所示: …...

yolov2检测网数据集标注_labelme使用_json2txt格式转换
yolov2检测网数据集标注_labelme使用_json2txt格式转换 一、安装Anaconda二、创建labelme虚拟环境三、使用labelme标注健康非健康猫狗数据3.1 打开数据集所在文件夹3.2 进行标注数据集3.3 json2txt3.4 按文件目录和训练测试数据集重分配 四、数据喂给服务器网络参考链接 一、安…...

C/C++面试总结
一、关键字static、const、extern、volatile作用 1、const 1.修饰常量 用const修饰的变量是不可变的,修饰后的变量只能使用,不能修改。 2.修饰指针 如果const位于*的左侧,eg:const int* a,则const就是用来修饰指针…...

Python爬虫的Selenium(学习于b站尚硅谷)
目录 一、Selenium 1.为什么要学习Selenium (1)什么是Selenium (2)为什么使用selenium? (3)代码演示 2. selenium的基本使用 (1)如何安装selenium (2…...

springboot 对接 minio 分布式文件系统
1. minio介绍 Minio 是一个基于Go语言的对象存储服务。它实现了大部分亚马逊S3云存储服务接口,可以看做是是S3的开源版本,非常适合于存储大容量非结构化的数据,例如图片、视频、日志文件、备份数据和容器/虚拟机镜像等,而一个对象…...

前端小练习:案例4.3D图片旋转展示(旋转木马)
一.效果预览图 二.实现思路 1.实现旋转木马效果的第一步是先准备好自己需要的图片,创建html文件 2.旋转木马的实现,关键点在3D形变和关键帧动画。 3.步骤,定义一个div使其居中,,把图片放进div盒子里,因为图…...

Linux这17个操作技巧是每个运维工程师应知必会的吧?
今天跟大家分享17个linux运维中常用的操作技巧!掌握好这些技巧,或许某一天能够让老板给你涨工资! 1、查找当前目录下所有以.tar结尾的文件然后移动到指定目录: find . -name “*.tar” -exec mv {}./backup/ ; ❝ 注解࿱…...

音视频基础:分辨率、码率、帧率之间关系
基础 人类视觉系统 分辨率 像素: 是指由图像的小方格组成的,这些小方块都有一个明确的位置和被分配的色彩数值,小方格颜色和位置就决定该图像所呈现出来的样子;可以将像素视为整个图像中不可分割的单位或者是元素;像素…...