LSTM模型改进实现多步预测未来30天销售额
关于深度实战社区
我们是一个深度学习领域的独立工作室。团队成员有:中科大硕士、纽约大学硕士、浙江大学硕士、华东理工博士等,曾在腾讯、百度、德勤等担任算法工程师/产品经理。全网20多万+粉丝,拥有2篇国家级人工智能发明专利。
社区特色:深度实战算法创新
获取全部完整项目数据集、代码、视频教程,请进入官网:zzgcz.com。竞赛/论文/毕设项目辅导答疑,v:zzgcz_com
1. 项目简介
本项目旨在利用深度学习中的长短期记忆网络(LSTM)来预测未来30天的销售额。
递归预测(Recursive Forecasting)和多步预测(Direct Multi-Step Forecasting)
方法 | 优点 | 缺点 |
---|---|---|
递归预测 | 简单易实现;资源消耗较低;适应性强 | 误差累积;依赖性高;难以捕捉长期依赖关系 |
直接多步预测 | 避免误差累积;更好地捕捉多步间依赖关系;灵活性高;提高预测效率 | 模型复杂度增加;训练难度较大;难以扩展到长预测步数;需要更多的标注数据 |
递归预测是一种逐步预测方法,利用模型对一个时间步的预测结果作为下一个时间步的输入,递归地生成多个未来时间步的预测值。具体步骤如下:
- 使用历史数据预测第一个未来时间步。
- 将预测的值添加到输入序列中,移除最早的一个时间步。
- 使用更新后的输入序列预测下一个时间步。
- 重复上述过程,直到预测所需的所有未来时间步。
优点
-
简单易实现:
- 实现过程直接,不需要对模型结构进行复杂修改。
- 适用于大多数现有的单步预测模型,如LSTM、ARIMA等。
-
资源消耗较低:
- 只需训练一个模型来预测单个时间步,因此训练和存储需求较低。
-
适应性强:
- 可以应用于不同类型的时间序列数据,无需对数据进行特殊处理。
缺点
-
误差累积(Error Accumulation):
- 每一步的预测误差都会传递到下一个预测步骤,导致后续预测的误差可能显著增加。
- 尤其在长时间步预测时,累积误差可能使预测结果不可靠。
-
依赖性高:
- 后续预测依赖于之前所有的预测结果,任何一个步骤的错误都会影响整体预测性能。
-
难以捕捉长期依赖关系:
- 对于需要考虑长时间跨度依赖关系的序列,递归预测可能无法充分利用这些信息。
直接多步预测是一种同时预测多个未来时间步的方法。具体来说,模型直接输出多个未来时间步的预测值,而不是逐步预测。常见的实现方式包括:
- 独立模型方法(Independent Models): 为每个未来时间步训练一个独立的模型。
- 联合模型方法(Joint Models): 使用一个模型同时输出多个未来时间步的预测值。
优点
-
避免误差累积:
- 由于模型直接输出多个时间步的预测值,单步预测的误差不会传递到后续步骤,减少了误差累积的问题。
-
更好地捕捉多步间的依赖关系:
- 模型可以学习多个未来时间步之间的相互关系,提高预测的整体一致性和准确性。
-
灵活性高:
- 可以根据需求调整预测的时间步长度,而不受递归预测的限制。
-
提高预测效率:
- 通过一次性预测多个时间步,可以减少计算资源的消耗,尤其是在需要大规模预测时。
缺点
-
模型复杂度增加:
- 需要设计和训练能够输出多个时间步的复杂模型,可能需要更多的训练数据和计算资源。
-
训练难度较大:
- 由于需要同时预测多个时间步,模型在训练过程中可能面临更复杂的优化问题,导致训练不稳定或收敛速度较慢。
-
难以扩展到非常长的预测步数:
- 随着预测步数的增加,模型的输出维度也会增加,可能导致模型性能下降或过拟合。
-
需要更多的标注数据:
- 直接预测多个时间步需要更多的训练样本,以确保模型能够学习到有效的多步依赖关系。
-
选择合适的方法的建议
选择递归预测还是直接多步预测,取决于具体的应用场景和数据特性。以下是一些建议:
-
预测步数较短:
- 如果只需要预测未来几个时间步,递归预测通常足够且简单。
-
预测步数较长:
- 对于需要预测较长时间步的情况,直接多步预测可能更合适,能够减少误差累积的问题。
-
数据特性:
- 如果时间序列具有强烈的多步依赖关系,直接多步预测能够更好地捕捉这些依赖。
- 如果数据波动较大,递归预测可能更容易受到误差的影响。
-
计算资源:
- 递归预测通常计算资源消耗较低,适合资源有限的情况。
- 直接多步预测需要更高的计算资源和更多的训练数据,但在资源充足时能够提供更好的预测性能。
-
模型复杂度与训练时间:
- 如果模型训练时间和复杂度是限制因素,递归预测更具优势。
- 如果可以接受更长的训练时间和更高的模型复杂度,直接多步预测可能带来更好的结果。
2.模型核心改进点
问题描述
在代码中,使用 MinMaxScaler
对整个数据集(包括训练集和测试集)进行了拟合(fit
)和转换(transform
):
特征缩放
scaler = MinMaxScaler()
scaled_features = scaler.fit_transform(data)
scaled_data = pd.DataFrame(scaled_features, columns=features + [target])
这种做法会导致数据泄漏(Data Leakage) ,即测试集的信息被泄露到训练集中,从而在模型评估时高估模型的性能。
数据泄漏(Data Leakage)是什么?
数据泄漏是指在模型训练过程中,未经意间将测试集(或未来的信息)引入训练过程,使得模型在评估时表现出不真实的高性能。这种情况会导致模型在实际应用中表现不佳,因为模型在训练时已经“见过”测试集的信息。
为什么会发生数据泄漏?
在时间序列预测中,数据具有时间依赖性,训练集和测试集应保持时间上的先后顺序。通过在整个数据集上进行拟合 MinMaxScaler
,您实际上是在训练阶段使用了测试集的信息,具体表现为:
- 统计信息共享:
MinMaxScaler
在拟合时计算整个数据集的最小值和最大值。这意味着测试集的最小值和最大值也被用于训练集的缩放。 - 特征分布影响: 测试集的特征分布信息被传递到了训练集中,使得模型在训练时已经部分“了解”测试集的分布。
数据泄漏带来的影响
- 性能高估: 模型在训练时已经获得了测试集的一部分信息,导致在测试集上的表现被高估。
- 泛化能力差: 由于模型在训练时依赖于测试集的信息,实际应用中面对新的、未见过的数据时,模型的表现可能远不如预期。
- 不可靠的评估指标: 评估指标(如MSE、MAE等)可能反映出不真实的模型性能,误导模型选择和优化过程。
如何避免数据泄漏
要避免数据泄漏,尤其是在数据预处理阶段,关键是在数据划分(训练集和测试集)之后,再进行任何数据转换操作。具体步骤如下:
- 数据划分: 首先,将数据集划分为训练集和测试集,确保训练集仅包含用于模型训练的数据,测试集仅用于模型评估。
- 拟合Scaler: 仅在训练集上拟合(
fit
)缩放器。 - 转换数据: 使用在训练集上拟合的缩放器,分别转换训练集和测试集。
2、处理缺失值的方法可能引入未来信息
在代码中,添加了 last_week_sale
特征后,使用了 后向填充(Backfill) 方法来处理缺失值:
添加上周销售额特征
df['last_week_sale'] = df['sale'].shift(7)处理缺失值
df.fillna(method='bfill', inplace=True) 使用后向填充方法填补缺失值
问题在于,使用后向填充方法可能会导致 数据泄漏(Data Leakage) ,即利用未来的信息来填补过去的缺失值。这会导致模型在训练时“看到了”未来的数据,从而高估模型的性能,并在实际应用中表现不佳。
为什么使用后向填充会引入未来信息?
在时间序列数据中,处理缺失值时,填补缺失值的方法需要谨慎选择,以避免利用未来的信息。具体到您的代码:
last_week_sale
特征的创建:
df['last_week_sale'] = df['sale'].shift(7)
这意味着,每一天的 last_week_sale
是七天前的销售额。周期性模式捕捉: 在许多业务场景中,销售额具有明显的周期性,特别是基于星期的周期。例如,周末的销售额可能高于工作日。通过创建7天的滞后特征,模型可以学习到这种每周的周期性模式。因此,前七天的数据在创建 last_week_sale
时会产生缺失值(因为没有七天前的数据)。
使用后向填充(Backfill):
df.fillna(method='bfill', inplace=True)
后向填充会用后面的非缺失值来填补缺失值。例如,假设第1天到第7天的 last_week_sale
是缺失的,后向填充会用第8天到第14天的 last_week_sale
来填补第1天到第7天的缺失值。
问题在于,填补第1天到第7天的 last_week_sale
使用了第8天到第14天的销售额,这相当于用未来的信息来填补过去的缺失值,导致数据泄漏。
为了避免数据泄漏,尤其是在处理时间序列数据时,需遵循以下原则:
- 选择合适的填补缺失值方法: 在时间序列中,通常使用 前向填充(Forward Fill) 或 插值(Interpolation) 来填补缺失值,以避免引入未来信息。
3、LSTM模型输出维度与损失函数的匹配问题
在代码中,LSTM模型的输出维度设置为 FORECAST_STEPS
(30),即一次性预测未来30天的销售额。然而,PyTorch中的 nn.MSELoss
默认计算每个元素的均方误差(Mean Squared Error, MSE),这可能未能充分利用时间序列的结构信息,影响模型的预测性能和效果。
定义模型参数
input_size = len(features)
hidden_size = 64
num_layers = 2
output_size = FORECAST_STEPS 输出维度设为30
dropout = 0.2初始化模型
model = LSTMModel(input_size, hidden_size, num_layers, output_size, dropout).to(device)定义损失函数和优化器
criterion = nn.MSELoss()
learning_rate = 0.001
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)
- LSTM模型的输出维度设置
output_size = FORECAST_STEPS
(30) :这意味着模型的最终输出层是一个线性层,将LSTM的隐藏状态映射到30个输出值,代表未来30天的销售额预测。
self.fc = nn.Linear(hidden_size, output_size)
-
forward
方法中的输出:- LSTM层的输出形状为
(batch_size, seq_length, hidden_size)
。 - 通过
out[:, -1, :]
取最后一个时间步的隐藏状态,得到形状为(batch_size, hidden_size)
。 - 通过全连接层,输出形状变为
(batch_size, output_size)
,即(batch_size, 30)
。
- LSTM层的输出形状为
2. nn.MSELoss
的工作机制
- 默认行为:
nn.MSELoss
计算预测值和目标值之间每个元素的均方误差,并对所有元素取平均。 - 形状匹配:在您的设置中,预测值和目标值的形状都是
(batch_size, 30)
,因此nn.MSELoss
会逐元素计算误差并求平均。
- 潜在的问题
-
未充分利用时间序列结构:
nn.MSELoss
只是简单地计算每个预测值与实际值的误差,并对所有预测步数进行平均。这种方式忽略了不同时间步之间的依赖关系和序列结构。- 时间序列数据具有明显的时序依赖性,未来的销售额往往依赖于过去的销售模式,而不仅仅是单独的预测值。
-
预测步数之间的相互依赖性未被利用:
- 直接预测30个时间步意味着模型在一次性输出所有预测值,但
nn.MSELoss
无法捕捉这些预测值之间的相互关系。 - 例如,某一天的销售额可能会影响接下来几天的销售额,这种依赖关系在损失函数中没有得到体现。
- 直接预测30个时间步意味着模型在一次性输出所有预测值,但
-
权重分配不均:
- 所有预测步数在损失计算中被平等对待,未考虑某些时间步对整体预测的重要性。例如,近期的预测可能比远期的预测更重要,但
nn.MSELoss
无法反映这一点。
- 所有预测步数在损失计算中被平等对待,未考虑某些时间步对整体预测的重要性。例如,近期的预测可能比远期的预测更重要,但
为了解决上述问题,可以考虑以下几种方法,以确保损失函数和模型输出更好地匹配时间序列的特性。
使用自定义损失函数
设计一个能够捕捉时间步之间依赖关系的损失函数。例如,可以为不同的预测步数赋予不同的权重,或引入时间步之间的平滑性约束。加权MSELoss
序列到序列(Seq2Seq)模型
使用编码器-解码器结构的模型,可以更好地捕捉序列间的依赖关系。这种结构允许模型在生成每个时间步的预测时,参考整个输入序列的上下文。
3. 数据集与预处理
本项目所使用的数据集来自某商品的历史销售记录,包含多个特征字段,例如销售日期、销售额、温度等外部因素。数据集中最为核心的目标变量是商品的每日销售额,辅助特征包括温度和日期相关的周数信息。通过这些特征,项目能够分析和捕捉销售额的周期性趋势以及受到外部因素影响的波动性。
- 在数据预处理环节,首先对数据集进行了日期格式的标准化,将日期列转换为
datetime
格式,并按照时间顺序对数据进行了排序,确保后续模型能够捕捉到时间序列的顺序关系。此外,添加了周数作为新的特征,帮助模型捕捉到销售额的季节性和周期性模式。项目还引入了“上一周销售额”这一特征,使得模型在预测时能够参考历史数据,增加了时间序列的上下文信息。 - 为了处理缺失值,项目采用了向前填充的方式(
bfill
),确保特征值的完整性,避免数据不完整导致的模型训练问题。接下来,对选定的特征(如温度、周数、上一周销售额)进行了归一化处理。归一化使用了MinMaxScaler
方法,将所有特征值缩放至0到1之间,确保特征的数值范围相近,从而避免某些特征因数值较大而对模型产生过度影响。 - 项目还对时间序列数据进行了序列化处理,通过自定义函数将原始数据转换为适合LSTM模型的序列输入形式。每个输入序列包含过去30天的特征值,而对应的目标是预测未来30天的销售额。这种序列化处理不仅保留了原始时间序列的顺序信息,还为模型提供了充足的上下文。
4. 模型架构
本项目采用的是长短期记忆网络(LSTM)来进行未来30天销售额的预测。LSTM是一种能够捕捉时间序列中长期依赖关系的循环神经网络(RNN)变种,能够有效解决序列数据中的梯度消失问题。项目中的LSTM模型由以下几部分组成:
LSTM层
LSTM的核心是其记忆单元和门机制,通过这些机制,它能够决定在每个时间步保留、更新或丢弃哪些信息。
输入门(Input Gate):决定当前时间步的输入对记忆状态的影响。其数学公式为:
i t = σ ( W i ⋅ [ h t − 1 , x t ] + b i ) i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i) it=σ(Wi⋅[ht−1,xt]+bi)
其中,it表示输入门的输出,σ是sigmoid激活函数,Wi 和 bi 是输入门的权重和偏置,ht−1 是前一个时间步的隐藏状态,xt 是当前时间步的输入。
遗忘门(Forget Gate):决定从记忆单元中遗忘多少信息,公式为:
f t = σ ( W f ⋅ [ h t − 1 , x t ] + b f ) f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f) ft=σ(Wf⋅[ht−1,xt]+bf)
其中,ft表示遗忘门的输出,Wf 和 bf 是遗忘门的权重和偏置。
候选记忆单元(Cell Candidate):生成候选记忆状态,用于更新当前的记忆单元,公式为:
C ~ t = tanh ( W C ⋅ [ h t − 1 , x t ] + b C ) \tilde{C}_t = \tanh(W_C \cdot [h_{t-1}, x_t] + b_C) C~t=tanh(WC⋅[ht−1,xt]+bC)
其中,C~t 是候选的记忆单元状态,tanh 是双曲正切激活函数。
输出门(Output Gate):控制记忆状态如何影响输出,公式为:
o t = σ ( W o ⋅ [ h t − 1 , x t ] + b o ) o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + b_o) ot=σ(Wo⋅[ht−1,xt]+bo)
记忆单元更新(Cell State Update):通过遗忘门和输入门来更新记忆单元,公式为:
C t = f t ∗ C t − 1 + i t ∗ C ~ t C_t = f_t * C_{t-1} + i_t * \tilde{C}_t Ct=ft∗Ct−1+it∗C~t
隐藏状态更新(Hidden State Update):通过输出门和当前的记忆单元状态来更新隐藏状态,公式为:
h t = o t ∗ tanh ( C t ) h_t = o_t * \tanh(C_t) ht=ot∗tanh(Ct)
LSTM前向传播公式:
h t , C t = LSTM ( x t , h t − 1 , C t − 1 ) h_t, C_t = \text{LSTM}(x_t, h_{t-1}, C_{t-1}) ht,Ct=LSTM(xt,ht−1,Ct−1)
全连接层
LSTM的输出通过全连接层(fully connected layer)进行映射,得到最终的预测值。全连接层的公式为:
y = W f c ⋅ h t + b f c y = W_{fc} \cdot h_t + b_{fc} y=Wfc⋅ht+bfc
其中,Wfc 和 bfc 分别是全连接层的权重和偏置,ht 是LSTM输出的隐藏状态。
Dropout层
为了防止过拟合,模型中还使用了Dropout层,在训练过程中随机屏蔽掉部分神经元,Dropout的公式为:
h ′ = Dropout ( h , p ) h' = \text{Dropout}(h, p) h′=Dropout(h,p)
其中,p 是保留的神经元概率。
模型的整体训练流程
数据加载与处理:首先将时间序列数据按30天作为一个输入序列,构建训练和测试集。每个输入序列对应未来30天的销售额预测。
模型训练:在训练阶段,模型使用均方误差(MSE)作为损失函数。MSE的公式为:
MSE = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 \text{MSE} = \frac{1}{n} \sum_{i=1}^{n}(y_i - \hat{y}_i)^2 MSE=n1i=1∑n(yi−y^i)2
其中,yi是实际值,y^i是模型预测值,n 是样本数量。优化器选择Adam算法,基于反向传播更新模型参数。
评估指标:在评估阶段,除了MSE外,还使用了平均绝对误差(MAE)作为评估指标。MAE的公式为:
MAE = 1 n ∑ i = 1 n ∣ y i − y ^ i ∣ \text{MAE} = \frac{1}{n} \sum_{i=1}^{n} |y_i - \hat{y}_i| MAE=n1i=1∑n∣yi−y^i∣
评估过程中,测试集的预测结果通过这些指标进行比较,最后输出模型的误差情况。
可视化与结果分析:训练完成后,模型的损失曲线和预测结果通过图表进行可视化,便于直观了解模型的收敛情况以及预测性能。
5. 核心代码详细讲解
1. 数据预处理与特征工程
df = pd.read_csv('smoothed_ES_sku023.csv')
解释: 读取销售数据的CSV文件。这里使用的是pandas
库的read_csv
函数,将原始数据加载为DataFrame格式。
df['date'] = pd.to_datetime(df['date'], format='%Y/%m/%d')
解释: 将date
列转换为datetime
格式,方便后续的时间序列操作和按日期排序。
df = df.sort_values('date')
df.reset_index(drop=True, inplace=True)
解释: 对数据集按日期升序排序,确保时间序列的顺序一致。同时重置索引,删除旧索引并更新为新顺序。
df['week_number'] = df['date'].dt.isocalendar().week
解释: 提取每条数据所属的周数,并将其作为新的特征添加到数据集中,捕捉销售额的周期性特征。
df['last_week_sale'] = df['sale'].shift(7)
解释: 创建“上一周销售额”这一特征,用于捕捉前一周销售额对当前销售额的影响。shift(7)
表示将销售额向前平移7天。
df.fillna(method='bfill', inplace=True)
解释: 处理缺失值。这里使用向后填充的方法(backward fill),用之后的有效值填补缺失数据,确保数据的完整性。
features = ['temperature', 'week_number', 'last_week_sale']
target = 'sale'
解释: 定义模型的特征列和目标变量。其中,特征列包含温度、周数和上一周的销售额,目标变量为每日的销售额。
scaler = MinMaxScaler()
scaled_features = scaler.fit_transform(data)
解释: 使用MinMaxScaler
将特征和目标变量缩放到0到1之间的范围。这样做可以避免不同特征数值范围差异太大,防止某些特征对模型的影响过大。
2. 创建多步序列数据
def create_sequences(data, seq_length, forecast_steps, feature_cols, target_col):xs = []ys = []for i in range(len(data) - seq_length - forecast_steps + 1):x = data.iloc[i:i + seq_length][feature_cols].valuesy = data.iloc[i + seq_length:i + seq_length + forecast_steps][target_col].valuesxs.append(x)ys.append(y)return np.array(xs), np.array(ys)
-
解释: 这是创建多步序列数据的核心函数。它通过滑动窗口的方式将输入数据分割成固定长度的序列,用于训练LSTM模型。
data
: 输入的已预处理数据。seq_length
: 输入序列的长度,这里为过去30天。forecast_steps
: 预测步长,这里为未来30天。feature_cols
: 使用的特征列。target_col
: 目标列。- 函数返回两个数组:
xs
为输入特征序列,ys
为对应的目标序列。
X, y = create_sequences(scaled_data, SEQ_LENGTH, FORECAST_STEPS, features, target)
- 解释: 使用上面的
create_sequences
函数生成训练和测试数据,X
是特征序列,y
是目标值序列。
3. 模型架构构建
class LSTMModel(nn.Module):def init(self, input_size, hidden_size, num_layers, output_size, dropout=0.2):super(LSTMModel, self).
__init__
()self.hidden_size = hidden_sizeself.num_layers = num_layersself.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True, dropout=dropout)self.fc = nn.Linear(hidden_size, output_size)
-
解释: 这是模型的构建部分,定义了LSTM模型的结构。
input_size
: 输入特征的数量。hidden_size
: LSTM层的隐藏单元数量,决定了每层输出的维度。num_layers
: LSTM层的数量,这里使用了2层。dropout
: Dropout的比例,用于防止过拟合。lstm
: 定义了一个LSTM层,带有batch_first=True
,即输入的batch维度为第一维。fc
: 全连接层,将LSTM的输出映射到最终的预测值(未来30天的销售额)。
def forward(self, x):h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)out, _ = self.lstm(x, (h0, c0))out = out[:, -1, :]out = self.fc(out)return out
- 解释: 前向传播函数。初始化LSTM的隐藏状态和细胞状态为全零向量,然后通过LSTM层获取输出,并仅保留最后一个时间步的输出。最终通过全连接层生成预测结果。
4. 模型训练与评估
criterion = nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)
- 解释: 定义损失函数和优化器。损失函数为均方误差(MSE),优化器为Adam算法,它通过梯度下降优化模型的参数。
for epoch in range(EPOCHS):model.train()epoch_train_loss = 0for X_batch, y_batch in train_loader:X_batch = X_batch.to(device)y_batch = y_batch.to(device)outputs = model(X_batch)loss = criterion(outputs, y_batch)optimizer.zero_grad()loss.backward()optimizer.step()epoch_train_loss += loss.item() * X_batch.size(0)
- 解释: 训练循环。每个epoch中,模型首先进入训练模式,并循环遍历训练数据进行前向传播、计算损失、反向传播和优化更新权重。每个batch训练完成后,累积损失用于后续的模型评估。
model.eval()
epoch_test_loss = 0with torch.no_grad():for X_batch, y_batch in test_loader:X_batch = X_batch.to(device)y_batch = y_batch.to(device)outputs = model(X_batch)loss = criterion(outputs, y_batch)epoch_test_loss += loss.item() * X_batch.size(0)
- 解释: 测试循环。在评估阶段,模型切换为评估模式,不进行梯度更新。通过前向传播计算测试集的损失,以评估模型的泛化能力。
mse = mean_squared_error(y_test_unscaled, y_pred_unscaled)
mae = mean_absolute_error(y_test_unscaled, y_pred_unscaled)
- 解释: 计算均方误差(MSE)和平均绝对误差(MAE),作为模型的评估指标,评估预测值与真实值之间的偏差。
↓↓↓更多热门推荐:
CNN模型实现CIFAR-10彩色图片识别
全部项目数据集、代码、教程进入官网zzgcz.com
相关文章:
LSTM模型改进实现多步预测未来30天销售额
关于深度实战社区 我们是一个深度学习领域的独立工作室。团队成员有:中科大硕士、纽约大学硕士、浙江大学硕士、华东理工博士等,曾在腾讯、百度、德勤等担任算法工程师/产品经理。全网20多万粉丝,拥有2篇国家级人工智能发明专利。 社区特色…...
八LAMP搭建
# LAMP ## 一、知识回顾 ### FTP samba nfs 特点 - 借用Linux用户作为映射用户,进行权限管理 - 软件本身还有管理控制权限 #### 客户端连接到服务器后进行读写执行等操作 ,必须同时具有: - 软件许可的权限 vsftpd: anon upload enableYES - 文件…...
Windows——解除Windows系统中文件名和目录路径的最大长度限制
第一步:打开本地组策略编辑器 按下Win R键打开运行窗口,输入 gpedit.msc 并回车,打开本地组策略编辑器。 第二步:开启 长路径设置 第三步:重启计算机...
黑名单与ip禁令是同一个东西吗
黑名单和IP禁令相关,但它们并不是完全相同的概念。以下是它们之间的区别: 黑名单 定义:黑名单通常是一个包含不允许或被禁止的用户、IP地址、域名或其他实体的列表。用途:用于阻止特定用户或实体访问某个系统或服务。黑名单可以…...
FuTalk设计周刊-Vol.075
国庆75周年,也是第75期周刊~ 祝大家国庆快乐~! #AI漫谈 热点捕手 1.万字深剖!13位AI巨擘联袂,1.6万字解码生成式AI产品「全攻略」 “生成式人工智能产品”主题论坛,邀请到了来自腾讯、商汤科…...
PE节表中是否存在misc.VirtualSize 比SizeofRawData还要大的情况
确实是存在的,这是win10自带记事本,可以看到 确实是大.所以在申请imagebuffer的时候,还是需要比较大小.但是在还原的时候.只考虑sizeofRawData即可>...
栈及笔试题
目录 栈的实现 1、数组栈 2、链式栈 栈的创建 栈的打印 内存泄漏 栈溢出 练习 有效的括号 栈的实现 栈后入先出 1、数组栈 (最佳实现,且访问数据的时候CPU告诉访存命中率比较高,因为地址连续存放,访问时CPU从cache里一…...
【工程测试技术】第3章 测试装置的基本特性,静态特性和动态特性,一阶二阶系统的特性,负载效应,抗干扰性
目录 3.1 概述 1测量装置的静态特性 2.标准和标准传递 3.测量装置的动态特性 4.测量装置的负载特性 5.测量装置的抗干扰性 1.线性度 2.灵敏度 3.回程误差 4.分辨力 5.零点漂移和灵敏度漂移 3.3.1 动态特性的数学描述 1.传递函数 2.频率响应函数 3.脉冲响应函数 …...
ireport 5.1 中文生辟字显示不出来,生成PDF报字体找不到
ireport生成pdf里文字不显示。本文以宋体中文字不显示为例。 问题:由浅入深一步一步分析 问题1、预览正常,但生成pdf中文不显示 报告模板编辑后,预览正常,但生成pdf中文不显示。以下是试验过程: 先编辑好一个报告单模…...
给Ubuntu虚拟机设置静态IP地址(固定IP)
查看 为Ubuntu虚拟机配置静态IP地址(固定IP)的方法经过亲自测试,已被证实有效。 这里你记得网关就可以了,等下要用 查看配置前的网络信息 ifconfig 查看网关 route -n 配置 配置网络文件 cd /etc/netplan/ ls 查看自己的文件的名…...
spring boot文件上传之x-file-storage
spring boot文件上传之x-file-storage 今天看到一个文件上传的开源组件x-file-storage,官方地址如下: https://x-file-storage.xuyanwu.cn/#/ 该组件官网是这样介绍的,如下: 一行代码将文件存储到本地、FTP、SFTP、WebDAV、阿…...
Object.values() 、 Object.keys()
拿到当前对象里面的value值 // 假设你有一个对象 const myObject {name: Kimi,age: 30,country: Moon };// 获取对象的所有值 const values Object.values(myObject);// 输出值数组 console.log(values); // ["Kimi", 30, "Moon"] 如果你需要在 Vue 组…...
脸爱云管理系统存在任意文件上传漏洞
漏洞描述 脸爱云一脸通智慧管理平台是一套功能强大、运行稳定、操作简单方便、用户界面美观的一脸通系统。该平台整合了人脸识别技术和智能化解决方案,可以实现识别和管理个体身份,为各种场景提供便捷的身份验证和管理功能。其存在任意文件上传漏洞&…...
elasticsearch_exporter启动报错 failed to fetch and decode node stats
最近把服务器迁移到了ubuntu系统,结果发现在centos还正常运行的elasticsearch_exporter,用systemd启动后一直报错 failed to fetch and decode node stats 在网上翻了大半年,竟然都无解!这种报错,很明显就是你的ES密码…...
Git 使用方法
简介 Git常用命令 Git 全局设置 获取Git 仓库 方法二用的比较多 将仓库链接复制 在 git base here ----> git clone 仓库链接 工作区、暂存区、版本库 Git 工作区中文件中的状态 本地仓库的操作 远程仓库操作 git pull 将代码推送到远程仓库 1. git add 文件名 ---放…...
生产环境升级mysql流程及配置主从服务
之前写到过mysql升级8.4的文章, 因此不再介绍mysql的安装过程 避免服务器安装多个mysql引起冲突的安装方法_安装两个mysql会冲突吗-CSDN博客 生产环境升级mysql8.4.x流程 安装mysql 参考之前文章: 避免服务器安装多个mysql引起冲突的安装方法_安装两个mysql会冲突吗-CSDN博客…...
论软件体系结构的演化
摘要 2022年3月,我加入了公司的新智慧公交平台项目研发团队,并担任系统架构师角色,负责系统整体架构的设计与评审。该项目采用了物联网三层架构模型,其中设备接入层和网络交互层基于公司的中台战略,我们有效复…...
【go入门】常量
目录 定义枚举iota思考题 定义 go语言常量的定义和其他语言类似,常量中的数据类型只能是布尔型,数字型(整型、浮点型、复数)和字符串型 常量的定义方式和变量一样,只不过变量定义使用 var 关键字,而常量定…...
2.1 HuggingFists系统架构(二)
部署架构 上图为HuggingFists的部署架构。从架构图可知,HuggingFists主要分为服务器(Server)、计算节点(Node)以及数据库(Storage)三部分。这三部分可以分别部署在不同的机器上,以满足系统的性能需求。为部署方便,HuggingFists社区版将这三部…...
工具类:JWT
工具类:JWT 依赖JwtUtil.java 依赖 <!-- 创建、解析 和 验证JSON Web Tokens (JWT)--><dependency><groupId>io.jsonwebtoken</groupId><artifactId>jjwt</artifactId><version>0.9.1</version></dependenc…...
王道-计网
2 采用滑动窗口机制对两个相邻结点A(发送方)和B(接收方)的通信过程进行流量控制。假定帧的序号长度为3比特,发送窗口与接收窗口的大小均为7,当A发送了编号为0、1、2、3这4个帧后,而B接收了这4个帧,但仅应答了0、1两个帧,A继续发送4、5两个帧,且这两个帧已进入B的接收…...
【机器学习(十)】时间序列案例之月销量预测分析—Holt-Winters算法—Sentosa_DSML社区版
文章目录 一、Holt-Winters算法原理(一) 加法模型(二) 乘法模型(三) 阻尼趋势 二、Holt Winters算法优缺点优点缺点 三、Python代码和Sentosa_DSML社区版算法实现对比(一) 数据读入和统计分析(二) 数据预处理(三) 模型训练和模型评估(四) 模型可视化 四、总结 一、Holt-Winters…...
Webpack优化问题
目录 打包流程swcthread-loaderhash升级插件 打包流程 webpack 的打包流程大致可以分为以下几个步骤: 初始化:webpack 通过配置文件和 Shell 参数,初始化参数,确定入口文件、输出路径、加 载器、插件等信息。接下来读取配置文件…...
yjs10——pandas的基础操作
1.pandas读入文件——pd.read_cvs() data pd.read_csv("E:/机器学习/data/salary.csv") 注意:1.是pd.read_cvs,不要顺手写成np.read_cvs 2.路径的斜杠方向是/,不是\,如果直接从电脑粘贴路径,路径写法是\&am…...
Squaretest单元测试辅助工具使用
1、idea安装插件 Squaretest 然后关掉idea 2、安装字节码软件(jclasslib) 3、找到idea里面的Squaretest安装目录 找到包含TestStarter的jar包 4、打开 com.squaretest.c.f 打开后选择常量池 5、找到第16个修改 Long value值,修改的数字即为使…...
MFU简介
1、缩写 MFU - Mask Field Utilization(光刻掩膜版有效利用比例) GDPW - Gross Die Per Wafer,每张wafer上die的数量 2、什么是MASK 在光刻机中,光源(紫外光、极紫外光)透过mask曝光在晶圆上形成图…...
十分钟实现内网连接,配置frp
十分钟实现内网连接,配置frp 一.frp是什么?其实是一款实现外网连接内网的一个工具,个人理解,说白了就像是teamviwer一样,外网能访问内网。 利用处于内网或防火墙后的机器,对外网环境提供 http 或 https 服…...
解决MySQL命令行中出现乱码问题
在MySQL命令行中遇到乱码问题通常是由于字符编码设置不正确导致的。以下是一些解决步骤: 1. **检查和设置字符集**: 首先,您需要确保MySQL服务器、客户端和数据库使用的是正确的字符集。您可以通过执行以下命令来查看当前的字符集设置&…...
TS系列(7):知识点汇总
你好,我是沐爸,欢迎点赞、收藏、评论和关注。 一、TS是什么? TypeScript 由微软开发,是基于 JavaScript 的一个扩展语言。TypeScript 包含 JavaScript 的所有内容,是 JavaScript 的超集。TypeScript 增加了静态类型检…...
Unity 查看Inspectors组件时严重掉帧
遇到一个问题,就是运行一个脚本的时候,只要我查看它的Inspectors,就会严重掉帧。 原本是30fps,只要查看这个组件,就掉到5fps。 这还真有点像波粒二象性,一观察就会掉帧,不观察就正常。 using…...
福田莲花北网站建设/网站推广优化排名教程
第72届“世界大学生日”刚刚过去不久,这个节日本是为了在大学生中倡导追求和平、民主、自由和进步,如今,战乱过去已久,现今社会对人才的要求和期待越来越高,大学生也有着属于这个时代的使命与目标。现如今,…...
文档里网站超链接怎么做/软文推广广告
jdk1.5并发包中ReentrantLock的创建可以指定构造函数的boolean类型来得到公平锁或非公平锁,关于两者区别,java并发编程实践里面有解释 公平锁: Threads acquire a fair lock in the order in which they requested it非公平锁:a…...
php网站导航/seo投放
日期类型的自变量通常可以用以下几种方法进行处理: 独热编码:将日期类型的自变量转换成若干个二元组变量,每个二元组变量表示一个可能的日期值,并将该值编码成 1,其他值编码成 0。 数值化:将日期类型的自变…...
网站做推广页需要什么软件下载/软文是什么文章
Spark缺点无论是 Spark Streaming还是 Structured Streaming,Spark流处理的实时性还不够,所以无法用在一些对实时性要求很高的流处理场景中。这是因为 Spark的流处理是基于所谓微批处理( Micro- batch processing)的思想,即它把流处理看作是批处理的一种特殊形式,每次接收到一个…...
电子商务网站建设核心是/舆情信息网
1.使用XShell将下载好的jdk-9.0.1_linux-x64_bin.tar.gz包上传到/opt/下 2.解压文件 $ tar -zxvf jdk-9.0.1_linux-x64_bin.tar.gz3.重命名 $ mv jdk-9.0.1 jdk94.打印JAVA_HOME目录 $cd /opt/jdk/jdk9 $pwd /opt/jdk/jdk95.设置环境变量: $ vi /etc/profile #在文件…...
高端定制网站速度/今天最新新闻
# 本程序要实现的功能是: # 实现学生信息管理系统的增删改查 str_print("name:{}\t,math:{}\t,chinese:{}\t,english:{}\t") grade_list[] while True:print("""**************************欢迎使用【学生信息管理系统】请选择你想要进行的…...