MLP回归算法(训练)

MLP(Multilayer Perceptron,多层感知器)回归是一种基于神经网络的回归算法,主要用于解决非线性回归问题。它通过多个隐藏层将输入特征映射到输出,能够捕捉复杂的模式和关系。MLP回归的训练过程涉及前向传播、损失计算、反向传播及参数更新的多个步骤,通过这些步骤模型可以逐渐学习并优化,从而准确预测输出结果。

支持的计算资源

DLC

输入/输出

输入桩

  • 通过OSS数据组件,读取OSS路径下的训练数据文件。

  • 配置此算法参数训练数据OSS路径,选择训练数据文件。

输出桩

训练生成的模型,保存地址对应算法参数保存模型的OSS路径

关于参数详细说明,请参见下文中的参数说明。

配置组件

Designer工作流页面添加MLP回归算法(训练)组件,并在界面右侧配置相关参数:

参数类型

参数

是否必选

默认值

描述

字段设置

训练数据OSS路径

若无上游OSS数据传入,需手动选择训练数据文件,示例:train_data.csv(格式要求:CSV格式的数值特征文件,无表头,最后一列为目标值,其余列为特征)。

保存模型的OSS路径

保存模型的OSS路径。

预训练的模型路径

预训练的模型路径,若不填,则不加载预训练模型。

参数设置

MLP网络层数

3

MLP的层数(除输出层外)。

隐藏层的大小

64,32,16

每个隐藏层的输出通道数,用半角逗号(,)隔开。若输入单一数字,则表示所有隐藏层的输出通道数。

每个Dropout层的丢弃比例

0.5

每个Dropout层的丢弃比例,用半角逗号(,)隔开。若输入单一数字,则表示所有Dropout层的丢弃比例。

训练轮数

100

训练的总轮数。

学习率

0.01

学习率。

训练批大小

32

每次迭代中使用的训练样本的数量。

模型保存轮数

10

每隔多少个训练轮次(epoch)保存一次模型(checkpoint )。

验证轮数

5

每隔多少个训练轮次对验证集进行一次评估

优化器类型

Adam

优化器,用于更新模型参数(如权重和偏置)的算法,支持类型包含Adam、SGD。

损失函数类型

MSE

损失函数,用于衡量模型预测值与真实值之间差异的一种函数,支持类型包含MSE、L1。

执行调优

选择资源组

公共资源组

选择节点规格(CPUGPU实例规格)、专有网络。

专有资源组

选择CPU核数、内存、共享内存、GPU卡数。

最大运行时长

组件最大运行时长,超过这个时间,作业会被终止。