MLP(Multilayer Perceptron,多层感知器)回归是一种基于神经网络的回归算法,主要用于解决非线性回归问题。它通过多个隐藏层将输入特征映射到输出,能够捕捉复杂的模式和关系。MLP回归的训练过程涉及前向传播、损失计算、反向传播及参数更新的多个步骤,通过这些步骤模型可以逐渐学习并优化,从而准确预测输出结果。
支持的计算资源
输入/输出
输入桩
通过读OSS数据组件,读取OSS路径下的训练数据文件。
配置此算法参数训练数据OSS路径,选择训练数据文件。
输出桩
训练生成的模型,保存地址对应算法参数保存模型的OSS路径。
关于参数详细说明,请参见下文中的参数说明。
配置组件
在Designer工作流页面添加MLP回归算法(训练)组件,并在界面右侧配置相关参数:
参数类型  | 参数  | 是否必选  | 默认值  | 描述  | |
字段设置  | 训练数据OSS路径  | 否  | 无  | 若无上游OSS数据传入,需手动选择训练数据文件,示例:train_data.csv(格式要求:CSV格式的数值特征文件,无表头,最后一列为目标值,其余列为特征)。  | |
保存模型的OSS路径  | 是  | 无  | 保存模型的OSS路径。  | ||
预训练的模型路径  | 否  | 无  | 预训练的模型路径,若不填,则不加载预训练模型。  | ||
参数设置  | MLP网络层数  | 是  | 3  | MLP的层数(除输出层外)。  | |
隐藏层的大小  | 是  | 64,32,16  | 每个隐藏层的输出通道数,用半角逗号(,)隔开。若输入单一数字,则表示所有隐藏层的输出通道数。  | ||
每个Dropout层的丢弃比例  | 是  | 0.5  | 每个Dropout层的丢弃比例,用半角逗号(,)隔开。若输入单一数字,则表示所有Dropout层的丢弃比例。  | ||
训练轮数  | 是  | 100  | 训练的总轮数。  | ||
学习率  | 是  | 0.01  | 学习率。  | ||
训练批大小  | 是  | 32  | 每次迭代中使用的训练样本的数量。  | ||
模型保存轮数  | 是  | 10  | 每隔多少个训练轮次(epoch)保存一次模型(checkpoint )。  | ||
验证轮数  | 是  | 5  | 每隔多少个训练轮次对验证集进行一次评估  | ||
优化器类型  | 是  | Adam  | 优化器,用于更新模型参数(如权重和偏置)的算法,支持类型包含Adam、SGD。  | ||
损失函数类型  | 是  | MSE  | 损失函数,用于衡量模型预测值与真实值之间差异的一种函数,支持类型包含MSE、L1。  | ||
执行调优  | 选择资源组  | 公共资源组  | 否  | 无  | 选择节点规格(CPU或GPU实例规格)、专有网络。  | 
专有资源组  | 否  | 无  | 选择CPU核数、内存、共享内存、GPU卡数。  | ||
最大运行时长  | 否  | 无  | 组件最大运行时长,超过这个时间,作业会被终止。  | ||