MLP(Multilayer Perceptron,多层感知器)回归是一种基于神经网络的回归算法,主要用于解决非线性回归问题。它通过多个隐藏层将输入特征映射到输出,能够捕捉复杂的模式和关系。MLP回归的训练过程涉及前向传播、损失计算、反向传播及参数更新的多个步骤,通过这些步骤模型可以逐渐学习并优化,从而准确预测输出结果。
支持的计算资源
输入/输出
输入桩
通过读OSS数据组件,读取OSS路径下的训练数据文件。
配置此算法参数训练数据OSS路径,选择训练数据文件。
输出桩
训练生成的模型,保存地址对应算法参数保存模型的OSS路径。
关于参数详细说明,请参见下文中的参数说明。
配置组件
在Designer工作流页面添加MLP回归算法(训练)组件,并在界面右侧配置相关参数:
参数类型 | 参数 | 是否必选 | 默认值 | 描述 | |
字段设置 | 训练数据OSS路径 | 否 | 无 | 若无上游OSS数据传入,需手动选择训练数据文件,示例:train_data.csv(格式要求:CSV格式的数值特征文件,无表头,最后一列为目标值,其余列为特征)。 | |
保存模型的OSS路径 | 是 | 无 | 保存模型的OSS路径。 | ||
预训练的模型路径 | 否 | 无 | 预训练的模型路径,若不填,则不加载预训练模型。 | ||
参数设置 | MLP网络层数 | 是 | 3 | MLP的层数(除输出层外)。 | |
隐藏层的大小 | 是 | 64,32,16 | 每个隐藏层的输出通道数,用半角逗号(,)隔开。若输入单一数字,则表示所有隐藏层的输出通道数。 | ||
每个Dropout层的丢弃比例 | 是 | 0.5 | 每个Dropout层的丢弃比例,用半角逗号(,)隔开。若输入单一数字,则表示所有Dropout层的丢弃比例。 | ||
训练轮数 | 是 | 100 | 训练的总轮数。 | ||
学习率 | 是 | 0.01 | 学习率。 | ||
训练批大小 | 是 | 32 | 每次迭代中使用的训练样本的数量。 | ||
模型保存轮数 | 是 | 10 | 每隔多少个训练轮次(epoch)保存一次模型(checkpoint )。 | ||
验证轮数 | 是 | 5 | 每隔多少个训练轮次对验证集进行一次评估 | ||
优化器类型 | 是 | Adam | 优化器,用于更新模型参数(如权重和偏置)的算法,支持类型包含Adam、SGD。 | ||
损失函数类型 | 是 | MSE | 损失函数,用于衡量模型预测值与真实值之间差异的一种函数,支持类型包含MSE、L1。 | ||
执行调优 | 选择资源组 | 公共资源组 | 否 | 无 | 选择节点规格(CPU或GPU实例规格)、专有网络。 |
专有资源组 | 否 | 无 | 选择CPU核数、内存、共享内存、GPU卡数。 | ||
最大运行时长 | 否 | 无 | 组件最大运行时长,超过这个时间,作业会被终止。 |