Notebook开发

DataWorksNotebook支持多种类型的单元格,提供了一个交互式且模块化的分析环境,旨在帮助用户高效地完成数据处理、分析、可视化以及模型构建。

功能介绍

DataWorks中,可以通过Notebook节点构建交互式、模块化的可复用分析环境。

  • 多引擎开发:DataWorks Notebook拥有SQL Cell功能,支持多种大数据引擎的SQL开发与分析。

  • 交互式分析

    • 交互式SQL查询:通过Python编写Widgets组件,通过在组件中直观选择或设置参数的取值,后续可以进一步在SQL中引用相同参数及取值,从而实现PythonSQL间的交互式查询功能。

    • SQL查询结果写入DataFrame:SQL查询结果可直接存储在Pandas DataFrame 或 MaxFrame DataFrame对象中,以变量的形式传递至后续单元格。

    • 可视化图表生成:基于DataFrame中的数据内容,您可以在Python Cell中读取DataFrame变量并绘制图表,实现PythonSQL的高效联动。

  • 大数据+AI一体化开发:在DataWorks Notebook中可以使用Pandas等库进行数据清洗与准备,使数据内容满足算法模型的输入要求。随后,基于清洗后的数据,轻松完成算法模型的开发、训练与评估,实现大数据与AI的无缝衔接。

  • 智能代码生成:DataWorks Notebook内置智能编程助手,支持通过DataWorks Copilot辅助生成SQL代码和Python代码,提升开发效率。

  • 挂载数据集:DataWorks Notebook调度配置 > 调度策略中,支持为Notebook添加数据集,实现在节点运行过程中读取OSSNAS上的数据,或者将文件写入OSSNAS。

适用范围

  • 仅支持使用新版数据开发(Data Studio)的工作空间。

  • 仅支持Serverless资源组,详情请参见使用Serverless资源组

注意事项

运行该任务时,若使用Serverless资源组,单任务支持最大配置64CU,但建议不超过16CU,以避免CU过大导致资源不足,影响任务启动。

支持的单元格类型

  • SQL单元格:

    • 支持的单元格类型:MaxCompute SQLHologres SQLEMR SPARK SQLServerless StarRocks SQLFlink SQL BatchFlink SQL StreamingADB for PostgreSQLADB Spark SQL

    • 支持的计算资源: MaxComputeHologresEMR Serverless SparkEMR Serverless StarRocks全托管FlinkAnalyticDB for SparkAnalyticDB for PostgreSQL

  • Python单元格。

  • Markdown单元格。

创建个人开发环境实例

Notebook运行依赖个人开发环境实例,使用前需先创建并切换至目标实例。您可以通过个人开发环境实例安装Notebook节点开发依赖的环境,如Python第三方依赖。

创建Notebook节点

  1. 进入数据开发(新版)页面。

    进入DataWorks工作空间列表页,在顶部切换至目标地域,找到已创建的工作空间,单击操作列的快速进入 > Data Studio,进入Data Studio。

  2. 创建Notebook。

    DataWorks支持在项目目录个人目录以及手动任务下创建Notebook。

    • 在左侧导航栏单击image按钮,进入数据开发页面,在项目目录个人目录下创建Notebook。

      • 项目目录下创建Notebook:单击image按钮,选中Notebook,来新建Notebook。

      • 个人目录下创建Notebook:单击image按钮,新建Notebook文件。

    • 在左侧导航栏单击image按钮,进入手动页面,在手动任务下单击image按钮,选择新建节点 > Notebook,新建Notebook。

开发Notebook节点

image

1. 添加单元格

Notebook节点工具栏中,可以根据需要,选择SQLPythonMarkdown新增按钮,快速创建对应的单元格。此外,您也可以在代码编辑区具体单元格上下方快速新增单元格。

  • 从当前单元格上方新增单元格:鼠标悬浮至单元格上边缘时展示新增按钮,单击新增按钮即可在当前单元格上方插入一个新单元格。

  • 从当前单元格下方新增单元格:鼠标悬浮至单元格下边缘时展示新增按钮,单击新增按钮即可在当前单元格下方插入一个新单元格。

说明

若您想重新调整单元格位置,可通过鼠标悬浮在单元格前蓝色线条上拖拽调整单元格顺序。

2. (可选)切换单元格类型

在单元格中,您可通过单元格右下角的单元格类型按钮,相互切换单元格类型。更多单元格类型可参见:支持的单元格类型

  • SQL单元格从MaxCompute SQL单元格变更为Hologres SQL或其他SQL单元格。

  • SQL单元格变更为Python单元格或Markdown单元格,或者将Python单元格或Markdown单元格切换为SQL单元格。

说明

在切换单元格类型时,编辑内容将保留,需手动将单元格内的代码调整为合适的类型。

3. 开发单元格代码

在相应的单元格内可编辑SQLPython以及Markdown代码,使用SQL单元格开发时,需确保SQL语法与选择的SQL单元格类型,即计算资源类型匹配。您可使用DataWorks Copilot Ask辅助编程,以下为进入智能助手的方式:

  • 单元格工具栏进入:单击单元格右上方的image按钮,唤起Copilot的编辑器内聊天框,进行辅助编程。

  • 单元格右键菜单进入:选中单元格右键选择Copilot > 编辑器内聊天框,进行辅助编程。

  • 快捷键进入:

    • Mac系统Command+I键快捷呼出智能助手聊天框。

    • Windows系统Ctrl+I键快捷呼出智能助手聊天框。

运行Notebook

1. 选择个人开发环境

DataStudio中直接运行Notebook时,Notebook中的Python单元格需要基于个人开发环境来运行,因此需在页面上方手动选择已创建个人开发环境实例作为Notebook运行的环境。

2. 确认/切换Python内核

确认/切换Python内核:单击Notebook节点右上角的image按钮,确认当前Python单元格运行的Python内核版本,切换其他Python内核版本。

3. (可选)选择计算资源

4. 运行Notebook单元格

完成Notebook的单元格开发后,对所有单元格进行测试运行,也可以仅对单个单元格进行测试运行。

  • 运行全部单元格:编辑完成Notebook后,单击上方运行image按钮,测试运行该Notebook节点下的所有单元格。

  • 运行单个单元格:编辑完成Notebook内部的单元格后,单击单元格左侧image按钮,测试运行。

5. 查看运行结果

SQL单元格

单元格内支持撰写多种类型的SQL脚本,在运行SQL脚本后,将在单元格下方打印SQL运行结果。

说明

SQL单元格选择ADB Spark SQL类型,需先创建Python单元格并使用Magic命令建立与计算资源的连接后方可使用。详见:AnalyticDB for Spark命令

  • 场景一:若SQL不包含SELECT语句,单元格运行之后默认只展示运行日志。

    CREATE TABLE IF NOT EXISTS product (
        product_id BIGINT,
        product_name STRING,
        product_type STRING,
        price DECIMAL(10, 2)
    )
    LIFECYCLE 30; -- 表示数据的生命周期为30天,超出后数据将被自动删除,这是一个可选设置
  • 场景二:若SQL包含SELECT语句,单元格运行之后将展示运行日志,并提供两种查看方式:表格和可视化图表。同时,系统会自动将查询结果生成一个DataFrame变量

    SELECT 
    product_id,
    product_name,
    product_type,
    price 
    FROM product;
    • 生成DataFrame数据对象:

      SQL单元格自动生成返回变量,可通过单击SQL单元格左下方的df_*变量名,为生成的DataFrame变量重新命名

      image

    • 查看SQL查询的表格:

      SQL查询运行完成后,在日志区域默认展示SQL查询结果表格。

      image

    • 查看SQL查询的可视化图表

      SQL查询运行完成后,在日志区域左侧单击image按钮,可以查看通过SQL查询生成的表数据的可视化图表。

      image

Python单元格

单元格内支持撰写Python脚本,在运行Python脚本后,将在单元格下方打印Python代码的运行结果。

  • 场景一:仅打印输出文本。

    print("Hello World")
  • 场景二:使用Pandas DataFrame。

    import pandas as pd
    
    # 定义产品数据,包括详细信息:产品名称、区域和登录频率。
    product_data = {
        'Product_Name': ['DataWorks', 'RDS MySQL', 'EMR Spark', 'MaxCompute'],
        'Product_Region': ['East China 2 (Shanghai)', 'North China 2 (Beijing)', 'South China 1 (Shenzhen)', 'Hong Kong'],
        'Login_Frequency': [33, 22, 11, 44]
    }
    
    # 根据给定的数据创建一个DataFrame。
    df_products = pd.DataFrame(product_data)
    
    # 打印DataFrame以显示产品信息。
    print(df_products)

    image

  • 场景三:绘制图表。

    import matplotlib.pyplot as plt
    
    # 数据
    categories = ['DataWorks', 'RDS MySQL', 'MaxCompute', 'EMR Spark', 'Hologres']
    values = [23, 45, 56, 78, 30]
    
    # 创建条形图
    plt.figure(figsize=(10, 6))
    plt.bar(categories, values, color=['blue', 'green', 'red', 'purple', 'orange'])
    
    # 添加标题和标签
    plt.title('Example Bar Chart')
    plt.xlabel('category')
    plt.ylabel('value')
    
    # 显示图形
    plt.show()

    image

Markdown单元格

  • 在编写完成后,单击image按钮后,可展示Markdown的文本和格式效果。

    # DataWorks Notebook
说明

在已展示的格式效果的Markdown单元格中,单击image按钮,可继续编辑该单元格。

后续操作:发布节点

  • 配置调度项目目录下的Notebook若要在生产环境中周期性调度运行,需要配置调度相关属性。例如:指定周期调度时间

    项目目录个人目录手动任务下的Notebook均默认使用个人开发环境的内核运行,当发布Notebook至生产环境时,系统将默认使用您在调度配置中选择的镜像环境执行。因此,发布Notebook前,请确保调度配置中选择的镜像,已包含运行Notebook节点需要的依赖环境。您可基于个人开发环境制作DataWorks镜像,以便在调度时使用。

  • 发布节点:Notebook节点发布至生产环境后才会按照调度配置中的配置项运行,您可通过以下方式将节点发布至生产环境。

    • 项目目录下发布Notebook:保存Notebook后,单击image发布Notebook,发布后可在运维中心内的任务运维 > 周期任务运维 > 周期任务页面查看该Notebook任务。

    • 个人目录下发布Notebook:保存Notebook后,先单击image按钮将个人目录下的Notebook提交至项目目录下,再单击image发布Notebook,发布后可在运维中心内的任务运维 > 周期任务运维 > 周期任务页面查看该Notebook任务。

    • 手动任务下发布Notebook:保存Notebook后,单击image发布Notebook,发布后可在运维中心内的任务运维 > 手动任务运维 > 手动任务页面查看该Notebook任务。

  • 下线任务:下线Notebook时,右键单击节点,选择删除,根据界面提示对Notebook进行下线或删除。

场景与实践

单元格参数传递和调度赋值

Python变量传递至SQL

Python单元格定义的变量,支持在SQL单元格中通过${var}方式引用。

image

SQL结果传递至Python

SQL单元格有输出结果时,将自动生成最后一个SELECT语句结果的DataFrame变量,结果将传递至Python单元格。

DataFrame变量名默认为df_**,可通过单击单元格左下角的变量名对变量进行自定义。

image

为调度任务中的参数赋值

当您需要在调度场景下为 Notebook 中的代码参数动态赋值时,请遵循以下步骤:

  1. 标记参数单元格 (Parameter Cell)
    在 Notebook 编辑器中,定位到含有参数化代码的单元格。单击该单元格的Mark Cell as Parameters,标记参数。完成标记后,该单元格将被识别为参数化入口,并带上parameters标签。

    image

  2. 配置调度参数
    在节点的调度配置 > 调度参数区域,为已标记的参数(例如 var)设置具体的调度值。

    image

当任务被调度系统自动执行时,代码中 var 参数的实际值,将由在调度参数中配置的值动态替换。

引用工作空间参数

Notebook开发时,可在SQL单元格和Python单元格内以${workspace.param}格式来引用工作空间参数,以下为引用工作空间参数的简单示例。

说明
  • 单元格内引用工作空间参数前,需提前创建工作空间参数

  • 示例中的param是您创建的工作空间参数名称,在开发中需替换为您所需的工作空间参数名称。

  • SQL单元格引用工作空间参数。

    SELECT '${workspace.param}';

    查询工作空间参数,运行成功后,将打印输出工作空间参数的具体赋值。

  • Python单元格引用工作空间参数。

    print('${workspace.param}')

    输出工作空间参数,运行成功后,将打印输出工作空间参数的具体赋值。

Notebook引用Python资源

Notebook在进行开发时,可通过##@resource_reference{"自定义名.py"}的方式引用MaxCompute资源,以下为引用Python资源的简单示例:

说明

Notebook引用Python资源仅在生产环境下生效,在开发环境下无法正常获取资源,请将Notebook发布至生产环境后,在运维中心执行。

新建Python资源

  1. 添加Python资源文件。

    1. 进入DataWorks工作空间列表页,在顶部切换至目标地域,找到已创建的工作空间,单击操作列的快速进入 > Data Studio,进入Data Studio。

    2. 在左侧导航栏单击image,进入资源管理。

    3. 资源管理页面,单击image,新建MaxCompute Python资源。本示例将该Python资源命名为:hello.py

  2. 在线编辑Python资源文件内容,示例代码如下:

    # your_script.py
    def greet(name):
        print(f"Hello, {name}!")

    编辑完成后,单击保存,保存Python代码。

  3. 完成代码的编辑与保存后,单击image按钮,保存hello.py资源。

  4. 资源保存成功后,单击image按钮,发布hello.py资源至开发以及生产环境。

引用Python资源

  1. 新增Notebook节点,详情可参见创建Notebook节点

  2. Notebook中新增Python单元格,详情可参见添加单元格

    Python单元格中编写的##@resource_reference{"hello.py"}引用新建的MaxCompute Python资源,以下为示例代码:

    ##@resource_reference{"hello.py"}
    from hello import greet  # 替换为实际的函数名
    greet('DataWorks')
  3. 完成Python单元格的代码编写与节点调度后,保存并发布Notebook节点。

  4. 进入运维中心(工作流),在周期任务运维 > 周期任务中找到已发布的Notebook节点,单击操作列补数据,对Notebook节点进行补数据,补数据详情可参见:补数据实例运维

  5. 完成补数据后,即可通过查看Notebook节点运行日志来确认Python单元格是否执行成功。

    重要

    当对资源修改重新发布时,需在Data Studio设置中,修改资源冲突处理策略Dataworks › Notebook › Resource Reference: Download StrategyautoOverwrite,并在Notebook顶部工具栏重启Kernel

使用内置Magic Command建立MaxCompute计算资源连接

Python单元格中,可使用内置的Magic Command建立与MaxCompute计算资源的连接,从而无需在Python中频繁重复定义连接信息和明文AccessKey信息。

说明

在建立MaxCompute计算资源连接前,请确保已绑定MaxCompute计算资源

场景一:建立MaxCompute MaxFrame Session连接

使用Python单元格进行开发时,您可以使用以下内置的Magic Command唤起MaxCompute计算资源选择器,访问MaxCompute MaxFrame服务

  • 使用Magic Command连接并访问MaxCompute MaxFrame Session 。

    mf_session = %maxframe
  • 使用Python单元格的Magic Command释放MaxCompute MaxFrame连接:

    mf_session.destroy()

场景二:连接MaxCompute计算资源

使用Python单元格进行开发时,您可以使用以下内置的Magic Command唤起MaxCompute计算资源选择器,通过 Python 语言与 MaxCompute 进行交互,包括数据加载、查询、DDL 操作。

  1. 使用Magic Command创建MaxCompute连接。 输入%odps,右下角会出现MaxCompute的计算资源选择器入口(并自动选择计算资源)。点击右下角的MaxCompute项目名称,可更换MaxCompute项目。

    o=%odps 
  2. 使用获取到的MaxCompute计算资源运行PyODPS脚本。

    例如,获取当前项目下的所有表:

    with o.execute_sql('show tables').open_reader() as reader:
        print(reader.raw)

将数据集中的数据写入MaxCompute

DataWorks支持创建NAS类型的数据集,然后在Notebook开发中使用数据集,实现读写NAS存储中的数据。

以下是一个简单示例,将个人开发环境实例挂载的数据集(挂载路径为/mnt/data/dataset02)中的测试数据(testfile.csv)写入MaxCompute表(mc_testtb)中。

image

Magic命令连接PySpark计算资源

通过Python Cell连接计算资源

NotebookPython单元格中,可通过以下命令,在目标计算资源中快捷创建、连接或释放用于连接Spark的服务。

MaxCompute命令

Notebook开发过程中,您可在Python单元格中通过Magic命令来快捷创建并启动Livy服务,从而连接至MaxCompute Spark,实现高效开发与调试。

Magic命令

Magic命令含义

相关说明

%maxcompute_spark

运行该命令后,将会进行以下操作:

  • 创建Livy

  • 启动Livy

  • 创建Spark Session

说明

暂不支持在MaxCompute控制台查看LivySpark Session信息。

Data Studio运行Notebook:

Data Studio中运行Notebook时需要选择个人开发环境实例的名称。在已选择的个人开发环境实例下,首次在Notebook中执行该命令时会新建Livy。若Livy未被删除,则后续在同一个个人开发环境实例中多次运行%maxcompute_spark命令时,将会复用已创建的Livy。

发布生产后运行Notebook:

在生产环境中运行Notebook时,每个Notebook任务实例均会新建Livy。Notebook任务实例运行完毕会自动停止并删除Livy。

%maxcompute_spark stop

运行该命令后,将会清理Spark Session,并停止Livy。

如需将Notebook任务发布至生产环境运行,Notebook任务代码可不包含该项Magic命令。

%maxcompute_spark delete

运行该命令后,将会删除Livy。

Notebook任务实例在生产环境运行时,系统将在代码末尾自动追加%close_session命令,从而停止并删除当前任务实例的Livy。

说明

系统追加的%close_session命令,实际是执行%maxcompute_spark delete命令清理Spark Session并删除Livy。

EMR Serverless Spark命令

Notebook开发过程中,您可在Python单元格中通过Magic命令来快捷创建并启动Livy服务,从而连接至EMR Serverless Spark,实现高效开发与调试。

Magic命令

Magic命令含义

相关说明

%emr_serverless_spark

运行该命令后,将会进行以下操作:

  • 创建Livy

  • 启动Livy

  • 创建Spark Session

说明

执行相关命令后,您可在E-MapReduce控制台查看并管理EMR Serverless Spark引擎的Livy GatewaySpark Session信息。

通过DataWorks Notebook创建的Livy,将以dw_云账号ID为名称前缀。

使用方式:

## 直接执行
%emr_serverless_spark
## 带参数执行
%%emr_serverless_spark
{
    "spark_conf": {
        "spark.emr.serverless.environmentId": "<EMR Serverless Spark 运行环境ID>",
        "spark.emr.serverless.network.service.name": "<EMR Serverless Spark 网络连接ID>"
    }
}

Data Studio运行Notebook:

Data Studio中运行Notebook时需要选择个人开发环境实例的名称。在已选择的个人开发环境实例下,首次在Notebook中执行该命令时会新建Livy。若Livy未被删除,则后续在同一个个人开发环境实例中多次运行%emr_serverless_spark命令时,将会复用已创建的Livy。

发布生产后运行Notebook:

在生产环境中运行Notebook时,每个Notebook任务实例均会新建Livy。Notebook任务实例运行完毕会自动停止并删除Livy。

%emr_serverless_spark stop

运行该命令后,将会清理Spark Session,并停止Livy。

如需将Notebook任务发布至生产环境运行,Notebook任务代码可不包含该项Magic命令。

%emr_serverless_spark delete

运行该命令后,将会删除Livy。

Notebook任务实例在生产环境运行时,系统将在代码末尾自动追加%close_session命令,从而主动清理Spark Session并删除Livy。

说明

系统追加的%close_session命令,实际是执行%emr_serverless_spark delete命令清理Spark Session并删除Livy。

AnalyticDB for Spark命令

Notebook开发过程中,您可在Python单元格中通过Magic命令来快捷创建并启动Spark Connect Server服务,从而连接至AnalyticDB for Spark,实现高效开发与调试。

  • 适用范围:

    • ADB Spark计算资源。

    • 2025.12.01前创建的个人开发环境实例暂无法使用该功能,如需使用该功能,需要新建个人开发环境

  • 前提条件:已在工作空间绑定AnalyticDB for Spark计算资源

    Magic命令

    Magic命令含义

    相关说明

    %adb_spark add

    创建并连接到一个可复用的ADB Spark会话(Session)。

    使用方式
    Python单元格中输入如下命令,并在单元格右下角PixPin_2025-12-03_15-18-27指定计算资源。可通过 --spark-conf 传入所需Spark参数。

    # 以下为必填参数
    %adb_spark add \
     --spark-conf spark.adb.version=3.5 \
     --spark-conf spark.adb.eni.enabled=true \
     --spark-conf spark.adb.eni.vswitchId=<ADB的交换机ID> \
     --spark-conf spark.adb.eni.securityGroupId=<个人开发环境的安全组ID>

    行为模式

    • 开发环境(Data Studio):连接与您选择的个人开发环境实例绑定。首次执行会创建Spark Connect Server,后续在同一个Notebook任务中再次执行此命令,将自动复用该连接。

    • 生产环境 (周期调度):每个任务实例均会独立新建一个Spark Connect Server。任务结束后,系统会自动停止并删除Spark Session。

    说明
    • 为确保网络连通,创建个人开发环境时,建议选择与您的AnalyticDB for Spark实例相同的VPC和交换机。

    • 在开发过程中若发现连接断开,可再次运行该命令以建立连接。

    %adb_spark info

    查看Spark Session信息

    成功执行%adb_spark add后,可通过此命令查看Spark Session信息,单击Web UI链接可查看详细内容。

    %adb_spark cleanup

    停止并清理当前的Spark连接会话。

    • 此命令主要用于在开发环境中手动释放资源。

    • 生产环境的任务代码中无需包含此命令,因为系统会在任务结束后自动追加清理逻辑(等效于%close_sessions)。

    %%adb_spark

    复用%adb_spark add连接

    在一个Python单元格中使用 %adb_spark add 建立连接后,您可以在后续的Python单元格中直接编写代码,以复用该连接并操作远程计算资源。详见通过Python向计算资源提交并执行PySpark代码

    更多命令可通过直接运行%adb_spark查看。

通过Python向计算资源提交并执行PySpark代码

MaxComputeEMR Serverless Spark

您可以在Notebook中新增Python单元格,编辑和执行PySpark代码。

  1. 确保已连接目标计算资源。

    在前置Python单元格中,已使用Magic命令(如%emr_serverless_spark%maxcompute_spark)成功连接到目标计算资源(具体可参见通过Python Cell连接计算资源)。

  2. 编写PySpark代码

    在新增Python单元格中,添加%%spark命令以使用前置步骤中已连接的Spark计算资源,并编辑PySpark代码,例如:

    %%spark
    spark.sql("DROP TABLE IF EXISTS dwd_user_info_d")
    spark.sql("CREATE TABLE dwd_user_info_d(id STRING, name STRING, age BIGINT, city STRING)")
    spark.sql("INSERT INTO dwd_user_info_d SELECT '001', 'Jack', 30, 'Beijing'")
    spark.sql("SELECT * FROM dwd_user_info_d").show()
    spark.sql("SELECT COUNT(*) FROM dwd_user_info_d").show()

AnalyticDB for Spark

通过 %adb_spark add 成功建立连接后,可以在新的Python单元格中使用 %%spark_adb来提交和执行PySpark代码。

示例:

重要

AnalyticDBSpark引擎当前只能处理C-Store,使用DMS直接创建的表需要转成C-Store,使其具备('storagePolicy'='COLD')属性后方可通过Spark引擎读写。详见:通过Spark SQL读写C-Store数据

# 以下代码将运行在远程的ADB Spark引擎上
# 您可以在这里编写Python代码,或使用spark.sql()方式编写SQL代码
%%adb_spark
df = spark.sql("SELECT * FROM my_adb_table LIMIT 10")
df.show()
说明

Python单元格中使用%%spark%%adb_spark命令后,可在单元格右下角连接并使用目标计算资源的Spark来运行。若未添加该命令,仅能连接个人开发环境的Python环境来运行。

附录:通用操作

DataWorksNotebook操作基于VSCodeJupyter Notebook以下是单元格中的一些通用操作:

单元格工具栏操作

image

  • 单元格添加标签

    • 首次添加:单击单元格工具栏的image按钮,选择Add Cell Tag后,在弹窗内添加标签。

    • 后续添加:单击单元格下方的image按钮,快速为单元格添加更多标签。

  • 编辑单元格标签:单击单元格工具栏的image按钮,选择Edit Cell Tags(JSON)后,会进入该JSON编辑页面,对标签进行编辑。

  • 标记单元格为参数:单击单元格工具栏的image按钮,选择Mark Cell as Parameters为单元格添加参数标签。

节点通用操作

image

  • 查看Notebook变量:在Notebook上方工具栏单击image按钮,可查看Notebook中所有的变量参数信息,包含变量的NameTypeSize以及Value信息。

  • 查看Notebook大纲:在Notebook上方工具栏单击image按钮,可查看Markdown单元格形成的Notebook文本大纲。

  • 切换Python运行内核:单击Notebook节点右上角的image按钮,确认当前Python单元格运行的Python内核版本,切换其他Python内核版本。