本文为您介绍如何通过公网环境将谷歌云GCP(Google Cloud Platform)的BigQuery数据集迁移至阿里云MaxCompute。

前提条件

类别 平台 要求 参考文档
环境及数据 谷歌云GCP
  • 已开通谷歌BigQuery服务,并准备好环境及待迁移的数据集。
  • 已开通谷歌Cloud Storage服务,并创建存储分区(Bucket)。
如果您没有相关环境及数据集,可参考如下内容准备:
阿里云
  • 已开通MaxCompute、DataWorks服务并创建项目空间。

    印度尼西亚(雅加达)区域为例,创建作为迁移目标的MaxCompute项目。

  • 已开通对象存储服务OSS并创建存储分区(Bucket)。
  • 已开通OSS的在线迁移上云服务。
如果您没有相关环境,可参考如下内容准备:
账号 谷歌云GCP 已创建具备访问谷歌Cloud Storage权限的IAM用户。 通过JSON使用IAM权限
阿里云 已创建具备存储空间读写权限和在线迁移权限的RAM用户及RAM角色。 创建RAM用户STS模式授权
区域 谷歌云GCP 无。
阿里云 开通OSS服务的区域与MaxCompute项目在同一区域。

背景信息

将BigQuery数据集迁移至阿里云MaxCompute的流程如下。迁移流程
序号 描述
将BigQuery数据集导出至谷歌Cloud Storage。
通过对象存储服务OSS的在线迁移上云服务,将数据从谷歌Cloud Storage迁移至OSS。
将数据从OSS迁移至同区域的MaxCompute项目中,并校验数据完整性和正确性。

步骤一:将BigQuery数据集导出至谷歌Cloud Storage

您可以使用bq命令行工具执行bq extract命令,将BigQuery数据集导出至谷歌Cloud Storage。

  1. 登录Google Cloud控制台,创建存储迁移数据的分区(Bucket)。操作详情请参见创建存储分区
    存储分区
  2. 使用bq命令行工具,查询TPC-DS数据集中表的DDL脚本并下载至本地设备。操作详情请参见使用INFORMATION_SCHEMA获取表元数据
    如果您需要了解bq命令行工具,请参见使用bq命令行工具
    BigQuery不提供诸如show create table之类的命令来查询表的DDL脚本。BigQuery允许您使用内置的用户自定义函数UDF来查询特定数据集中表的DDL脚本。DDL脚本示例如下。DDL
  3. 通过bq命令行工具执行bq extract命令,将BigQuery数据集中的表依次导出至谷歌Cloud Storage的目标存储分区(Bucket)。相关操作及导出的数据格式和压缩类型详情请参见导出表数据
    导出命令示例如下。
    bq extract
    --destination_format AVRO 
    --compression SNAPPY
    tpcds_100gb.web_site
    gs://bucket_name/web_site/web_site-*.avro.snappy;
  4. 查看存储分区,检查数据导出结果。

步骤二:将导出至谷歌Cloud Storage的数据迁移至对象存储服务OSS

对象存储服务OSS支持通过在线迁移上云服务,将谷歌Cloud Storage的数据迁移至OSS,详情请参见谷歌云GCP迁移教程在线迁移上云服务处于公测状态,您需要联系客服,并由在线服务团队开通后才可使用。

  1. 预估需要迁移的数据,包括迁移存储量和迁移文件个数。您可以使用gsutil工具或通过存储日志查看待迁移存储分区(Bucket)的存储量。详情请参见获取存储分区信息
  2. 可选:如果您未创建存储分区,请登录OSS管理控制台,创建保存迁移数据的分区(Bucket),详情请参见创建存储空间
    OSS分区
  3. 可选:如果您未创建RAM用户,请创建RAM用户并授予相关权限。
    1. 登录RAM访问控制台,创建RAM用户,详情请参见创建RAM用户
    2. 选中新创建的用户登录名称,单击添加权限,为新创建的RAM用户授予AliyunOSSFullAccess(存储空间读写权限)和AliyunMGWFullAccess(在线迁移权限),单击确定 > 完成
    3. 在左侧导航栏,单击概览。在概览页面的账号管理区域,单击用户登录地址链接,使用新创建的RAM用户登录阿里云控制台
  4. 在GCP侧准备一个以编程方式访问谷歌Cloud Storage的用户。操作详情请参见通过JSON使用IAM权限
    1. 登录IAM用户控制台,选择一个有权限访问BigQuery的用户。在操作列,单击操作 > 创建密钥
    2. 在弹出的对话框,选择JSON,单击创建。将JSON文件保存至本地设备,并单击完成
    3. 创建服务账号页面,单击选择角色,选择Cloud Storage > Storage Admin,授予用户访问谷歌Cloud Storage的权限。
  5. 创建在线迁移数据地址。
    1. 登录阿里云数据在线迁移控制台。在左侧导航栏,单击数据地址
    2. 可选:如果您未开通在线迁移服务,请在弹出的对话框中单击去申请。在在线迁移公测申请页面,填写信息,并单击提交
      在线迁移公测申请
      说明 在线迁移公测申请页面的迁移数据源类型中如果没有谷歌云GCP,请您选择其中一种数据源类型,并在备注中指明实际数据源类型。
    3. 管理数据地址页面,单击创建数据地址,配置数据源及目标地址相关参数,单击确定。参数详情请参见迁移实施
      • 数据源数据源
        说明 Key File步骤4下载的JSON文件。
      • 目标地址目标地址
        说明 Access Key IDAccess Key Secret为RAM用户的密钥信息。
  6. 创建在线迁移任务。
    1. 在左侧导航栏,单击迁移任务
    2. 迁移任务列表页面,单击创建迁移任务,配置相关信息后,单击创建。参数详情请参见迁移实施
      • 任务配置任务配置
      • 性能调优性能优化
        说明 待迁移存储量待迁移文件个数是您通过Google Cloud控制台获取到的待迁移数据大小和文件个数。
    3. 创建的迁移任务会自动运行。请您确认任务状态已完成,表示迁移任务成功结束。
    4. 在迁移任务的右侧单击管理,查看迁移任务报告,确认数据已经全部迁移成功。
    5. 登录OSS管理控制台
    6. 在左侧导航栏,单击Bucket列表。在Bucket列表区域单击创建的Bucket。在Bucket页面,单击文件管理,查看数据迁移结果。

步骤三:将数据从OSS迁移至同区域的MaxCompute项目

您可以通过MaxCompute的LOAD命令将OSS数据迁移至同区域的MaxCompute项目中。

LOAD命令支持STS认证和AccessKey认证两种方式,AccessKey认证方式需要使用明文AccessKey ID和AccessKey Secret。STS认证方式不会暴露AccessKey信息,具备高安全性。本文以STS认证方式为例介绍数据迁移操作。

  1. 在DataWorks的临时查询界面或MaxCompute客户端(odpscmd),修改已获取到的BigQuery数据集中表的DDL,适配MaxCompute数据类型,创建与迁移数据相对应的表。
    临时查询功能详情请参见使用临时查询运行SQL语句(可选)。命令示例如下。
    CREATE OR REPLACE TABLE
    `****.tpcds_100gb.web_site`
    (
      web_site_sk INT64,
      web_site_id STRING,
      web_rec_start_date STRING,
      web_rec_end_date STRING,
      web_name STRING,
      web_open_date_sk INT64,
      web_close_date_sk INT64,
      web_class STRING,
      web_manager STRING,
      web_mkt_id INT64,
      web_mkt_class STRING,
      web_mkt_desc STRING,
      web_market_manager STRING,
      web_company_id INT64,
      web_company_name STRING,
      web_street_number STRING,
      web_street_name STRING,
      web_street_type STRING,
      web_suite_number STRING,
      web_city STRING,
      web_county STRING,
      web_state STRING,
      web_zip STRING,
      web_country STRING,
      web_gmt_offset FLOAT64,
      web_tax_percentage FLOAT64
    )
    
    Modify the INT64 and
    FLOAT64 fields to obtain the following DDL script:
    CREATE
    TABLE IF NOT EXISTS <your_maxcompute_project>.web_site_load
    (
    web_site_sk BIGINT,
    web_site_id STRING,
    web_rec_start_date STRING,
    web_rec_end_date STRING,
    web_name STRING,
    web_open_date_sk BIGINT,
    web_close_date_sk BIGINT,
    web_class STRING,
    web_manager STRING,
    web_mkt_id BIGINT,
    web_mkt_class STRING,
    web_mkt_desc STRING,
    web_market_manager STRING,
    web_company_id BIGINT,
    web_company_name STRING,
    web_street_number STRING,
    web_street_name STRING,`
    web_street_type STRING,
    web_suite_number STRING,
    web_city STRING,
    web_county STRING,
    web_state STRING,
    web_zip STRING,
    web_country STRING,
    web_gmt_offset DOUBLE,
    web_tax_percentage DOUBLE
    );
    BigQuery和MaxCompute数据类型的对应关系如下。
    BigQuery数据类型 MaxCompute数据类型
    INT64 BIGINT
    FLOAT64 DOUBLE
    NUMERIC DECIMAL、DOUBLE
    BOOL BOOLEAN
    STRING STRING
    BYTES VARCHAR
    DATE DATE
    DATETIME DATETIME
    TIME DATETIME
    TIMESTAMP TIMESTAMP
    STRUCT STRUCT
    GEOGRAPHY STRING
  2. 可选:如果您未创建RAM角色,请创建具备访问OSS权限的RAM角色并授权。详情请参见STS模式授权
  3. 执行LOAD命令,将OSS的全部数据加载至创建的MaxCompute表中,并执行SQL命令查看和校验数据导入结果。LOAD命令一次只能加载一张表,有多个表时,需要执行多次。LOAD命令详情请参见LOAD
    LOAD OVERWRITE TABLE web_site
    FROM  LOCATION 'oss://oss-<your_region_id>-internal.aliyuncs.com/bucket_name/tpc_ds_100gb/web_site/' --OSS存储空间位置。
    ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
    WITH SERDEPROPERTIES ('odps.properties.rolearn'='<Your_RoleARN>','mcfed.parquet.compression'='SNAPPY')
    STORED AS AVRO;
    执行如下命令查看和校验数据导入结果。
    SELECT * FROM web_site;
    返回结果示例如下。返回结果
  4. 通过表的数量、记录的数量和典型作业的查询结果,校验迁移至MaxCompute的数据是否和BigQuery的数据一致。