本文为您介绍通过Hive UDTF迁移Hive数据的方法。

准备事项

  • ⽹络环境要求。
    • Hive集群各节点能够访问MaxCompute。
    • MMA所在服务器能够访问Hive MetaStore Server、Hive Server。
  • 创建⽤于迁移数据的Hive UDTF。
    1. 在MMA的帮助⻚⾯下载对应版本的UDTF的jar包,如mma-udtf.jar
    2. 执行以下命令上传mma-udtf.jar至HDFS。
      hdfs dfs -put -f mma-udtf.jar hdfs:///tmp/
    3. 使⽤Beeline或Hive命令登录Hive、创建Hive UDTF。
      DROP FUNCTION IF EXISTS default.odps_data_dump_multi;
      CREATE FUNCTION default.odps_data_dump_multi as 'com.aliyun.odps.mma.io.McD
      ataTransmissionUDTF' USING JAR 'hdfs:///tmp/mma-udtf.jar';
  • 如果Hive配置了kerberos访问认证,需要将以下文件拷贝到MMA所在的服务器。
    1. hive.keytab⽂件。
    2. gss-jass.conf⽂件。
      说明 gss-jass.conf中含有keytab⽂件的路径,要确保其与MMA所在服务器上的hive.keytab⽂件路径⼀致。
    3. krb5.conf⽂件。
      说明 krb5.conf中含有KDC地址,MMA所在服务器要能够访问该地址。

操作步骤

  1. 添加数据源。

    1. 单击页面左侧的数据源,进入数据源列表页面。
    2. 单击添加数据源,进入添加数据源页面。
    3. 数据源类型选择HIVE,并单击下一步
    4. 根据如下参数说明配置数据源。
      参数名称描述
      数据源名数据源名称,可自定义,不能包含字符、数字、汉字之外的特殊字符。
      hive metastore url请根据实际情况填写。如:thrift://192.168.0.212:9083。
      hive metastore client socket timeout默认600。
      hive jdbc urlHive JDBC的连接信息。格式为jdbc:hive2://localhost:10000/default
      hive jdbc user nameHive JDBC的用户名,必填。
      hive jdbc passwordHive JDBC的密码,可选。
      hive metastore是否开启了kerberos认证若开启,则需要填写下⾯kerberos的相关配置。
      kerberos principal与kr5.conf⾥的kdc_realam值保持⼀致。
      kerberos keytab文件位置keytab⽂件在MMA所在服务器上的路径。
      kerberos gss-jaas.conf文件位置gss-jass.conf⽂件在MMA所在服务器上的路径。
      kerberos krb5.conf文件位置krb5.conf⽂件在MMA所在服务器上的路径。
      单个任务处理的最多分区数量默认50。即一次MMA任务迁移的分区数量,通过批量的分区迁移,可以减少提交Hive SQL的次数,节约Hive SQL提交时间。
      单个任务处理的最大数量(单位G)单位GB,默认5。即⼀次MMA任务迁移的所有分区的⼤⼩之和的上限。
      hive job配置, 用于mr, spark, tez等引擎默认为MR任务的部分配置。
      说明 如果Hive使⽤的引擎不是MR,则需要通过指定“hive.execution.engine”值来指定Hive使⽤的引擎,并且⽤于不同引擎的任务参数需要自己调整。该配置用于解决YARN Container内存不⾜、指定Spark运⾏队列等问题。
      数据库白名单需要迁移的Hive数据库,多个值之间以英⽂逗号分隔。
      数据库黑名单不需要迁移的Hive数据库,多个值之间以英⽂逗号分隔。
      meta api访问并发量访问Hive MetaStore的并发量,⽤于提⾼获取Hive元数据的速度。
      表黑名单, 格式为db.table不需要迁移的Hive数据库表。单个表的格式为dbname.tablename, 多个表之间以英⽂逗号分隔。
      表白名单, 格式为db.table需要迁移的Hive数据库表。单个表的格式为dbname.tablename,多个表之间以英⽂逗号分隔。
    5. 单击页面底部的提交
      说明 如果所填的配置无误,且MMA所在服务器能够访问Metastore URL和JDBC URL,则MMA会通过Metastore URL拉取Hive的元数据,即库、表、分区信息。否则将会报错,此时需要检查各配置项是否正确,重新填写并提交配置。
    6. 待拉取元数据的进度条显示为100%后,页面会跳转到数据源列表页面。
  2. 创建数据迁移任务。

    MMA可以创建单库、多表、多分区三个级别的迁移任务。
    说明
    • 单库,迁移单个Database。
    • 多表,迁移一个或多个Table。
    • 多分区,迁移1个或多个Partition。
    • 迁移多个表。
      1. 单击页面左侧的数据源,在数据源列表页面单击想要迁移的数据源名。
      2. 在所选的数据源详情页面,单击要迁移的库名
      3. 勾选要迁移的表,单击新建迁移任务
      4. 根据实际情况在新建迁移任务弹框中配置各参数,参数说明如下。
        参数名称描述
        名称自定义。建议填写有意义的任务名称,便于整理迁移记录。
        任务类型请根据实际情况选择。
        • mc同region。
        • mc跨region。
        • mc校验。即对比源项目和目的项目所有相同表的数据。
        mc项目目的MaxCompute项目。
        table列表要迁移的Table列表,多个Table之间以英⽂逗号分隔。
        开启校验默认打开。
        增量更新默认打开。开启后分区表已经迁移过的分区不会被重新迁移。
        只迁schema只迁移表结构、分区值。根据实际情况选择是否打开。
        分区过滤详情请参见分区过滤表达式说明
        表名映射⼀个Table迁移到⽬的项目后的名称。
      5. 单击确定
        说明 如果迁移任务的配置无误,则新的迁移任务可以在迁移任务 > 任务列表中查看,相应的子任务可以在迁移任务 > 子任务列表中查看。
    • 迁移多个分区。
      1. 单击页面左侧的数据源,在数据源列表页面单击想要迁移的数据源名。
      2. 在所选的数据源详情页面,单击要迁移的库名
      3. 切换partition列表页签,勾选要迁移的分区。
      4. 单击新建迁移任务,根据实际情况在新建迁移任务弹框中配置各参数,参数说明如下。
        参数名称描述
        名称自定义。建议填写有意义的任务名称,便于整理迁移记录。
        任务类型请根据实际情况选择。
        • mc同region。
        • mc跨region。
        • mc校验。即对比源项目和目的项目所有相同表的数据。
        mc项目目的MaxCompute项目。
        开启校验默认打开。
        只迁schema只迁移表结构、分区值。根据实际情况选择是否打开。
        partition列表保持默认值即可。
        表名映射⼀个Table迁移到⽬的项目后的名称。
      5. 单击确定
        说明 如果迁移任务的配置无误,则新的迁移任务可以在迁移任务 > 任务列表中查看,相应的子任务可以在迁移任务 > 子任务列表中查看。
    • 迁移单个库。
      1. 单击页面左侧的数据源,在数据源列表页面单击想要迁移的数据源名。
      2. 单击要迁移的库所在行的迁移
      3. 根据实际情况在新建迁移任务弹框中配置各参数,参数说明如下。
        参数名称描述
        名称自定义。建议填写有意义的任务名称,便于整理迁移记录。
        任务类型请根据实际情况选择。
        • mc同region。
        • mc跨region。
        • mc校验。即对比源项目和目的项目所有相同表的数据。
        mc项目目的MaxCompute项目。
        table白名单要迁移的Table列表,多个Table之间以英文逗号分隔。
        开启校验默认打开。
        增量更新默认打开。开启后分区表已经迁移过的分区不会被重新迁移。
        只迁schema只迁移表结构、分区值。
        分区过滤详情请参见分区过滤表达式说明
        表名映射⼀个Table迁移到⽬的项目后的名称。
      4. 单击确定
        说明 如果迁移任务的配置无误,则新的迁移任务可以在迁移任务 > 任务列表中查看,相应的子任务可以在迁移任务 > 子任务列表中查看。