准备事项
- ⽹络环境要求。
- Hive集群各节点能够访问MaxCompute。
- MMA所在服务器能够访问Hive MetaStore Server、Hive Server。
- 创建⽤于迁移数据的Hive UDTF。
- 在MMA的帮助⻚⾯下载对应版本的UDTF的jar包,如
mma-udtf.jar
。 - 执行以下命令上传
mma-udtf.jar
至HDFS。hdfs dfs -put -f mma-udtf.jar hdfs:///tmp/
- 使⽤Beeline或Hive命令登录Hive、创建Hive UDTF。
DROP FUNCTION IF EXISTS default.odps_data_dump_multi; CREATE FUNCTION default.odps_data_dump_multi as 'com.aliyun.odps.mma.io.McD ataTransmissionUDTF' USING JAR 'hdfs:///tmp/mma-udtf.jar';
- 在MMA的帮助⻚⾯下载对应版本的UDTF的jar包,如
- 如果Hive配置了kerberos访问认证,需要将以下文件拷贝到MMA所在的服务器。
- hive.keytab⽂件。
- gss-jass.conf⽂件。说明 gss-jass.conf中含有keytab⽂件的路径,要确保其与MMA所在服务器上的hive.keytab⽂件路径⼀致。
- krb5.conf⽂件。说明 krb5.conf中含有KDC地址,MMA所在服务器要能够访问该地址。
操作步骤
-
添加数据源。
- 单击页面左侧的数据源,进入数据源列表页面。
- 单击添加数据源,进入添加数据源页面。
- 数据源类型选择HIVE,并单击下一步。
- 根据如下参数说明配置数据源。
参数名称 描述 数据源名 数据源名称,可自定义,不能包含字符、数字、汉字之外的特殊字符。 hive metastore url 请根据实际情况填写。如:thrift://192.168.0.212:9083。 hive metastore client socket timeout 默认600。 hive jdbc url Hive JDBC的连接信息。格式为 jdbc:hive2://localhost:10000/default
。hive jdbc user name Hive JDBC的用户名,必填。 hive jdbc password Hive JDBC的密码,可选。 hive metastore是否开启了kerberos认证 若开启,则需要填写下⾯kerberos的相关配置。 kerberos principal 与kr5.conf⾥的kdc_realam值保持⼀致。 kerberos keytab文件位置 keytab⽂件在MMA所在服务器上的路径。 kerberos gss-jaas.conf文件位置 gss-jass.conf⽂件在MMA所在服务器上的路径。 kerberos krb5.conf文件位置 krb5.conf⽂件在MMA所在服务器上的路径。 单个任务处理的最多分区数量 默认50。即一次MMA任务迁移的分区数量,通过批量的分区迁移,可以减少提交Hive SQL的次数,节约Hive SQL提交时间。 单个任务处理的最大数量(单位G) 单位GB,默认5。即⼀次MMA任务迁移的所有分区的⼤⼩之和的上限。 hive job配置, 用于mr, spark, tez等引擎 默认为MR任务的部分配置。说明 如果Hive使⽤的引擎不是MR,则需要通过指定“hive.execution.engine”值来指定Hive使⽤的引擎,并且⽤于不同引擎的任务参数需要自己调整。该配置用于解决YARN Container内存不⾜、指定Spark运⾏队列等问题。 数据库白名单 需要迁移的Hive数据库,多个值之间以英⽂逗号分隔。 数据库黑名单 不需要迁移的Hive数据库,多个值之间以英⽂逗号分隔。 meta api访问并发量 访问Hive MetaStore的并发量,⽤于提⾼获取Hive元数据的速度。 表黑名单, 格式为db.table 不需要迁移的Hive数据库表。单个表的格式为 dbname.tablename
, 多个表之间以英⽂逗号分隔。表白名单, 格式为db.table 需要迁移的Hive数据库表。单个表的格式为 dbname.tablename
,多个表之间以英⽂逗号分隔。 - 单击页面底部的提交。说明 如果所填的配置无误,且MMA所在服务器能够访问Metastore URL和JDBC URL,则MMA会通过Metastore URL拉取Hive的元数据,即库、表、分区信息。否则将会报错,此时需要检查各配置项是否正确,重新填写并提交配置。
- 待拉取元数据的进度条显示为100%后,页面会跳转到数据源列表页面。
-
创建数据迁移任务。
MMA可以创建单库、多表、多分区三个级别的迁移任务。说明
- 单库,迁移单个Database。
- 多表,迁移一个或多个Table。
- 多分区,迁移1个或多个Partition。
- 迁移多个表。
- 单击页面左侧的数据源,在数据源列表页面单击想要迁移的数据源名。
- 在所选的数据源详情页面,单击要迁移的库名。
- 勾选要迁移的表,单击新建迁移任务。
- 根据实际情况在新建迁移任务弹框中配置各参数,参数说明如下。
参数名称 描述 名称 自定义。建议填写有意义的任务名称,便于整理迁移记录。 任务类型 请根据实际情况选择。 - mc同region。
- mc跨region。
- mc校验。即对比源项目和目的项目所有相同表的数据。
mc项目 目的MaxCompute项目。 table列表 要迁移的Table列表,多个Table之间以英⽂逗号分隔。 开启校验 默认打开。 增量更新 默认打开。开启后分区表已经迁移过的分区不会被重新迁移。 只迁schema 只迁移表结构、分区值。根据实际情况选择是否打开。 分区过滤 详情请参见分区过滤表达式说明。 表名映射 ⼀个Table迁移到⽬的项目后的名称。 - 单击确定。说明 如果迁移任务的配置无误,则新的迁移任务可以在迁移任务 > 任务列表中查看,相应的子任务可以在迁移任务 > 子任务列表中查看。
- 迁移多个分区。
- 单击页面左侧的数据源,在数据源列表页面单击想要迁移的数据源名。
- 在所选的数据源详情页面,单击要迁移的库名。
- 切换partition列表页签,勾选要迁移的分区。
- 单击新建迁移任务,根据实际情况在新建迁移任务弹框中配置各参数,参数说明如下。
参数名称 描述 名称 自定义。建议填写有意义的任务名称,便于整理迁移记录。 任务类型 请根据实际情况选择。 - mc同region。
- mc跨region。
- mc校验。即对比源项目和目的项目所有相同表的数据。
mc项目 目的MaxCompute项目。 开启校验 默认打开。 只迁schema 只迁移表结构、分区值。根据实际情况选择是否打开。 partition列表 保持默认值即可。 表名映射 ⼀个Table迁移到⽬的项目后的名称。 - 单击确定。说明 如果迁移任务的配置无误,则新的迁移任务可以在迁移任务 > 任务列表中查看,相应的子任务可以在迁移任务 > 子任务列表中查看。
- 迁移单个库。
- 单击页面左侧的数据源,在数据源列表页面单击想要迁移的数据源名。
- 单击要迁移的库所在行的迁移。
- 根据实际情况在新建迁移任务弹框中配置各参数,参数说明如下。
参数名称 描述 名称 自定义。建议填写有意义的任务名称,便于整理迁移记录。 任务类型 请根据实际情况选择。 - mc同region。
- mc跨region。
- mc校验。即对比源项目和目的项目所有相同表的数据。
mc项目 目的MaxCompute项目。 table白名单 要迁移的Table列表,多个Table之间以英文逗号分隔。 开启校验 默认打开。 增量更新 默认打开。开启后分区表已经迁移过的分区不会被重新迁移。 只迁schema 只迁移表结构、分区值。 分区过滤 详情请参见分区过滤表达式说明。 表名映射 ⼀个Table迁移到⽬的项目后的名称。 - 单击确定。说明 如果迁移任务的配置无误,则新的迁移任务可以在迁移任务 > 任务列表中查看,相应的子任务可以在迁移任务 > 子任务列表中查看。
内容没看懂? 不太想学习?想快速解决? 有偿解决: 联系专家
阿里云企业补贴进行中: 马上申请
腾讯云限时活动1折起,即将结束: 马上收藏
同尘科技为腾讯云授权服务中心。
购买腾讯云产品享受折上折,更有现金返利:同意关联,立享优惠
转转请注明出处:https://www.yunxiaoer.com/158591.html