详情页标题前

腾讯云对象存储将 HDFS 数据迁移到已开启元数据加速功能的存储桶

详情页1

简介

元数据加速是由腾讯云对象存储(Cloud Object Storage,COS)服务提供的高性能文件系统功能。元数据加速底层采用了云 HDFS 卓越的元数据管理功能,支持用户通过文件系统语义访问对象存储服务,系统设计指标可以达到百 GB 级别带宽、10万级 QPS 以及 ms 级延迟。存储桶在开启元数据加速后,可以广泛应用于大数据、高性能计算、机器学习、AI 等场景。有关元数据加速的详细介绍,请参见 元数据加速通过元数据加速服务,COS 提供了 Hadoop 文件系统的语义,因此利用 Hadoop Distcp 工具 可以方便地在对象存储 COS 与其他 Hadoop 文件系统之间进行双向的数据迁移,本文重点介绍如何通过 Hadoop Distcp 工具将本地 HDFS 中的文件迁移到 COS 元数据加速存储桶中。

迁移环境准备

迁移工具准备

1. 下载下表中的 jar 包工具,并且放置到迁移集群提交机的本地目录下,例如 /data01/jars。腾讯云 EMR 环境安装说明

jar 包文件名 说明 下载地址
cos-distcp-1.12-3.1.0.jar COSDistCp 相关包,拷贝数据到 COSN 可参见 COSDistCp 工具
chdfs_hadoop_plugin_network-2.8.jar OFS 插件 点击下载

自建 Hadoop/CDH 等环境软件依赖Hadoop-2.6.0及以上版本、Hadoop-COS 插件8.1.5及以上版本,同时 cos_api-bundle 插件版本与 Hadoop-COS 版本对应,详情请参见 COSN github releases 确认。安装说明在 Hadoop 环境下,安装以下插件:

jar 包文件名 说明 下载地址
cos-distcp-1.12-3.1.0.jar COSDistCp 相关包,拷贝数据到 COSN 可参见 COSDistCp 工具
chdfs_hadoop_plugin_network-2.8.jar OFS 插件 点击下载
Hadoop-COS Version >= 8.1.5 可参见 Hadoop-COS 工具
cos_api-bundle 版本需与 Hadoop-COS 对应 点击下载


注意Hadoop-cos 自8.1.5版本开始支持 cosn://bucketname-appid/ 方式访问元数据加速桶;元数据加速功能只能在创建存储桶时开启,开启后不支持关闭,请结合您的业务情况慎重考虑是否开启,同时注意旧版本的 Hadoop-cos 包不能正常访问已开启元数据加速功能的存储桶。2. 创建元数据加速存储桶,并配置元数据加速桶 HDFS 协议。详细步骤可参见 使用 HDFS 协议访问已开启元数据加速的存储桶 中的“创建存储桶并配置 HDFS 协议”章节。3. 修改迁移集群core-site.xml ,修改完成后下发配置到所有的节点上。如果只是迁移数据,则不用重启大数据组件。

key value 配置文件 说明
fs.cosn.trsf.fs.ofs.impl com.qcloud.chdfs.fs.CHDFSHadoopFileSystemAdapter core-site.xml COSN 实现类,必填
fs.cosn.trsf.fs.AbstractFileSystem.ofs.impl com.qcloud.chdfs.fs.CHDFSDelegateFSAdapter core-site.xml COSN 实现类,必填
fs.cosn.trsf.fs.ofs.tmp.cache.dir 格式形如 /data/emr/hdfs/tmp/ core-site.xml 临时目录,必填。MRS 各节点均会创建,需保证有足够的空间和权限
fs.cosn.trsf.fs.ofs.user.appid 客户 COS bucket 对应的 appid core-site.xml 必填
fs.cosn.trsf.fs.ofs.ranger.enable.flag false core-site.xml 必填,确认是否为 false
fs.cosn.trsf.fs.ofs.bucket.region bucket 对应 region core-site.xml 必填,可选值:eu-frankfurt(法兰克福)、ap-chengdu(成都)、ap-singapore(新加坡)

4. 验证迁移集群可以通过内网访问元数据加速存储桶,详细步骤可参见 使用 HDFS 协议访问已开启元数据加速的存储桶 中的“配置计算集群访问 COS”章节。通过迁移集群提交验证是否能成功访问 COS。

存量迁移

1. 确定迁移目录

一般情况下,迁移数据会先从 HDFS 存储数据开始迁移,会选定源 HDFS 集群待迁移的目录,目标段保持和源路径相同,如下所示:假设需要将 HDFS 路径 hdfs:///data/user/target 迁移到 cosn://{bucketname-appid}/data/user/target为了保证迁移过程中,源端目录的文件不发生改变,会采用 HDFS 的快照功能,先给待迁移的目录打上快照,以当前日期作为快照文件名。

hdfs dfsadmin -disallowSnapshot hdfs:///data/user/hdfs dfsadmin -allowSnapshot hdfs:///data/user/targethdfs dfs -deleteSnapshot hdfs:///data/user/target {当前日期}hdfs dfs -createSnapshot hdfs:///data/user/target {当前日期}

参考成功示例:

腾讯云对象存储将 HDFS 数据迁移到已开启元数据加速功能的存储桶

如果不想做快照,可直接以源端 target 文件进行迁移。

2. 使用 COSDistCp 迁移

启动 COSDistCp 任务,将文件从源 HDFS 复制到目标 COS 桶上。COSDistCp 为 MapReduce 任务,MapReduce 任务打印日志中会提示 MR 任务执行成功与否。如果失败可查看 YARN 页面,将日志或异常信息提供到 COS 进行排查。通过 COSDistCp 工具执行迁移任务分为如下几个步骤:
(1)创建临时目录
(2)运行 COSDistCp 任务
(3)失败文件重迁移

(1)创建临时目录

hadoop fs -libjars /data01/jars/chdfs_hadoop_plugin_network-2.8.jar -mkdir cosn://bucket-appid/distcp-tmp

(2)运行 COSDistCp 任务

nohup hadoop jar /data01/jars/cos-distcp-1.10-2.8.5.jar -libjars  /data01/jars/chdfs_hadoop_plugin_network-2.8.jar --src=hdfs:///data/user/target/.snapshot/{当前日期}  --dest=cosn://{bucket-appid}/data/user/target   --temp=cosn://bucket-appid/distcp-tmp/ --preserveStatus=ugpt  --skipMode=length-checksum --checkMode=length-checksum --cosChecksumType=CRC32C --taskNumber 6 --workerNumber 32 --bandWidth 200 >> ./distcp.log &

参数说明如下,您可根据实际情况进行调整:–taskNumber=VALUE 指定拷贝进程数,示例:–taskNumber=10。–workerNumber=VALUE 指定拷贝线程数,COSDistCp 在每个拷贝进程中创建该参数大小的拷贝线程池。示例:–workerNumber=4。–bandWidth 限制读取每个迁移文件的带宽,单位为:MB/s,默认-1,不限制读取带宽。示例:–bandWidth=10。–cosChecksumType=CRC32C, 默认采用 CRC32C,但是需要 HDFS 集群支持 COMPOSITE_CRC32 校验,依赖 Hadoop 版本3.1.1+,如果 HDFS 版本低于3.1.1,此参数需要改为–cosChecksumType=CRC64。注意COSDistCp 迁移的总带宽限制计算公式为:taskNumber x workerNumber x bandWidth,您可以将 workerNumber 设置为 1,通过参数 taskNumber 控制迁移并发数,以及参数 bandWidth 控制单个并发的带宽。在拷贝任务结束时,任务日志会输出文件拷贝的统计信息,相关计数器如下:
其中 FILES_FAILED 代表失败的个数,若无 FILES_FAILED 统计项则说明全部迁移成功。

CosDistCp Counters        BYTES_EXPECTED=10198247        BYTES_SKIPPED=10196880        FILES_COPIED=1        FILES_EXPECTED=7        FILES_FAILED=1        FILES_SKIPPED=5

具体输出结果统计项说明如下:

统计项 说明
BYTES_EXPECTED 根据源目录统计的需拷贝的文件总大小,单位:字节
FILES_EXPECTED 根据源目录统计的需拷贝文件数,包含目录文件
BYTES_SKIPPED 长度或校验和值相等,不拷贝的文件总大小,单位:字节
FILES_SKIPPED 长度或校验和值相等,不拷贝的源文件数
FILES_COPIED 拷贝成功的源文件数
FILES_FAILED 拷贝失败的源文件数
FOLDERS_COPIED 拷贝成功的目录数
FOLDERS_SKIPPED 跳过的目录数

(3)失败文件重迁移

COSDistCp 工具不但可以解决大部分文件的迁移效率问题,同时也可以采用 --delete 参数支持 HDFS 和 COS 数据的完全一致。使用 --delete 参数时,需要携带 --deleteOutput=/xxx(自定义) 参数,但不可以携带 --diffMode参数。

nohup hadoop jar /data01/jars/cos-distcp-1.10-2.8.5.jar -libjars /data01/jars/chdfs_hadoop_plugin_network-2.8.jar --src=--src=hdfs:///data/user/target/.snapshot/{当前日期} --dest=cosn://{bucket-appid}/data/user/target --temp=cosn://bucket-appid/distcp-tmp/ --preserveStatus=ugpt --skipMode=length-checksum --checkMode=length-checksum --cosChecksumType=CRC32C --taskNumber 6 --workerNumber 32 --bandWidth 200 --delete --deleteOutput=/dele-xx >> ./distcp.log &

运行完成后,会将 HDFS 和 COS 的差异数据移动到 trash 目录下,并且在 /xxx/failed 目录下生成移动文件清单。删除 trash 目录下的数据可以采用 hadoop fs -rm URL 或者hadoop fs -rmr URL

增量迁移

如果每一轮迁移过后,还存在更新的增量数据需要迁移,只需要重复执行全量迁移中的步骤即可,直到数据均已完成迁移。
对象存储官网1折活动,限时活动,即将结束,速速收藏
同尘科技为腾讯云授权服务中心。
购买腾讯云产品享受折上折,更有现金返利。同意关联立享优惠

转转请注明出处:http://www.yunxiaoer.com/144830.html

(0)
上一篇 2023年12月9日 上午1:52
下一篇 2023年12月9日 上午1:52
详情页2

相关推荐

  • 腾讯云对象存储提交音视频拼接任务

    简介 本文档提供关于提交音视频拼接任务相关的 API 概览以及 SDK 示例代码。 API 操作描述 提交音视频拼接任务 提交音视频拼接任务 SDK API 参考 SDK 所有接口的具体参数与方法说明,请参考 SDK API。 提交音视频拼接任务 功能说明 提交音视频拼接任务注意 COS Android SDK 版本需要大于等于 v5.9.14。 示例代…

    腾讯云 2023年12月9日
  • 腾讯云容器服务备份管理同尘科技

    操作场景 腾讯云容器服务 TKE 备份中心为业务应用的备份、恢复与迁移提供了一体化的解决方案,本文介绍如何针对目标集群创建备份任务和定时备份策略。 前提条件 说明:若您之前在集群中已安装社区开源备份组件如 velero,需要提前卸载,否则会影响 TKE 备份组件的正常安装。 在目标集群中安装 tke-backup 备份组件。您可以前往集群中的组件管理模块进行…

    2023年12月9日
  • 信息流广告,信息流部分建议宽度830px,只针对默认列表样式,顺序随机
  • 阿里云RDS数据库锁定/删除账号-云淘科技

    RDS PostgreSQL实例支持锁定账号或删除账号。 通过控制台锁定账号 说明 账号锁定后,您无法再通过该账号登录实例。 访问RDS实例列表,在上方选择地域,然后单击目标实例ID。 在左侧导航栏中单击账号管理。 找到要锁定的账号,单击其右侧操作列中的锁定。 说明 单击锁定后等待几秒,状态列显示锁定中即表示账号已锁定,如果需要继续使用该账号,请单击解锁。 …

    2023年12月9日
  • dataworks可以实现在maxcompute数据库中通过sql直接查询数据并写入到MySQL吗?-云小二-阿里云

    dataworks可以实现在maxcompute数据库中通过sql直接查询数据并写入到MySQL吗? 以下为热心网友提供的参考意见 阿里云DataWorks支持通过SQL方式在MaxCompute(原名ODPS)中查询数据,并且可以通过数据集成服务将查询结果同步至MySQL数据库。但请注意,直接通过SQL语句在MaxCompute中执行查询并写入MySQL的…

    阿里云 2023年12月31日
  • 腾讯云Serverless HTTP 服务快速部署 Egg 框架

    操作场景 本文将为您指导如何通过 Web Function,将您的本地 Egg 项目快速部署到云端。说明本文档主要介绍控制台部署方案,您也可以通过命令行完成部署,详情请参见 通过命令行完成框架部署。 前提条件 在使用腾讯云云函数服务之前,您需要 注册腾讯云账号 并完成 实名认证。 操作步骤 模板部署:一键部署 Egg 项目 1. 登录 Serverless …

    2023年12月9日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
本站为广大会员提供阿里云、腾讯云、华为云、百度云等一线大厂的购买,续费优惠,保证底价,买贵退差。