详情页标题前

请教下 flink 报错 hdfs dfs -ls 可以正常执行吗?-云小二-阿里云

详情页1

请教下 flink on yarn 模式 跑wordcount run ./examples/batch/WordCount.jar –input hdfs://node1:8020/flink1.16.3/input/wordcount.txt –output hdfs://node1:8020/flink1.16.3/ouput 报错 hdfs dfs -ls 可以正常执行?请教下   flink 报错 hdfs dfs  -ls  可以正常执行吗?-云小二-阿里云

以下为热心网友提供的参考意见

根据您提供的信息,报错信息可能是由于Flink在执行WordCount任务时无法访问HDFS。请尝试以下解决方案:

  1. 确保HDFS集群正常运行,并且可以从您的机器上访问。您可以使用hdfs dfs -ls /flink1.16.3/input命令检查HDFS上的文件是否存在。

  2. 检查Flink的配置文件(flink-conf.yaml)中的HDFS配置是否正确。确保fs.defaultFSyarn.application-master的值与您的HDFS集群设置相匹配。例如:

fs.defaultFS: hdfs://node1:8020
yarn.application-master: yarn-cluster
  1. 检查Flink的日志文件以获取更多关于错误的详细信息。您可以在Flink安装目录下的log文件夹中找到日志文件。

  2. 如果问题仍然存在,您可以尝试在Flink的命令行中添加一些调试选项,以便查看更详细的错误信息。例如:

./bin/flink run -d -p 1 ./examples/batch/WordCount.jar --input hdfs://node1:8020/flink1.16.3/input/wordcount.txt --output hdfs://node1:8020/flink1.16.3/ouput -Dlog.level=DEBUG

转转请注明出处:https://www.yunxiaoer.com/180590.html

(0)
上一篇 2024年1月4日
下一篇 2024年1月4日
详情页2

相关推荐

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
本站为广大会员提供阿里云、腾讯云、华为云、百度云等一线大厂的购买,续费优惠,保证底价,买贵退差。