博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
flink yarn 部署指南
阅读量:5894 次
发布时间:2019-06-19

本文共 3213 字,大约阅读时间需要 10 分钟。

主要分成两部分,yarn的安装与flink的安装, 共3台机器

10.10.10.125

10.10.10.126
10.10.10.127

----------------------------------------------------yarn 安装

wget 'http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.5/hadoop-2.8.5.tar.gz'tar -zxvf hadoop-2.8.5.tar.gz -C /home/zr/hadoop/vim /etc/profileexport HADOOP_HOME=/home/zr/hadoop/hadoop-2.8.5export PATH=$HADOOP_HOME/bin:$PATHsource /etc/profilevim /etc/sysconfig/network host名千万不要搞成下划线 否则就等着完蛋吧HOSTNAME=flink125(不同的机器配置不同)vim /etc/hosts10.10.10.125 flink12510.10.10.126 flink12610.10.10.127 flink127vim yarn-site.xml 增加以下内容
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.hostname
flink125
yarn.resourcemanager.am.max-attempts
4
The maximum number of application master execution attempts
yarn.nodemanager.vmem-check-enabled
false
vi etc/hadoop/core-site.xml 增加以下内容
fs.default.name
hdfs://flink125:9000
vi etc/hadoop/hdfs-site.xml 增加以下内容
dfs.namenode.name.dir
file:///data/hadoop/storage/hdfs/name
dfs.datanode.data.dir
file:///data/hadoop/storage/hdfs/data
$ vi etc/hadoop/mapred-site.xml 增加以下内容
mapreduce.framework.name
yarn
dfs.replication
2
vi slaves 增加以下内容flink126flink127vim hadoop/etc/hadoop/hdoop-env.sh将语句 export JAVA_HOME=$JAVA_HOME修改为 export JAVA_HOME=/usr/java/jdk1.8.0_101

以上操作都是在三台机器上执行

下面是免登操作

1 在125机器上执行

rm -r ~/.ssh    ssh-keygen  scp ~/.ssh/id_rsa.pub 126,127 机器上

2 在126 127上分别执行

cat id_rsa.pub>>.ssh/authorized_keys
 

最后在125上执行以下操作

启动hadoopstart-dfs.sh启动yarnstart-yarn.sh

----------------------------------------------------yarn 配置完毕

------------------------------------------------------flink 安装

wget 'http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.7.2/flink-1.7.2-bin-hadoop28-scala_2.12.tgz'tar zxvf flink-1.7.2-bin-hadoop28-scala_2.12.tgz -C /home/zr/module/修改flink/conf/masters,slaves,flink-conf.yamlvi mastersflink125:8081flink126:8081vi slavesflink126flink127vi flink-conf.yamltaskmanager.numberOfTaskSlots:2jobmanager.rpc.address: flink125sudo vi /etc/profileexport FLINK_HOME=/opt/module/flink-1.6.1export PATH=$PATH:$FLINK_HOME/binsource /etc/profileconf/flink-conf.yamlhigh-availability: zookeeperhigh-availability.zookeeper.quorum: flink125:2181,flink126:2181,flink127:2181high-availability.storageDir: hdfs:///home/zr/flink/recoveryhigh-availability.zookeeper.path.root: /home/zr/flinkyarn.application-attempts: 4zoo.cfgserver.1=flink125:2888:3888server.2=flink126:2888:3888server.3=flink127:2888:3888以上操作都在三台机器上执行

--------------------------------------------flink 配置完毕

在125机器上执行:

启动ZooKeeper仲裁./start-zookeeper-quorum.sh启动flink./flink run -m yarn-cluster -yn 2 -ytm 2048 /home/zr/module/flink-1.7.2/examples/zr/flink-data-sync-0.1.jar

参考文章

转载于:https://blog.51cto.com/12597095/2407034

你可能感兴趣的文章
物联网设备无线充电技术解析
查看>>
JIRA+MySQL配置
查看>>
oracle数据库备份
查看>>
Android应用测试总结
查看>>
科技企业如何应对城市交通治理
查看>>
2016上半年恶意软件大幅降低 黑客入狱
查看>>
计算机软件质量保证计划示例
查看>>
高通与微软合作加速云服务发展
查看>>
配置管理系统和总体变更系统有什么差别与联系
查看>>
思科安全技术顾问吴清伟:数字化时代的企业安全防护探讨
查看>>
自动化测试—业务线仿真回归流程剖析
查看>>
加强立法规制个人信息滥用
查看>>
校园网为何成勒索病毒受害者 XP可关闭这个端口
查看>>
911事件如果推迟15年 大数据是否能挽救这场灾难
查看>>
【云周刊】第124期:实时计算来临!阿里新一代实时计算引擎 Blink,每秒支持数十亿次计算...
查看>>
深入理解Spark:核心思想与源码分析. 1.5 小结
查看>>
用好PostgreSQL role membership来管理继承组权限
查看>>
MongoDB涉及的业务比较慢--慢查询优化分析案例--以及参数说明
查看>>
小米架构师:亿级大数据实时分析与工具选型
查看>>
客户之声为你探究PB级云数据库HBase
查看>>