1.扩缩容
hadoop节点下线nodemanager
Step-by-step guide
下线Nodemanager:
在yarn-site.xml中配置以下配置:
yarn.resourcemanager.nodes.exclude-path
/etc/hadoop/conf/mapred.exclude
true
以后有节点下线只需要编辑mapred.exclude文件,每个节点一行
以yarn 用户执行yarn rmadmin -refreshQueues 则会把exclude的节点标记为下线
2.资源队列调整
1.案例
yz-4m1-01集群上的队列分为生产型和非生产型。在2017年4月12日凌晨0点--早上9点,非生产型队列占用资源较多,导致集群压力过大,影响了当日早上9点的dwa下发。生产侧提出了队列资源的优化方案,如下:
2.备份当前队列的配置文件
在CM首页点击yarn
在yarn的【配置】页面,搜索“容量调度”,调出右侧的【值】
将【值】中的数据全部复制出来备份到本地。建议粘贴到写字板上,粘贴到txt里排版会出现混乱。
3.修改当前队列的配置信息
以qc队列为例:
4.保存更改
5.刷新动态资源池
在CM首页,点击集群右边的倒三角,再点击【刷新动态资源池】
6.核实已经修改成功
在Applications页面的Scheduler,调出qc队列的信息。
3.无CM修改队列资源
1.需求:
固网集群xx队列lf_zl资源38%*1.8拆分
原队列 lf_zl 改为 25%*2 ----租户使用
其余资源新增队列lf_ja 13%*1.8 -----预计后续部署租户使用
2.修改capacity-scheduler.xml
cd/opt/beh/core/hadoop/etc/hadoop/ #进入配置文件所在目录
cpcapacity-scheduler.xmlcapacity-scheduler.xml_20170616 #备份配置文件
vi capacity-scheduler.xml #修改配置文件
修改yarn.scheduler.capacity.root.queues的值,在value里添加lf_ja
修改原lf_zl的值:
把yarn.scheduler.capacity.root.lf_zl.capacity的值从38改为25
把yarn.scheduler.capacity.root.lf_zl.user-limit-facto的值从1.8改为2
在配置文件中新增队列配置文件,如下:
yarn.scheduler.capacity.root.lf_ja.capacity
13
default queue target capacity.
yarn.scheduler.capacity.root.lf_ja.user-limit-factor
1.8
default queue user limit a percentage from 0.0 to 1.0.
yarn.scheduler.capacity.root.lf_ja.maximum-capacity
100
The maximum capacity of the default queue.
yarn.scheduler.capacity.root.lf_ja.state
RUNNING
The state of the default queue. State can be one of RUNNING or STOPPED.
yarn.scheduler.capacity.root.lf_ja.acl_submit_applications
lf_ja_pro
The ACL of who can submit jobs to the default queue.
yarn.scheduler.capacity.root.lf_ja.acl_administer_queue
lf_ja_pro
The ACL of who can administer jobs on the default queue.
3.把更改后的配置文件拷贝到stanby节点
cp/opt/beh/core/hadoop/etc/hadoop/capacity-scheduler.xml /opt/beh/core/hadoop/etc/hadoop/capacity-scheduler.xml_20170616#登录stanby节点备份原配置文件
scp/opt/beh/core/hadoop/etc/hadoop/capacity-scheduler.xml hadoop@10.162.3.71:/opt/beh/core/hadoop/etc/hadoop/capacity-scheduler.xml #把修改后的配置文件拷贝到备节点主机上
4.登录主节点动态刷新资源池
yarn rmadmin -refreshQueues#刷新动态资源池
5.登录yarn界面检查更改结果是否正确,如图:
4.修改用户yarn资源分配
hadoop修改用户yarn队列分配倍数
1.以管理员用户登录所要更改的CM,进入后点击yarn,如图:
2.在yarn界面点击配置按钮,并在弹出的查找框中输入“容量调度”,查找如图:
3.把出现的值粘贴到文本留作备份(建议粘贴到写字板上,粘贴到txt里排版会出现混乱)切记一定要备份!!!
4.修改所需修改的值(一般限制用户队列,建议修改分配的倍数即Configured User Limit Factor这个值。修改Absolute Capacity需要对整体集群进行计算,所以用户加一起的达到百分百,建议不做修改)
5.列:如修改didi用户的Configured User Limit Factor值。
(1)登录yarn,点击Scheduler,点击didi用户的倒三角图标:
我们可以看出didi用户的Configured User Limit Factor值为3,即他可以使用超出他分配百分比的三倍。
(2)修改拷贝中的文本,查找didi配置文件那列:
(3)找到所需修改的值Configured User Limit Factor。将倍数修改成需要调整后的值。
(3)把配置文件拷贝回CM-yarn-配置-容量调度的那个文本框里,点击保存。
(4)回到CM主页,点击集群右边的倒三角,点击刷新动态资源池。
(5)配置完毕,到yarn上查看修改是否成功。
大数据开发技术之YARN-HA配置
大数据开发之Yarn和Spark UI界面获取的方法
大数据开发之必须学会的资源调度平台YARN
大数据开发之代码实现
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.