博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
CentOS7安装CDH 第十三章:CDH资源池配置
阅读量:5280 次
发布时间:2019-06-14

本文共 3339 字,大约阅读时间需要 11 分钟。

相关文章链接

1. 静态资源池

在CDH中,一般情况下不建议使用静态资源池,在CDH中默认的资源池是动态资源池,为什么不建议使用静态资源池,原因如下:

假设给NodeManager分配了4G内存,刚刚开始使用的时候使用了3G,一段时间后任务增多,使用到了4G内存,当任务再增多时,静态资源池会OOM,但动态资源池会从其他地方调集资源过来接着使用。

2. 动态资源池的三种默认使用池

1、使用池已在运行时指定 ,如果该池不存在则加以创建:

  hadoop jar -Dmapreduce.job.queuename=etl xxx.jar

  假如有资源池就使用etl,没有创建etl

2、使用池 root.users.[username] ,如果该池不存在则加以创建:

  hadoop jar xxxx.jar

  以root来提交 root.users.root

  以hdfs来提交 root.users.hdfs

3、使用池 root.default:

  此规则始终满足。不会使用后续规则

3. 使用动态资源池

3.1. 动态资源池的其中2种性质

1、根据多个项目一个大的资源池的性质:

  A项目(spark streaming),B项目(spark sql/hive)

  一个项目:

  spark streaming  10%

  hive 30%

  spark sql 60%

  ---Dmapreduce.job.queuename=root.sparkstreaming

2、根据一个项目一个大的资源池性质:

  生产项目product,开发项目develop, 测试项目qa, 默认资源池

  人员:

  product1、product2: product

  develop1、develop2: develop

  qa1、qa2: qa

3.2. 配置动态资源池示例

1、创建资源池product,develop,qa和default,这些都是root的子资源池,其中内存和CPU可以自己设置,但一般不设置,就只设置权重就可以了,记得修改后要刷新动态资源池:

  

  

2、创建我们自己的放置规则:

  

  当product1用户提交hadoop jar xxxx.jar命令时,是使用的哪个资源池?

  product1用户提交的时候,取用户组是product,拼接root.product

  此时判断root.product池在不在系统配置里?

  假如在,就使用root.product,假如不在,第二条规则

3、配置CDH集群的Java Home目录:

   

  在所有主机界面的配置选项中,使用安装JDK建议使用tar包解压安装,解压的目录为/usr/java下,配置好Java Home目录后请到CDH主界面更新配置,如果不更新那该资源就不会生效。

4、开启HDFS权限检查(dfs.permissions):

  

5、创建用户组和用户:

  

6、开启资源管理器ACL和设置相应的用户或者用户组:

  

  管理ACL的格式为:" 以逗号分隔的用户列表+空格+以逗号分隔的用户组列表" ,例如 "user1,user2 group1,group2"

7、不允许未声明的池:

  

8、不使用默认队列时的 Fair Scheduler 用户:

  

9、生效配置,重启服务:

  

  或点击电源按钮。

10、提交访问控制:

  对root用户进行设置:

  

  

  对其他用户进行设置,以下以develop举例,其他类似:

  

  

  在动态资源池中主要刷新动态资源池就可以生效了,不需要重启服务。

3.3. 使用动态资源池示例

1、创建用户和用户组:

  

2、在HDFS中创建目录:

  

3、给创建的目录授权:

  hdfs dfs -chmod -R 777 /example

4、使用product1用户上传一个文件到创建的目录下:

  

5、使用product1用户在HDFS中创建一个文件夹:

  

6、使用product1用户创建一个测试文件夹,并上传到/example/input/目录下:

  

7、进入到hadoop的跟目录下,并找到hadoop自带的测试jar包:

  

8、使用product1用户执行此jar包下的wordcount程序:

hadoop jar \

/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.16.1.jar \

wordcount \

/example/input \

/example/output1

错误一:/user目录访问权限问题,可以通过修改HDFS的/user目录权限解决

修改前:

修改命令(需使用hdfs用户来修改):

[hdfs@bigdata01 ~]$ hdfs dfs -chmod -R 777 /user/

修改后:

注:该文件列表中user文件夹可以进行修改,但一些业务数据的文件夹,比如hbase文件夹就不能进行修改了。

 

错误二:用户根无法向队列root.default提交应用程序

此错误为没有将任务提交到product资源池中,可以将default资源池池设置成所有用户都可以访问即可,还可以进行其他设置,请去百度查看。

3.4. 提交一个spark程序中遇到的问题

1、当在CDH中安装spark2后,提交spark程序的命令为spark2-submit \;

2、提交任务命令如下:

cd /opt/cloudera/parcels/SPARK2/lib/spark2/examples/jars

spark2-submit \

--master yarn \

--queue $QUEUE_NAME \

--class org.apache.spark.examples.GroupByTest \

spark-examples_2.11-2.2.0.cloudera4.jar

3、错误一

17/10/21 13:18:48 INFO spark.SparkContext: Successfully stopped SparkContext

Exception in thread "main" java.lang.IllegalArgumentException:

Required executor memory (1024+384 MB) is above the max threshold (1049 MB) of this cluster!

Please check the values of 'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'.

at org.apache.spark.deploy.yarn.Client.verifyClusterResources(Client.scala:334)

at org.apache.spark.deploy.yarn.Client.submitApplication(Client.scala:168)

需要在yarn中配置yarn.nodemanager.resource.memory-mb参数

4、错误二

job的日志 HDFS:

User [dr.who] is not authorized to view the logs for container_e25_1508567262904_0002_01_000001 in log file [i-bsbhj3uw_8041]

此时是没有权限访问hdfs中的日志,需要在hdfs的配置文件中查找core-site,然后添加如下配置:

转载于:https://www.cnblogs.com/yangshibiao/p/10870846.html

你可能感兴趣的文章
javascript的发展及个人笔记
查看>>
全选,反全选,反选,获取选中的值,根据子选择控制全选按钮
查看>>
梦断代码读后感01
查看>>
[CF#250 Div.2 D]The Child and Zoo(并查集)
查看>>
博客园博客插入公式
查看>>
hdu 1028 Ignatius and the Princess III(母函数入门+模板)
查看>>
Ubuntu下配置安装telnet server
查看>>
Codeforces 235 E Number Challenge
查看>>
ubuntu 常见命令整理
查看>>
EJBCA安装教程+postgresql+wildfly10
查看>>
(五十四)涂鸦的实现和截图的保存
查看>>
配置EditPlus使其可以编译运行java程序
查看>>
java中的占位符\t\n\r\f
查看>>
7.14
查看>>
SDN2017 第一次作业
查看>>
MySQL通过frm 和 ibd 恢复数据过程
查看>>
AngularJs 学习笔记(2)
查看>>
关于元素优先级
查看>>
oo第一单元作业总结
查看>>
SRS源码——Listener
查看>>