Hadoop入门 集群常用知识与常用脚本总结
集群常用知识与常用脚本总结
集群启动/停止方式
###1 各个模块分开启动/停止(常用)
配置ssh是前提
整体启动/停止HDFS
[ranan@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh [ranan@hadoop102 hadoop-3.1.3]$ sbin/stop-dfs.sh
整体启动/停止YARN
[ranan@hadoop102 hadoop-3.1.3]$ sbin/start-yarn.sh [ranan@hadoop102 hadoop-3.1.3]$ sbin/stop-yarn.sh
###2 各个服务组件逐一启动/停止
分别启动/停止HDFS
hdfs --daemon start datanode/namenode/secondarynamenode hdfs --daemon stop datanode/namenode/secondarynamenode
分别启动/停止YARN
yarn --daemon start resourcemanager/nodemanager yarn --daemon stop resourcemanager/nodemanager
编写Hadoop集群常用脚本
1 Hadoop集群启停脚本myhadoop.sh
当集群很多的时候,为了方便启停,自己编写脚本。
包含HDFS、YARN、Historyserver
先到存放全局环境变量的环境下/home/ranan/bin,编写脚本文件myhadoop.sh
注意:脚本中尽量写绝对路径
#!/bin/bash if [ $# -lt 1 ] then echo "No Args Input..." exit ; fi case $1 in "start") echo " =================== 启动 hadoop 集群 ===================" echo " --------------- 启动 hdfs ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh" echo " --------------- 启动 yarn ---------------" ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh" echo " --------------- 启动 historyserver ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start historyserver" ;; "stop") echo " =================== 关闭 hadoop 集群 ===================" echo " --------------- 关闭 historyserver ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop historyserver" echo " --------------- 关闭 yarn ---------------" ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh" echo " --------------- 关闭 hdfs ---------------" ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh" ;; *) echo "Input Args Error..." ;; esac
给脚本设置执行权限
[ranan@hadoop102 bin]$ chmod 777 myhadoop.sh
2 查看三台服务器Java进程脚本 jpsall
由于每次查看进程都得到每台服务器上输入jps查看,比较麻烦,且如果服务器较多,十分耗时,于是想到编写一个脚本,查看所有服务器的进程情况。
到存放全局环境变量的环境下/home/ranan/bin,编写脚本文件jpsall
#!/bin/bash for host in hadoop102 hadoop103 hadoop104 do echo =============== $host =============== ssh $host jps done
给脚本设置执行权限
[ranan@hadoop102 bin]$ chmod 777 jpsall
分发脚本 让三台服务器都可以使用脚本
[ranan@hadoop102 ~]$ xsync bin
常用端口说明(面试题)
-
hadoop3.x HDFS NameNode 内部通讯端口:8020/9000/9820 HDFS NameNode 对用户的查询 端口:9870 Yarn 查看任务运行情况端口:8088(没变) 历史服务器:19888(没变) hadoop2.x HDFS NameNode 内部通讯端口:8020/9000 HDFS NameNode 对用户的查询 端口:50070 Yarn 查看任务运行情况端口:8088 历史服务器:19888
常用的配置文件(面试题)
-
hadoop3.x core.site.xml 配置NameNode的内部通讯地址,hadoop数据存储在哪个目录下,配置HDFS网页登录使用的静态用户等。 hdfs-site.xml 配置Namenode的Web访问地址,SecondaryNameNode的web访问地址等。 yarn-site.xml MR走什么协议,什么方式进行资源调度,指定ResourceManager部署在哪台节点服务器,日志的聚集等。 mapred-site.xml 配置mapreduce运行在yarn,配置历史服务器等。 workers 集群上有几个节点就配置几个主机名称,相当于连接。 hadoop2.x core.site.xml hdfs-site.xml yarn-site.xml mapred-site.xml slaves
上一篇:
JS实现多线程数据分片下载
下一篇:
Kafka集群扩容遇到的问题