[关闭]
@Great-Chinese 2017-05-25T07:52:26.000000Z 字数 2513 阅读 825

hadoop2.x部署(SingleCluster)

hadoop2.x部署(SingleCluster)


1.1 安装JKD

1.2 下载安装hadoop

  1. cd /usr/local/src
  2. wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.5.0-cdh5.3.6.tar.gz
  3. # 解压文件
  4. tar -zxvf hadoop-2.5.0-cdh5.3.6.tar.gz
  5. # /usr/local/下创建目录
  6. mkdir -p cdh/hadoop
  7. # 移动解压文件到/usr/local/cdh/hadoop/目录下
  8. mv hadoop-2.5.0-cdh5.3.6 /usr/local/cdh/
  9. # 进入当前目录下,删除cmd文件,doc文件
  10. cd hadoop/share #可选项,删除doc文档
  11. rm -rf doc/
  12. # 可选项,删除cmd文件
  13. cd hadoop/sbin
  14. rm -rf ./*.cmd
  15. cd hadoop/libexec
  16. rm -rf ./*.cmd
  17. cd hadoop/etc/hadoop
  18. rm -rf ./*.cmd

1.3 配置环境

  1. cd hadoop/etc/hadoop
  2. # 配置hadoop的JAVA_HOME
  3. vim hadoop-env.sh
  4. export JAVA_HOME=/usr/local/jdk1.8.0_131
  5. # 配置yarn的JAVA_HOME
  6. vim yarn-env.sh
  7. export JAVA_HOME=/usr/local/jdk1.8.0_131
  8. # 配置mapreduce的JAVA_HOME
  9. vim mapred-env.sh
  10. export JAVA_HOME=/usr/local/jdk1.8.0_131

1.4 配置HDFS

1.4.1 core-site.xml(namenode配置)

  1. cd hadoop/etc/hadoop
  2. vim core-site.xml #增加内容如下
  3. <configuration>
  4. <property>
  5. <name>fs.defaultFS</name>
  6. <value>hdfs://melody0113:8020</value>
  7. </property>
  8. </configuration>

1.4.2 slaves(datanode配置)

  1. cd hadoop/etc/hadoop
  2. vim slaves # 添加使用机的主机名
  3. melody0113

1.4.3 hdfs-site.xml(配置副本数)

  1. cd /etc/hadoop
  2. vim hdfs-site.xml # 增加内容如下
  3. <configuration>
  4. <property>
  5. <name>dfs.replication</name>
  6. <value>1</value>
  7. </property>
  8. </configuration>

1.5 格式化HDFS

  1. bin/hdfs # 查看命令
  2. bin/hdfs namenode -format # 格式化HDFS

1.6 启动HDFS

  1. # 启动namenode
  2. sbin/hadoop-daemon.sh start namenode
  3. # 启动datanode
  4. sbin/hadoop-daemon.sh start datanode
  5. # 查看启动
  6. jps
  7. # 启动出错请查看日志

1.7 运行HDFS管理web

  1. http://melody0113:50070/

1.8 上传,读取,下载,删除

  1. # 创建目录
  2. bin/hdfs dfs -mkdir -p /user/melody/tmp
  3. # 上传文件
  4. bin/hdfs dfs -put etc/hadoop/core-site.xml /user/melody/tmp
  5. # 读取文件
  6. bin/hdfs dfs -cat /user/melody/tmp/core-site.xml
  7. # 下载文件
  8. bin/hdfs dfs -get /user/melody/tmp/core-site.xml /tmp
  9. # 删除文件
  10. bin/hdfs dfs -rm -f /user/melody/tmp/*
  1. # linux下修改主机名
  2. vim /etc/hosts
  3. # windows下修改主机名
  4. C:\Windows\System32\drivers\etc\hosts

1.9 配置YARN

  1. cd /etc/hadoop
  2. vim yarn-site.xml # 增加内容如下
  3. <!--配置服务框架(以下为mapreduce框架的配置,NodeManager)-->
  4. <configuration>
  5. <property>
  6. <name>yarn.nodemanager.aux-services</name>
  7. <value>mapreduce_shuffle</value>
  8. </property>
  9. </configuration>
  10. <!--配置ResourceManager-->
  11. <configuration>
  12. <property>
  13. <name>yarn.resourcemanager.hostname</name>
  14. <value>melody0113</value>
  15. </property>
  16. </configuration>

2.0 启动YARN管理WEB

  1. <!--启动ResourceManager-->
  2. sbin/yarn-daemon.sh start resourcemanager
  3. <!--启动NodeManager-->
  4. sbin/yarn-daemon.sh start nodemanager
  5. <!--启动出错请查看日志:/opt/modules/hadoop-2.5.0/logs-->

1.7 运行YARN管理web

  1. WEB地址:http://melody0113:8088/

1.8 运行wordcount,首先准备input目标

  1. # 上传要wordcount的文件到hdfs
  2. bin/hdfs dfs -put /tmp/xxx.txt /user/local/tmp
  3. # 运行wordcount
  4. bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /user/local/tmp/input /user/local/tmp/output/

1.9 关闭安全模式

  1. bin/hdfs dfsadmin -safemode leave
添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注