[关闭]
@awsekfozc 2015-11-20T18:22:08.000000Z 字数 2466 阅读 1675

hadoop分布式部署(虚拟机下)

分布式部署


虚拟机设置

修改主机名

  1. $ sudo hostname hadoop02.zc.com
  2. $ sudo vi /etc/sysconfig/network

hostc.png-11.4kB

设置网卡

  1. 删除网卡:
  2. $ vi /etc/udev/rules.d/70-persistent-net.rules
  3. //复制下图红色部分 mac地址

mac.png-22.7kB

  1. 设置mac地址
  2. $ sudo vi /etc/sysconfig/network-scripts/ifcfg-eth0
  3. //上面复制的mac地址,设置到下图红色部分

111111.png-20.4kB

IP设置

ipset.png-31.4kB

映射设置

  1. $ sudo vi /etc/hosts

虚拟机内映射
QQ截图20151118214445.png-8.1kB

windows映射

C:\Windows\System32\drivers\etc\hosts

QQ截图20151118214624.png-6.7kB

系统环境清理

删除/tmp目录下的数据

  1. $ cd /tmp/
  2. $ sudo rm -rf ./*

删除原有hadoop

  1. $ cd /opt/moduels/
  2. $ rm -rf hadoop-2.5.0/

规划集群

设计表格

s.png-20.7kB

具体配置

core-site.xml

  1. <configuration>
  2. <!--namenode-->
  3. <property>
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://hadoop.zc.com:8020</value>
  6. </property>
  7. <!--本地目录-->
  8. <property>
  9. <name>hadoop.tmp.dir</name>
  10. <value>/tmp/hadoop-${user.name}</value>
  11. </property>
  12. <!--默认用户-->
  13. <property>
  14. <name>hadoop.http.staticuser.user</name>
  15. <value>zc</value>
  16. </property>
  17. </configuration>

hdfs-site.xml

  1. <configuration>
  2. <!--权限检查-->
  3. <property>
  4. <name>dfs.permissions.enabled</name>
  5. <value>false</value>
  6. </property>
  7. <!--副本数-->
  8. <property>
  9. <name>dfs.replication</name>
  10. <value>2</value>
  11. </property>
  12. <!--secondary服务-->
  13. <property>
  14. <name>dfs.namenode.secondary.http-address</name>
  15. <value>hadoop02.zc.com:50090</value>
  16. </property>
  17. </configuration>

slaves

  1. hadoop.zc.com
  2. hadoop01.zc.com
  3. hadoop02.zc.com

yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <!--配置ResourceManager-->
  7. <property>
  8. <name>yarn.resourcemanager.hostname</name>
  9. <value>hadoop01.zc.com</value>
  10. </property>
  11. <!--启用日志聚集-->
  12. <property>
  13. <name>yarn.log-aggregation-enable</name>
  14. <value>true</value>
  15. </property>
  16. <!--aggregation(日志聚集)保留时间,秒。-->
  17. <property>
  18. <name>yyarn.log-aggregation.retain-seconds</name>
  19. <value>100800</value>
  20. </property>
  21. </configuration>

mapred-site.xml

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <!--历史日志服务内部地址,mapred-site.xml-->
  7. <property>
  8. <name>mapreduce.jobhistory.address</name>
  9. <value>hadoop.zc.com:10020</value>
  10. </property>
  11. <!--历史日志服务地址web,mapred-site.xml-->
  12. <property>
  13. <name>mapreduce.jobhistory.webapp.address</name>
  14. <value>hadoop.zc.com:19888</value>
  15. </property>
  16. </configuration>

复制至各个节点

  1. $ scp -r hadoop-2.5.0/ zc@hadoop02.zc.com:/opt/app/

启动集群

1)格式化HDFS

  1. $ bin/hdfs namenode -format

2)启动namenode

  1. $ sbin/hadoop-daemon.sh start namenode

3)启动datanode(各个配置是datanode的节点都要启动)

  1. $ sbin/hadoop-daemon.sh start datanode

hdfs.png-39.7kB

4)启动resourcemanager

  1. $ sbin/yarn-daemon.sh start resourcemanager

5)启动nodemanager(各个nodemanager点都要启动)

  1. $ sbin/yarn-daemon.sh start nodemanager

yarn.png-64.9kB

测试集群

1)上传文件

  1. $ bin/hdfs dfs -put /opt/datas/wc.input data

put.png-23kB

1)运行mapreduce

  1. $ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wrodcount data output

QQ截图20151119004223.png-47.2kB

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注