[关闭]
@rg070836rg 2017-11-14T14:08:24.000000Z 字数 5483 阅读 1363

hadoop及spark平台搭建笔记

南师大大创中期读书笔记

一、创建hadoop用户并赋予权限

①创建hadoop用户组

  1. sudo addgroup hadoop

②创建hadoop用户

  1. sudo adduser -ingroup hadoop hadoop

③密码设为admin

④增加权限

  1. sudo gedit /etc/sudoers

在文件内上述修改以下代码并保存

  1. # User privilege specification
  2. root ALL=(ALL:ALL) ALL
  3. hadoop ALL=(ALL:ALL) ALL

二、安装jdk

①创建目录 usr/lib/jvm

  1. cd usr/lib
  2. sudo mkdir jvm

②下载安装包并解压,移动

假设安装文件在下载目录
回到主目录

  1. cd 下载

执行下述代码(注意修改对应版本号)

  1. sudo tar zxvf ./jdk-8u45-linux-x64.tar.gz -C ../../../usr/lib/jvm

进入到该目录下,并进行移动操作

  1. cd usr/lib/jvm
  2. sudo mv jdk1.8.0_45/ java-8u45-sun
  3. //注意版本号

③配置环境变量

注意!!:这种方式是为当前用户配置的所以,切换到hadoop之后,还需要在配置一遍
使用vim ~/.bashrc命令编辑
在底部加入命令

  1. #######java-8u45-sun
  2. export JAVA_HOME=/usr/lib/jvm/java-8u45-sun
  3. export JRE_HOME=${JAVA_HOME}/jre
  4. export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
  1. source ~/.bashrc
  2. //更新文件

使用java -version检查是否成功


三、修改机器名(不必要)

sudo gedit /etc/hostname

编辑名字即可(随意,只是为了方便区分)


四、安装ssh服务

①安装openssh-server

  1. sudo apt-get install openssh-server

②若报错为:“Ubuntu无法锁定管理目录(/var/lib/dpkg/),是否有其他进程占用它?“

  1. sudo rm /var/lib/dpkg/lock
  2. sudo rm /var/cache/apt/archives/lock

五、 建立ssh无密码登录本机

①按照rsa方式生成密钥

  1. ssh-keygen -t rsa -C "751440280@qq.com"
  2. //邮箱输入自己的,仅作为标识

②输入存储目录

  1. /home/hadoop/.ssh/id_rsa

成功后如下:

  1. The key fingerprint is:
  2. 2f:bb:13:23:66:09:34:29:be:57:db:93:69:f0:71:2a 751440280@qq.com
  3. The key's randomart image is:

③将id_rsa.pub追加到authorized_keys授权文件中

  1. cd /home/hadoop/.ssh/
  2. //默认文件夹
  3. cat id_rsa.pub >> authorized_keys

④测试是否能够登陆

  1. ssh localhost
  2. //输入yes 测试能否登陆。

六、安装hadoop

①下载hadoop

hadoop下载地址

②安装过程

2.1、复制文件到/usr/local/下

  1. sudo cp hadoop-2.5.2.tar.gz /usr/local/

2.2、解压

  1. sudo tar -zxf hadoop-2.5.2.tar.gz

2.3、改名字

  1. sudo mv hadoop-2.5.2 hadoop

2.4、将该hadoop文件夹的属主用户设为hadoop

  1. sudo chmod -R 775 /usr/local/hadoop
  2. sudo chown -R hadoop:hadoop /usr/local/hadoop

2.5、修改bashrc的配置:

  1. sudo gedit ~/.bashrc

在最后增加

  1. #HADOOP VARIABLES START
  2. export JAVA_HOME=/usr/lib/jvm/????
  3. #(看jdk配置//上一行需要保留并设置成本机的路径)
  4. export HADOOP_INSTALL=/usr/local/hadoop
  5. export PATH=$PATH:$HADOOP_INSTALL/bin
  6. export PATH=$PATH:$HADOOP_INSTALL/sbin
  7. export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
  8. export HADOOP_COMMON_HOME=$HADOOP_INSTALL
  9. export HADOOP_HDFS_HOME=$HADOOP_INSTALL
  10. export YARN_HOME=$HADOOP_INSTALL
  11. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
  12. export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"
  13. #HADOOP VARIABLES END

然后更新生效

  1. source ~/.bashrc

2.6、修改hadoop-env.sh的配置

  1. sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh

找到JAVA_HOME改为上面的值,如下

  1. #export JAVA_HOME=${JAVA_HOME}
  2. export JAVA_HOME=/usr/lib/jvm/java-8u45-sun

2.7、修改core-site.xml

  1. sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml
  1. <configuration>
  2. <property>
  3. <name>hadoop.tmp.dir</name>
  4. <value>/usr/local/hadoop/tmp</value>
  5. <description>Abase for other temporary directories.</description>
  6. </property>
  7. <property>
  8. <name>fs.defaultFS</name>
  9. <value>hdfs://localhost:9000</value>
  10. </property>
  11. </configuration>

2.8、修改mapred-site.xml

  1. sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml //此项不必要
  1. <configuration>
  2. <property>
  3. <name>mapred.job.tracker</name>
  4. <value>localhost:9001</value>
  5. </property>
  6. </configuration>

2.9、修改yarn-site.xml

  1. sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml
  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.aux-services</name>
  8. <value>mapreduce_shuffle</value>
  9. </property>
  10. </configuration>

2.10、修改hdfs-site.xml

  1. sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml
  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.name.dir</name>
  8. <value>file:/usr/local/hadoop/dfs/name</value>
  9. </property>
  10. <property>
  11. <name>dfs.datanode.data.dir</name>
  12. <value>file:/usr/local/hadoop/dfs/data</value>
  13. </property>
  14. <property>
  15. <name>dfs.permissions</name>
  16. <value>false</value>
  17. </property>
  18. </configuration>

2.11、修改master与slaves

  1. sudo gedit /usr/local/hadoop/etc/hadoop/masters
  2. sudo gedit /usr/local/hadoop/etc/hadoop/slaves
  3. 添加:localhost

七、运行hadoop

①首先在 Hadoop 目录下创建所需的临时目录

  1. cd /usr/local/hadoop
  2. mkdir tmp dfs dfs/name dfs/data

②格式化hdfs文件系统,初次运行

  1. cd /usr/local/hadoop/
  2. bin/hdfs namenode -format

③最后开启服务

  1. sbin/start-dfs.sh
  2. sbin/start-yarn.sh

八、状态查看

  1. Namenode information:
  2. http://localhost:50070
  3. 来查看Hadoop的信息。
  1. All Applications
  2. http://localhost:8088/,

九、安装Eclipse

①下载地址

eclipse官方下载

②解压到/opt

  1. cd /opt/ && sudo tar -zxvf ~/下载/eclipse(根据下载的版本号填写)

③创建快捷方式

  1. gksudo gedit /usr/share/applications/eclipse.desktop

录入下述内容

  1. [Desktop Entry]
  2. Name=Eclipse 4
  3. Type=Application
  4. Exec=/opt/eclipse/eclipse
  5. Terminal=false
  6. Icon=/opt/eclipse/icon.xpm
  7. Comment=Integrated Development Environment
  8. NoDisplay=false
  9. Categories=Development;IDE;
  10. Name[en]=Eclipse

④作jre的软链接

  1. cd /opt/eclipse
  2. ln -sf /usr/lib/jvm/java-8u45-sun/jre

⑤、使用方式

用搜索栏搜索到eclipse,打开即可,可以选择拖拽到左侧快速启动栏


十、安装Eclipse hadoop插件

①下载hadoop-eclipse-plugin-2.4.0.jar

版本号无所谓,把这个文件拷贝到opt/eclipse/plugins中,这里介绍

  1. sudo nautilus

这个命令会给你一个最高权限的资源管理器,可以进行复制
拷贝完之后,打开eclipse

②添加Hadoop的安装目录

  1. Window->Preferences->Hadoop Map/Reduce中添加Hadoop的安装目录

③配置Map/Reduce Locations

  1. Window-->Show View->other
  2. MapReduce Tools中选择Map/Reduce Locations

配置如下:
此处输入图片的描述


scala配置+spark安装

一.安装 Scala

Scala 官网地址为 http://www.scala-lang.org/

1)下载 scala-2.11.7.tgz

2)进入目录下解压,并移动到合适的位置(比如opt目录下):

tar -xzvf scala-2.11.7.tgz

3)配置环境变量,编辑~/.bashrc,添加下面的内容。

sudo gedit ~/.bashrc

  1. #scala envir
  2. export SCALA_HOME=/xxxxxxxx //写上你的目录比如/opt/scala-2.11.7
  3. export PATH=${SCALA_HOME}/bin:$PATH

4)使 bashrc 文件更新生效。

  1. source ~/.bashrc

5)在终端输入scala测试是否安装成功

注:

不能使用apt-get install scala 这样安装是基于openjdk,问题很多.


二.安装 Spark

进入官网下载对应 Hadoop 版本的 Spark 程序包
官网地址为 http://spark.apache.org/downloads.html
这边下载最新版本1.41,2015年08月15日

1)下载 spark-1.4.1-bin-hadoop2.6.tgz

2)解压并移动到合适的位置(比如opt目录下):。

  1. tar -xzvf spark-1.4.1-bin-hadoop2.6.tgz
  2. //为了方便,移动后改名为spark

3)配置环境变量,编辑~/.bashrc,添加下面的内容。

sudo gedit ~/.bashrc

  1. #spark
  2. export SPARK_HOME=$HOME/opt/spark
  3. export PATH=$PATH:$SPARK_HOME/bin

4)使 bashrc 文件更新生效。

  1. source ~/.bashrc

5)配置 conf/spark-env.sh 文件\

加上 export JAVA_HOME=/usr/lib/jvm/java-8u45-sun

6)若出现权限问题,修改组权限为读写

7)在sbin目录下,调用脚本start-all.sh开启服务

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注