下载Hadoop 官网:http://hadoop.apache.org/releases.html
先配置jdk环境(教程://www.jb51.net/article/108936.htm)
下载以后 解压到到/usr/local
| tar -zxvf hadoop-2.8.0.tar.gz -C /usr/local |
为了方便操作 把hadoop-2.8.0 改为hadoop
| mv /usr/local/hadoop-2.8.0 /usr/local/hadoop |
查看主机名
| hostname //第一个参数为主机名 |
检查是否可以免密码
| ssh localhost //这里的localhost为主机名 |
注意:一般初次安装都需要密码
| ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa |
| cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys |
再次验证
| ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa |
| cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys |
注意:如没有Enter password 就说明免密码了
配置环境变量
| vim /etc/profile |
末尾添加
| export HADOOP_HOME=/usr/local/hadoop export PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin |
使环境变量立即生效
| source /etc/profile |
创建Hadoop的临时文件存放地
| mkdir /usr/local/hadoop/tmp |
编辑Hadoop的配置文件
| cd /usr/local/hadoop/etc/hadoop/ vim hadoop-env.sh |
末尾添加
| export JAVA_HOME=/usr/local/java/jdk1.8.0_131/ export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop |
注意:路径要对
使环境变量立即生效
| source hadoop-env.sh |
配置另一个文件
| vim core-site.xml |
在<configuration></configuration>中添加以下内容
| <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> </property> |
配置下一个文件 hdfs-site.xml
| vim hdfs-site.xml |
在<configuration></configuration>中添加以下内容
| <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> |








