这篇文章主要介绍了Hadoop的伪分布式安装和一些基础操作
文章开头
环境配置:Centos7
Hadoop版本:hadoop:2.7.3
JDK版本:jdk-8u111-linux-x64.tar.gz
安装之前
下载hadoop安装包, 下载网址。进入官网之后,点击对应版本的“binary”,之后点击链接下载即可。
jdk。通过官网下载jdk
通过Xshell,上传两个安装包至/usr/local/。服务器与本地下载和上传需要lrzsz这个软件
之后可手动拖动文件至服务器当前目录下,也可通过命令
“rz”来打开窗口,从而进行上传。 (下载命令“sz”)
解压缩及配置
在/usr/local/
目录下进行解压 1 2 3
| tar -zxvf jdk-8u111-linux-x64.tar.gz tar -zxvf hadoop-2.7.3.tar.gz
|
配置Java环境变量(可与配置Hadoop环境变量配置一起进行)
1 2 3 4 5 6 7
| vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0_111 export PATH=.:$JAVA_HOME/bin:$PATH
source /etc/profile
|
配置Hadoop环境变量
1 2 3 4 5 6 7 8 9 10
| vim /etc/profile
export HADOOP_HOME=/usr/local/hadoop-2.7.3 export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
source /etc/profile
|
配置启动Hadoop
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33
| cd /usr/local/hadoop-2.7.3/etc/hadoop/
vim hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_111
vim core-site.xml
<configuration> <!-- 指定HDFS老大(namenode)的通信地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://hadoopbonc1:9000</value> <!-- 指定hadoop运行时产生文件的存储路径 --> <property> <name>hadoop.tmp.dir</name> </property> </configuration>
vim hdfs-site.xml
<configuration> <!-- 设置hdfs副本数量 --> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
|
配置SSH免密码登陆(密码互通)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
| ssh localhost
vim /etc/sysconfig/network source /etc/sysconfig/network
vim /etc/hosts ssh-keygen
ssh-copy-id hadoopbonc1
|
hdfs启动与停止
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
|
hdfs namenode -format
cd /usr/locate/hadoop-2.7.3/
./sbin/start-dfs.sh
jps
firewall-cmd --zone=public --add-port=50070/tcp --permanent firewall-cmd --reload
./sbin/stop-dfs.sh
|
配置和启动YARN
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32
| cd /usr/local/hadoop-2.7.3/etc/hadoop/ mv mapred-site.xml.template mapred-site.xml vim mapred-site.xml
<configuration> <!-- 通知框架MR使用YARN --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
vim yarn-site.xml
<configuration> <!-- reducer取数据的方式是mapreduce_shuffle --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
start-yarn.sh
jps
|
测试
在本地新建一个文件,如在/home/user/
下新建words.txt
,内容如下
1 2 3 4
| hello world hello hadoop hello csdn hello
|
正式进行测试。命令如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
| bin/hdfs dfs -mkdir /test
bin/hdfs dfs -ls /
bin/hdfs dfs -put /home/user/words.txt /test/
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /test/words.txt /test/out
bin/hdfs dfs -ls /test/out
bin/hdfs fs -cat /test/out/part-r-00000
|
HDFS的常用操作命令
1 2 3 4 5 6 7 8 9 10
|
hadoop fs -help <cmd>
hadoop fs -cat <hdfs上的路径>
hadoop fs -ls /
hadoop fs -get <hdfs上的路径> <linux上文件>
|
下一篇:在Hadoop基础上Hive的安装