2023年11月25日发(作者:)

简述hadoop安装步骤

简述hadoop安装步骤

安装步骤:

1、安装虚拟机系统,并进⾏准备⼯作(可安装- ⼀个然后克隆)

2.修改各个虚拟机的hostnamehost

3.创建⽤户组和⽤户

4、配置虚拟机⽹络,使虚拟机系统之间以及和host主机之间可以通过

相互ping通。

5.安装jdk和配置环境变量,检查是否配置成功

6、配置ssh,实现节点间的⽆密码登录ssh node1/2指令验证时候成

7master 配置hadoop,并将hadoop⽂件传输到node节点

8、配置环境变量,并启动hadoop, 检查是否安装成功,执⾏wordcou

nt检查是否成功。

.HDFS作⽤是什么

Hadoop分布式⽂件系统(HDFS)是指被设计成适合运⾏在通⽤硬件(commodity hardware)上的分布式⽂件系统(Distributed File System)。

它和现有的分布式⽂件系统有很多共同点。但同时,它和其他的分布式⽂件系统的区别也是很明显的。HDFS是⼀个⾼度容错性的系统,适

合部署在廉价的机器上。HDFS能提供⾼吞吐量的数据访问,⾮常适合⼤规模数据集上的应⽤。HDFS放宽了⼀部分POSIX约束,来实现流

式读取⽂件系统数据的⽬的。HDFS在最开始是作为Apache Nutch搜索引擎项⽬的基础架构⽽开发的。HDFSApache Hadoop Core项⽬

的⼀部分。

HDFS有着⾼容错性(fault-tolerant)的特点,并且设计⽤来部署在低廉的(low-cost)硬件上。⽽且它提供⾼吞吐量(high throughput)来

访问应⽤程序的数据,适合那些有着超⼤数据集(large data set)的应⽤程序。HDFS放宽了(relaxPOSIX的要求(requirements)这样

可以实现流的形式访问(streaming access)⽂件系统中的数据。

.常⽤的Hadoop FS Shell命令有哪些及其作⽤

1.调⽤Hadoop的⽂件系统ShellFileSystem Shell)的命令格式:

语法:hadoop fs :前提是位置位于hadoop/bin下,其中fs是参数,表⽰FS Shellfs的⼦命令

2.使⽤FS Shell命令⾏管理⽂件:

mkdir -创建⽬录

语法:hadoop fs -mkdir

例⼦:

hadoop fs -mkdir /user:在HDFS中创建"/user"⽬录

hadoop fs -mkdir /user/hadoop:在HDFS中创建"/user/hadoop"⽬录

hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2:在HDFS中同时创建"/user/hadoop/dir1""/user/hadoop/dir2",⽬录

ls -查看列表⽂件

语法:hadoop fs -ls

如果是⽂件,则按照如下格式返回⽂件信息:

⽂件名<副本数> ⽂件⼤⼩ 修改⽇期 修改时间 权限 ⽤户ID ID

如果是⽬录,则返回它直接⼦⽂件的⼀个列表

cat -查看⽂件

语法:hadoop fs -cat URI <>:输出路径指定⽂件的内容

例⼦:

hadoop fs -cat /input2/ /input2/:在HDFS中查看input2⽬录下的的⽂件内容

put -从本地⽂件系统中复制⼀个或多个⽂件到HDFS(外部命令)

语法:hadoop fs -put ...

其中localsrc只能是本地⽂件,dst只能是HDFS⽂件,且不受tFS属性影响。

例⼦:

hadoop fs -put /home/hduser/file/ /input2

-将本地⽂件复制到HDFS⽬录"input2"

hadoop fs -put /home/hduser/file/ /home/hduser/file/ /input2

-将多个本地⽂件复制到HDFS⽬录"input2"

hadoop fs -put - /input2/file3

-从标准输⼊中读取输⼊,按Ctrl+C组合键退出并保存到"file3"

get -复制HDFS⽂件到本地系统(外部命令,是put命令的逆操作)

语法:hadoop fs -get

其中src只能是HDFS⽂件,localdst只能是本地⽂件,且同样不受tFS属性影响

例⼦:

hadoop fs -get /input2/ /sa/file

-HDFS⽬录"input2"下的⽂件复制到本地系统⽬录"sa"下的file⽂件夹中

mv -移动、剪切命令

语法:hadoop fs -mv URI [] :将⽂件从源路径移动到⽬标路径,允许多个源路径,⽬标路径必须是⼀个⽬录

例⼦:

hadoop fs -mv /input2/ /input2/ /user/hadoop/dir1

-HDFS"input2"⽂件夹中的⽂件移动到"/user/hadoop/dir1"⽂件夹中

cp -复制命令

语法:hadoop fs -cp URI [] :将⽂件从源路径复制到⽬标路径,允许多个源路径,⽬标路径必须是⼀个⽬录

例⼦:

hadoop fs -cp /input2/ /input2/ /user/hadoop/dir1

-HDFS"input2"⽂件夹中的⽂件复制到"/user/hadoop/dir1"⽂件夹中

rmrmr -删除⽂件

命令

语法:hadoop fs -rm URI []

删除指定的⽂件,只删除⾮空⽬录和⽂件

例⼦:

hadoop fs -rm /input2/

-HDFS中删除input2⽂件夹下的⽂件

命令

语法:hadoop fs -rmr URI []

rm的递归版本,整个⽂件夹及⼦⽂件将全部删除

例⼦:

hadoop fs -rmr /user/hadoop/dir1

-HDFS中直接删除" /user/hadoop/dir1"路径中dir1⽂件夹及该⽂件夹中的⼦⽂件

testduexpubge -管理命令

命令

语法:hadoop fs -test -[选项] URI

选项:

-e:检查⽂件是否存在,如果存在则返回0,不存在返回1

-z:检查⽂件是否存在内容,有内容返回1,没有内容返回0(检查⽂件的⼤⼩是否是0字节,⽂件⼤⼩是0字节返回0,不是0字节返回1);

-d:检查路径是否为⽬录,如果是则返回1,不是则返回0.

例⼦:

hadoop fs -test -e /input2/

-检查⽂件是否存在

echo $? -#"$?"Linux变量,存储上⼀条命令的返回值,"echo $?"表⽰输出命令⾏返回的数值。

命令

语法:hadoop fs -du URI []

-显⽰⽬录中所有⽂件的⼤⼩

例⼦:

hadoop fs -du /input2

-HDFS中显⽰input2⽂件夹的⼤⼩,如果是⽬录则列出所有⽂件及其⼤⼩

hadoop fs -du /input2/

-HDFS中显⽰input2⽂件夹下⽂件的⼤⼩,如果是⽬录则统计总⼤⼩

e命令

语法:hadoop fs -expunge

-清空回收站

以上只介绍了部分常⽤命令,更多命令可查阅Hadoop帮助⽂档,获取位置:

$Hadoop_HOME/share/doc/hadoop/hadoop-project-dist/hadoop-common/