Hadoop - HDFS 操作

启动 HDFS

最初您必须格式化配置的 HDFS 文件系统,打开 namenode(HDFS 服务器),然后执行以下命令。

$ hadoop namenode -format 

格式化 HDFS 之后,启动分布式文件系统。 以下命令将启动 namenode 以及作为集群的数据节点。

$ start-dfs.sh 

HDFS 中的文件列表

在服务器中加载信息后,我们可以使用'ls'找到目录中的文件列表、文件状态。 下面给出了 ls 的语法,您可以将其作为参数传递给目录或文件名。

$ $HADOOP_HOME/bin/hadoop fs -ls <args>

将数据插入 HDFS

假设我们在本地系统中名为 file.txt 的文件中有数据,该文件应该保存在 hdfs 文件系统中。 按照下面给出的步骤在 Hadoop 文件系统中插入所需的文件。

步骤 1

您必须创建一个输入目录。

$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input 

步骤 2

使用 put 命令将数据文件从本地系统传输并存储到 Hadoop 文件系统。

$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input 

步骤 3

您可以使用 ls 命令验证文件。

$ $HADOOP_HOME/bin/hadoop fs -ls /user/input 

从 HDFS 检索数据

假设我们在 HDFS 中有一个名为 outfile 的文件。 下面给出了从 Hadoop 文件系统中检索所需文件的简单演示。

步骤 1

首先,使用 cat 命令查看来自 HDFS 的数据。

$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile 

步骤 2

使用 get 命令将文件从 HDFS 获取到本地文件系统。

$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/ 

关闭 HDFS

您可以使用以下命令关闭 HDFS。

$ stop-dfs.sh