Hadoop HDFS 操作

  • 启动 HDFS

    最初,您必须格式化已配置的HDFS文件系统,打开namenode(HDFS服务器),然后执行以下命令。
    
    $ hadoop namenode -format 
    
    格式化HDFS之后,启动分布式文件系统。以下命令将启动namenode以及作为群集的数据节点。
    
    $ start-dfs.sh 
    
  • 列出HDFS中的文件

    在将信息加载到服务器中之后,我们可以使用'ls'查找目录中的文件列表,文件状态。下面给出的是ls的语法,您可以将其传递到目录或文件名作为参数。
    
    $ $HADOOP_HOME/bin/hadoop fs -ls <args>
    
  • 将数据插入HDFS

    假设我们在本地系统中名为file.txt的文件中有数据,应将其保存在hdfs文件系统中。请按照以下步骤将所需文件插入Hadoop文件系统。
    步骤1
    您必须创建一个输入目录。
    
    $ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input 
    
    步骤2
    使用put命令将数据文件从本地系统传输并存储到Hadoop文件系统。
    
    $ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input 
    
    步骤3
    您可以使用ls命令验证文件。
    
    $ $HADOOP_HOME/bin/hadoop fs -ls /user/input 
    
  • 从HDFS检索数据

    假设我们在HDFS中有一个名为outfile的文件。下面给出的是一个简单的演示,用于从Hadoop文件系统中检索所需的文件。
    步骤1
    最初,使用cat命令从HDFS查看数据。
    
    $ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile 
    
    步骤2
    使用get命令将文件从HDFS获取到本地文件系统。
    
    $ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/ 
    
  • 关闭HDFS

    您可以使用以下命令关闭HDFS。
    
    $ stop-dfs.sh