首先,格式化配置HDFS文件系統(tǒng),打開NameNode(HDFS服務(wù)器),然后執(zhí)行以下命令。
$ hadoop namenode -format
格式化HDFS后,啟動分布式文件系統(tǒng)。以下命令將啟動名稱節(jié)點(diǎn)和數(shù)據(jù)節(jié)點(diǎn)的集群。
$ start-dfs.sh
加載服務(wù)器信息后,使用'ls' 可以找出文件列表中的目錄,文件狀態(tài)。下面給出的是ls,可以傳遞一個(gè)目錄或文件名作為參數(shù)的語法。
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
假設(shè)在本地系統(tǒng),這是所謂的file.txt文件中的數(shù)據(jù),應(yīng)當(dāng)保存在HDFS文件系統(tǒng)。按照下面給出插入在Hadoop的文件系統(tǒng)所需要的文件的步驟。
必須創(chuàng)建一個(gè)輸入目錄。
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input
傳輸并使用本地系統(tǒng)put命令,Hadoop文件系統(tǒng)中存儲的數(shù)據(jù)文件。
$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input
可以使用ls命令驗(yàn)證文件。
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
假設(shè)在HDFS文件名為outfile。下面給出的是一個(gè)簡單的演示用于檢索從Hadoop文件系統(tǒng)所需的文件。
最初,使用cat命令來查看來自HDFS的數(shù)據(jù)。
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
從HDFS得到文件使用get命令在本地文件系統(tǒng)。
$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/
可以使用下面的命令關(guān)閉HDFS。
$ stop-dfs.sh