Answers:
bin/hadoop fs -get /hdfs/source/path /localfs/destination/path
bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path
namenode_machine:50070
),浏览到要复制的文件,向下滚动页面,然后单击下载文件。在Hadoop 2.0中,
hdfs dfs -copyToLocal <hdfs_input_file_path> <output_path>
哪里,
hdfs_input_file_path
也许从 http://<<name_node_ip>>:50070/explorer.html
output_path
是文件要复制到的本地路径。
您也可以get
代替copyToLocal
。
为了将文件从HDFS复制到本地文件系统,可以运行以下命令:
hadoop dfs -copyToLocal <input> <output>
<input>
:要复制的HDFS目录路径(例如/ mydata)<output>
:目标目录路径(例如〜/ Documents)hadoop fs -ls
吗?
您可以通过这两种方式来完成。
1.hadoop fs -get <HDFS file path> <Local system directory path>
2.hadoop fs -copyToLocal <HDFS file path> <Local system directory path>
例如:
我的文件位于/sourcedata/mydata.txt中, 我想在此路径/ user / ravi / mydata中将文件复制到本地文件系统
hadoop fs -get /sourcedata/mydata.txt /user/ravi/mydata/
bin/hadoop fs -put /localfs/destination/path /hdfs/source/path