欢迎来到天天文库
浏览记录
ID:33637635
大小:89.50 KB
页数:8页
时间:2019-02-27
《hadoop命令手册》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库。
1、hadoop命令手册概述所有的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。用法:hadoop[--configconfdir][COMMAND][GENERIC_OPTIONS][COMMAND_OPTIONS]Hadoop有一个选项解析框架用于解析一般的选项和运行类。命令选项描述--configconfdir覆盖缺省配置目录。缺省是${HADOOP_HOME}/conf。GENERIC_OPTIONS多个命令都支持的通用选项。COMMAND命令选项S各种各样的命令和它们的选项会在下面提到。
2、这些命令被分为用户命令管理命令两组。常规选项下面的选项被dfsadmin,fs,fsck和job支持。应用程序要实现Tool来支持常规选项。GENERIC_OPTION描述-conf指定应用程序的配置文件。-D为指定property指定值value。-fs3、namenode:port>指定namenode。-jt4、jobtracker:port>指定jobtracker。只适用于job。-files<逗号分隔的文件列表>指定要拷贝到mapreduce集群的5、文件的逗号分隔的列表。只适用于job。-libjars<逗号分隔的jar列表>指定要包含到classpath中的jar文件的逗号分隔的列表。只适用于job。-archives<逗号分隔的archive列表>指定要被解压到计算节点上的档案文件的逗号分割的列表。只适用于job。用户命令hadoop集群用户的常用命令。archive创建一个hadoop档案文件。参考HadoopArchives.用法:hadooparchive-archiveNameNAME*命令选项描述-archiveNameNAME要创建的档案的名字。src文件6、系统的路径名,和通常含正则表达的一样。dest保存档案文件的目标目录。distcp递归地拷贝文件或目录。参考DistCp指南以获取等多信息。用法:hadoopdistcp命令选项描述srcurl源Urldesturl目标Urlfs用法:hadoopfs[GENERIC_OPTIONS][COMMAND_OPTIONS]运行一个常规的文件系统客户端。各种命令选项可以参考HDFSShell指南。fsck运行HDFS文件系统检查工具。参考Fsck了解更多。用法:hadoopfsck[GENERIC_OPTIONS]7、th>[-move8、-delete9、-openforwrite][-files[-blocks[-locations10、-racks]]]命令选项描述检查的起始目录。-move移动受损文件到/lost+found-delete删除受损文件。-openforwrite打印出写打开的文件。-files打印出正被检查的文件。-blocks打印出块信息报告。-locations打印出每个块的位置信息。-racks打印出data-node的网络拓扑结构。jar运行jar文件。用户可以把他们的MapReduce代码捆绑到jar文件中,使用这个命令执行11、。用法:hadoopjar[mainClass]args...streaming作业是通过这个命令执行的。参考Streamingexamples中的例子。Wordcount例子也是通过jar命令运行的。参考Wordcountexample。job用于和MapReduce作业交互和命令。用法:hadoopjob[GENERIC_OPTIONS][-submit]12、[-status]13、[-counter]14、[-kill]15、[16、-events<#-of-events>]17、[-history[all]]18、[-list[all]]19、[-kill-task]20、[-fail-task]命令选项描述-submit提交作业-status打印map和reduce完成百分比和所有计数器。-counter打印计数器的值。-kill杀死指定作业。-events21、-id><#-of-events>打印给定范围内jobtracker接收到的事件细节。-his
3、namenode:port>指定namenode。-jt4、jobtracker:port>指定jobtracker。只适用于job。-files<逗号分隔的文件列表>指定要拷贝到mapreduce集群的5、文件的逗号分隔的列表。只适用于job。-libjars<逗号分隔的jar列表>指定要包含到classpath中的jar文件的逗号分隔的列表。只适用于job。-archives<逗号分隔的archive列表>指定要被解压到计算节点上的档案文件的逗号分割的列表。只适用于job。用户命令hadoop集群用户的常用命令。archive创建一个hadoop档案文件。参考HadoopArchives.用法:hadooparchive-archiveNameNAME*命令选项描述-archiveNameNAME要创建的档案的名字。src文件6、系统的路径名,和通常含正则表达的一样。dest保存档案文件的目标目录。distcp递归地拷贝文件或目录。参考DistCp指南以获取等多信息。用法:hadoopdistcp命令选项描述srcurl源Urldesturl目标Urlfs用法:hadoopfs[GENERIC_OPTIONS][COMMAND_OPTIONS]运行一个常规的文件系统客户端。各种命令选项可以参考HDFSShell指南。fsck运行HDFS文件系统检查工具。参考Fsck了解更多。用法:hadoopfsck[GENERIC_OPTIONS]7、th>[-move8、-delete9、-openforwrite][-files[-blocks[-locations10、-racks]]]命令选项描述检查的起始目录。-move移动受损文件到/lost+found-delete删除受损文件。-openforwrite打印出写打开的文件。-files打印出正被检查的文件。-blocks打印出块信息报告。-locations打印出每个块的位置信息。-racks打印出data-node的网络拓扑结构。jar运行jar文件。用户可以把他们的MapReduce代码捆绑到jar文件中,使用这个命令执行11、。用法:hadoopjar[mainClass]args...streaming作业是通过这个命令执行的。参考Streamingexamples中的例子。Wordcount例子也是通过jar命令运行的。参考Wordcountexample。job用于和MapReduce作业交互和命令。用法:hadoopjob[GENERIC_OPTIONS][-submit]12、[-status]13、[-counter]14、[-kill]15、[16、-events<#-of-events>]17、[-history[all]]18、[-list[all]]19、[-kill-task]20、[-fail-task]命令选项描述-submit提交作业-status打印map和reduce完成百分比和所有计数器。-counter打印计数器的值。-kill杀死指定作业。-events21、-id><#-of-events>打印给定范围内jobtracker接收到的事件细节。-his
4、jobtracker:port>指定jobtracker。只适用于job。-files<逗号分隔的文件列表>指定要拷贝到mapreduce集群的
5、文件的逗号分隔的列表。只适用于job。-libjars<逗号分隔的jar列表>指定要包含到classpath中的jar文件的逗号分隔的列表。只适用于job。-archives<逗号分隔的archive列表>指定要被解压到计算节点上的档案文件的逗号分割的列表。只适用于job。用户命令hadoop集群用户的常用命令。archive创建一个hadoop档案文件。参考HadoopArchives.用法:hadooparchive-archiveNameNAME*命令选项描述-archiveNameNAME要创建的档案的名字。src文件
6、系统的路径名,和通常含正则表达的一样。dest保存档案文件的目标目录。distcp递归地拷贝文件或目录。参考DistCp指南以获取等多信息。用法:hadoopdistcp命令选项描述srcurl源Urldesturl目标Urlfs用法:hadoopfs[GENERIC_OPTIONS][COMMAND_OPTIONS]运行一个常规的文件系统客户端。各种命令选项可以参考HDFSShell指南。fsck运行HDFS文件系统检查工具。参考Fsck了解更多。用法:hadoopfsck[GENERIC_OPTIONS]7、th>[-move8、-delete9、-openforwrite][-files[-blocks[-locations10、-racks]]]命令选项描述检查的起始目录。-move移动受损文件到/lost+found-delete删除受损文件。-openforwrite打印出写打开的文件。-files打印出正被检查的文件。-blocks打印出块信息报告。-locations打印出每个块的位置信息。-racks打印出data-node的网络拓扑结构。jar运行jar文件。用户可以把他们的MapReduce代码捆绑到jar文件中,使用这个命令执行11、。用法:hadoopjar[mainClass]args...streaming作业是通过这个命令执行的。参考Streamingexamples中的例子。Wordcount例子也是通过jar命令运行的。参考Wordcountexample。job用于和MapReduce作业交互和命令。用法:hadoopjob[GENERIC_OPTIONS][-submit]12、[-status]13、[-counter]14、[-kill]15、[16、-events<#-of-events>]17、[-history[all]]18、[-list[all]]19、[-kill-task]20、[-fail-task]命令选项描述-submit提交作业-status打印map和reduce完成百分比和所有计数器。-counter打印计数器的值。-kill杀死指定作业。-events21、-id><#-of-events>打印给定范围内jobtracker接收到的事件细节。-his
7、th>[-move
8、-delete
9、-openforwrite][-files[-blocks[-locations
10、-racks]]]命令选项描述检查的起始目录。-move移动受损文件到/lost+found-delete删除受损文件。-openforwrite打印出写打开的文件。-files打印出正被检查的文件。-blocks打印出块信息报告。-locations打印出每个块的位置信息。-racks打印出data-node的网络拓扑结构。jar运行jar文件。用户可以把他们的MapReduce代码捆绑到jar文件中,使用这个命令执行
11、。用法:hadoopjar[mainClass]args...streaming作业是通过这个命令执行的。参考Streamingexamples中的例子。Wordcount例子也是通过jar命令运行的。参考Wordcountexample。job用于和MapReduce作业交互和命令。用法:hadoopjob[GENERIC_OPTIONS][-submit]
12、[-status]
13、[-counter]
14、[-kill]
15、[
16、-events<#-of-events>]
17、[-history[all]]
18、[-list[all]]
19、[-kill-task]
20、[-fail-task]命令选项描述-submit提交作业-status打印map和reduce完成百分比和所有计数器。-counter打印计数器的值。-kill杀死指定作业。-events21、-id><#-of-events>打印给定范围内jobtracker接收到的事件细节。-his
21、-id><#-of-events>打印给定范围内jobtracker接收到的事件细节。-his
此文档下载收益归作者所有