目录
一、填空题
requests
库用于发送HTTP请求和接收_____。
response.status_code
可以获取HTTP响应的_____。
使用requests.get(url)
发送GET请求时,响应内容可以通过_____属性获取。
JSON(JavaScript Object Notation)是一种_____数据交换格式。
JSON对象由__和__组成。
使用response.json()
方法可以将响应内容解析为_____格式。
在requests.post(url, json=data)
中,json=data
用于发送_____数据。
HTML解析常用的库是_____。
BeautifulSoup
的解析器通常使用_____。
soup.find_all('a')
用于找到HTML中所有_____标签。
response.cookies
用于获取_____。
在requests.get(url, headers=headers)
中,headers=headers
用于发送_____。
在POST请求中,传统表单数据通过_____参数发送。
通过response.url
可以获取_____。
requests.exceptions.Timeout
是requests
库中的_____异常。
使用requests.get(url, params=params)
可以发送GET请求并附带_____。
response.history
包含了_____的响应历史。
使用response.text
可以获得HTTP响应的_____。
response.content
返回的是HTTP响应的_____形式。
在响应的JSON数据中, 使用 使用 在HTML解析中, 使用 一、填空题 使用 JSON(JavaScript Object Notation)是一种数据交换格式。 JSON对象由键和值组成。 使用 在 HTML解析常用的库是BeautifulSoup。 在 在POST请求中,传统表单数据通过data参数发送。 通过 使用 使用 在响应的JSON数据中, 使用 使用 在HTML解析中, 使用 一、填空题 导入Pandas库的标准语句是 使用 从CSV文件中读取数据可以使用 查看DataFrame的前几行数据可以使用_____方法。 查看DataFrame的列名可以使用_____属性。 获取DataFrame的行数和列数可以使用_____属性。 在DataFrame中选取一列数据可以使用 在DataFrame中选取多列数据可以使用 使用 使用 创建一个新的列可以使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 导入Pandas库的标准语句是 使用 从CSV文件中读取数据可以使用 查看DataFrame的前几行数据可以使用 head() 方法。 查看DataFrame的列名可以使用 columns 属性。 获取DataFrame的行数和列数可以使用 shape 属性。 在DataFrame中选取一列数据可以使用 在DataFrame中选取多列数据可以使用 使用 使用 创建一个新的列可以使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 使用 一、填空题 查看当前所在目录的命令是 显示当前用户的用户名的命令是 创建一个名为 切换到根目录的命令是 切换到用户 查看文件或目录的详细信息的命令是 列出当前目录下的所有文件和子目录的命令是 创建一个名为 删除名为 删除名为 复制文件 将 查看文件内容的命令是 将 在终端中连续按两次 将 将 解压名为 在Linux中, 显示系统当前时间的命令是 列出当前所有正在运行的进程的命令是 结束进程号为 在后台运行命令 查看系统中使用的磁盘空间的命令是 显示当前用户使用的磁盘配额的命令是 将 从远程主机下载名为 在Linux中, 在Linux中, 在Linux中, 一、填空题 查看当前所在目录的命令是 显示当前用户的用户名的命令是 创建一个名为 切换到根目录的命令是 切换到用户 查看文件或目录的详细信息的命令是 列出当前目录下的所有文件和子目录的命令是 创建一个名为 删除名为 删除名为 复制文件 将 查看文件内容的命令是 将 在终端中连续按两次 将 将 解压名为 在Linux中, 显示系统当前时间的命令是 列出当前所有正在运行的进程的命令是 结束进程号为 在后台运行命令 查看系统中使用的磁盘空间的命令是 显示当前用户使用的磁盘配额的命令是 将 从远程主机下载名为 在Linux中, 在Linux中, 在Linux中, 一、填空题 启动Flume代理服务的命令是 指定Flume配置文件启动代理的参数是 使用哪个参数指定Flume配置文件的路径? 在Flume配置文件中,用来定义source的关键字是 在Flume配置文件中,用来定义channel的关键字是 在Flume配置文件中,用来定义sink的关键字是 在Flume中, Flume中用来将数据从source传输到sink的组件是 __。 Flume中用来存储数据的缓冲区是 __。 指定Flume agent名称的参数是 使用Flume收集的数据一般存储在 __中。 在Flume中,将数据从一个source传输到多个sink的组件是 __。 Flume的日志输出级别可以通过参数 在Flume配置文件中,指定source类型的参数是 Flume中用来管理数据流的组件是 __。 Flume中用来确保数据不会丢失的channel类型是 __。 使用Flume将日志数据传输到HDFS时,sink类型是 __。 Flume中用来连接source和sink的关键字是 __。 在Flume配置文件中,可以使用 Flume中用来启动多个agent的工具是 __。 在Flume配置文件中,指定channel类型的参数是 Flume中用来监控和管理agent的工具是 __。 在Flume中,使用哪个参数指定自定义的Flume插件路径? Flume中用来设置source的绑定端口的参数是 Flume中用来设置sink的目标地址的参数是 Flume中用来设置sink的目标端口的参数是 Flume中用来设置sink的HDFS写入路径的参数是 Flume中用来设置sink的batch大小的参数是 Flume中用来设置channel的容量大小的参数是 Flume中用来设置channel的事务容量大小的参数是 一、填空题 启动Flume代理服务的命令是 指定Flume配置文件启动代理的参数是 使用哪个参数指定Flume配置文件的路径? 在Flume配置文件中,用来定义source的关键字是 在Flume配置文件中,用来定义channel的关键字是 在Flume配置文件中,用来定义sink的关键字是 在Flume中, Flume中用来将数据从source传输到sink的组件是 channel。 Flume中用来存储数据的缓冲区是 channel。 指定Flume agent名称的参数是 使用Flume收集的数据一般存储在 HDFS 中。 在Flume中,将数据从一个source传输到多个sink的组件是 interceptor。 Flume的日志输出级别可以通过参数 在Flume配置文件中,指定source类型的参数是 Flume中用来管理数据流的组件是 agent。 Flume中用来确保数据不会丢失的channel类型是 file。 使用Flume将日志数据传输到HDFS时,sink类型是 hdfs。 Flume中用来连接source和sink的关键字是 在Flume配置文件中,可以使用 Flume中用来启动多个agent的工具是 flume-ng multi。 在Flume配置文件中,指定channel类型的参数是 Flume中用来监控和管理agent的工具是 Flume NG Manager。 在Flume中,使用哪个参数指定自定义的Flume插件路径? Flume中用来设置source的绑定端口的参数是 Flume中用来设置sink的目标地址的参数是 Flume中用来设置sink的目标端口的参数是 Flume中用来设置sink的HDFS写入路径的参数是 Flume中用来设置sink的batch大小的参数是 Flume中用来设置channel的容量大小的参数是 Flume中用来设置channel的事务容量大小的参数是 一、填空题 使用Pig Latin语言加载数据的命令是 _____。 在Pig Latin中,用来创建关系型数据的命令是 _____ 在Pig Latin中,用来过滤数据的命令是 _____ 在Pig Latin中,用来选择特定列的命令是 _____ 在Pig Latin中,用来对数据分组的命令是 _____ 在Pig Latin中,用来对数据排序的命令是 ` _____ 在Pig Latin中,用来计算数据统计信息的命令是 _____ 在Pig Latin中,用来将数据存储到文件系统中的命令是 _____ 在Pig Latin中,用来清除已定义关系的命令是 _____ 在Pig Latin中,用来连接两个或多个关系的命令是 _____ 在Pig Latin中,用来计算关系的最大值的命令是 _____ 在Pig Latin中,用来计算关系的最小值的命令是 _____ 在Pig Latin中,用来计算关系的唯一值的命令是 _____ 在Pig Latin中,用来将字符串转换为小写的函数是 _____ 在Pig Latin中,用来将字符串转换为大写的函数是 _____ 在Pig Latin中,用来截取字符串的函数是 _____ 在Pig Latin中,用来连接字符串的函数是 _____ 在Pig Latin中,用来判断字符串是否匹配某种模式的函数是 _____ 在Pig Latin中,用来计算字符串长度的函数是 _____ 在Pig Latin中,用来转换字符串为整数的函数是 _____。 在Pig Latin中,用来转换字符串为浮点数的函数是 _____ 在Pig Latin中,用来获取当前日期的函数是 _____ 在Pig Latin中,用来获取当前时间的函数是 _____ 在Pig Latin中,用来获取当前日期和时间的函数是 _____ 在Pig Latin中,用来获取指定关系的字段数目的函数是 _____ 在Pig Latin中,用来获取指定关系的数据类型的函数是 _____ 一、填空题 使用Pig Latin语言加载数据的命令是 在Pig Latin中,用来创建关系型数据的命令是 在Pig Latin中,用来过滤数据的命令是 在Pig Latin中,用来选择特定列的命令是 在Pig Latin中,用来对数据分组的命令是 在Pig Latin中,用来对数据排序的命令是 在Pig Latin中,用来计算数据统计信息的命令是 在Pig Latin中,用来将数据存储到文件系统中的命令是 在Pig Latin中,用来清除已定义关系的命令是 在Pig Latin中,用来连接两个或多个关系的命令是 在Pig Latin中,用来处理NULL值的命令是 在Pig Latin中,用来计算关系的行数的命令是 在Pig Latin中,用来计算关系的聚合函数SUM的命令是 在Pig Latin中,用来计算关系的平均值的命令是 在Pig Latin中,用来计算关系的最大值的命令是 在Pig Latin中,用来计算关系的最小值的命令是 在Pig Latin中,用来计算关系的唯一值的命令是 在Pig Latin中,用来将字符串转换为小写的函数是 在Pig Latin中,用来将字符串转换为大写的函数是 在Pig Latin中,用来截取字符串的函数是 在Pig Latin中,用来连接字符串的函数是 在Pig Latin中,用来判断字符串是否匹配某种模式的函数是 在Pig Latin中,用来计算字符串长度的函数是 在Pig Latin中,用来转换字符串为整数的函数是 在Pig Latin中,用来转换字符串为浮点数的函数是 在Pig Latin中,用来获取当前日期的函数是 在Pig Latin中,用来获取当前时间的函数是 在Pig Latin中,用来获取当前日期和时间的函数是 在Pig Latin中,用来获取指定关系的字段数目的函数是 在Pig Latin中,用来获取指定关系的数据类型的函数是 一、填空题 查看Hadoop集群中文件系统状态的命令是 在Hadoop集群中创建一个新目录的命令是 将本地文件上传到Hadoop集群中的命令是 从Hadoop集群中下载文件到本地的命令是 在Hadoop集群中删除一个文件的命令是 在Hadoop集群中递归删除一个目录的命令是 查看Hadoop集群中指定路径下的文件列表的命令是 查看Hadoop集群中文件的详细信息的命令是 查看Hadoop集群中文件的块信息的命令是 在Hadoop集群中复制文件的命令是 将Hadoop集群中的文件合并到一个本地文件的命令是 在Hadoop集群中更改文件或目录的权限的命令是 在Hadoop集群中更改文件或目录的所有者的命令是 在Hadoop集群中查看文件或目录的ACL信息的命令是 在Hadoop集群中设置文件或目录的ACL信息的命令是 在Hadoop集群中列出当前运行的作业的命令是 ___`。 查看Hadoop集群中运行作业的详细信息的命令是 ___`。 杀死正在运行的Hadoop作业的命令是 b ___`。 查看Hadoop集群中的节点信息的命令是 ___`。 在Hadoop集群中格式化文件系统的命令是 ___`。 启动Hadoop集群中的所有守护进程的命令是 ___`。 停止Hadoop集群中的所有守护进程的命令是 ___`。 在Hadoop集群中查看HDFS容量使用情况的命令是 ___`。 在Hadoop集群中设置MapReduce作业的参数的命令是 ___`。 在Hadoop集群中运行一个已打包的MapReduce作业的命令是 ___`。 在Hadoop集群中查看MapReduce作业日志的命令是 ___`。 在Hadoop集群中查看HDFS文件系统中文件块的位置的命令是 ___`。 在Hadoop集群中复制文件到HDFS的命令是 ___`。 在Hadoop集群中从HDFS复制文件到本地的命令是 ___`。 在Hadoop集群中查看当前所有运行的MapReduce作业的命令是 ___`。 一、填空题 查看Hadoop集群中文件系统状态的命令是 在Hadoop集群中创建一个新目录的命令是 将本地文件上传到Hadoop集群中的命令是 从Hadoop集群中下载文件到本地的命令是 在Hadoop集群中删除一个文件的命令是 在Hadoop集群中递归删除一个目录的命令是 查看Hadoop集群中指定路径下的文件列表的命令是 查看Hadoop集群中文件的详细信息的命令是 查看Hadoop集群中文件的块信息的命令是 在Hadoop集群中复制文件的命令是 将Hadoop集群中的文件合并到一个本地文件的命令是 在Hadoop集群中更改文件或目录的权限的命令是 在Hadoop集群中更改文件或目录的所有者的命令是 在Hadoop集群中查看文件或目录的ACL信息的命令是 在Hadoop集群中设置文件或目录的ACL信息的命令是 在Hadoop集群中列出当前运行的作业的命令是 查看Hadoop集群中运行作业的详细信息的命令是 杀死正在运行的Hadoop作业的命令是 查看Hadoop集群中的节点信息的命令是 在Hadoop集群中格式化文件系统的命令是 启动Hadoop集群中的所有守护进程的命令是 停止Hadoop集群中的所有守护进程的命令是 在Hadoop集群中查看HDFS容量使用情况的命令是 在Hadoop集群中设置MapReduce作业的参数的命令是 在Hadoop集群中运行一个已打包的MapReduce作业的命令是 在Hadoop集群中查看MapReduce作业日志的命令是 在Hadoop集群中查看HDFS文件系统中文件块的位置的命令是 在Hadoop集群中复制文件到HDFS的命令是 在Hadoop集群中从HDFS复制文件到本地的命令是 在Hadoop集群中查看当前所有运行的MapReduce作业的命令是 soup.find('div', class_='content')
可以找到HTML中class为_____的response.headers
返回的是HTTP响应的_____。null
表示_____。response.encoding
用于获取HTTP响应的_____。requests.get(url, timeout=5)
中,timeout=5
表示设置超时时间为_____秒。response.raise_for_status()
用于在请求发生_____时抛出异常。requests.get(url, cookies=cookies)
可以发送GET请求并附带_____。response.ok
可以判断HTTP响应是否_____。soup.title
用于获取HTML文档的_____标签。requests.put(url, data=data)
可以发送_____请求。response.elapsed.total_seconds()
返回的是请求的_____时间(秒)。答案
requests
库用于发送HTTP请求和接收HTTP响应。response.status_code
可以获取HTTP响应的状态码。requests.get(url)
发送GET请求时,响应内容可以通过response.text属性获取。response.json()
方法可以将响应内容解析为JSON格式。requests.post(url, json=data)
中,json=data
用于发送JSON格式数据。BeautifulSoup
的解析器通常使用html.parser。response.cookies
用于获取响应中的Cookies。requests.get(url, headers=headers)
中,headers=headers
用于发送自定义的请求头。response.url
可以获取最终的URL。requests.exceptions.Timeout
是requests
库中的超时异常。requests.get(url, params=params)
可以发送GET请求并附带查询参数。response.history
包含了重定向的响应历史。response.text
可以获得HTTP响应的文本内容。response.content
返回的是HTTP响应的字节形式。soup.find('div', class_='content')
可以找到HTML中class为'content'的response.headers
返回的是HTTP响应的头部信息。null
表示空值。response.encoding
用于获取HTTP响应的编码。requests.get(url, timeout=5)
中,timeout=5
表示设置超时时间为5秒。response.raise_for_status()
用于在请求发生错误时抛出异常。requests.get(url, cookies=cookies)
可以发送GET请求并附带Cookies。response.ok
可以判断HTTP响应是否成功。soup.title
用于获取HTML文档的requests.put(url, data=data)
可以发送PUT请求。response.elapsed.total_seconds()
返回的是请求的响应时间(秒)。试卷:Pandas基础操作
import pandas as __
。pd.Series(data)
创建一个Pandas的_____对象。pd.read_csv('file.csv')
,返回的数据结构是_____。df['column_name']
或df.column_name
的_____方法。df[['col1', 'col2']]
的_____语法。df.head(10)
可以查看DataFrame的_____行数据。df.tail(5)
可以查看DataFrame的_____行数据。df['new_column'] = values
的_____方法。df.info()
可以查看DataFrame的_____信息。df.describe()
可以获取DataFrame的_____统计信息。df.dropna()
可以删除包含_____值的行。df.fillna(value)
可以将DataFrame中的_____值替换为指定值。df.groupby('column').mean()
可以按_____分组计算均值。df['new_col'] = df.apply(lambda row: func(row['col']), axis=1)
可以在DataFrame中应用_____函数。pd.concat([df1, df2], axis=0)
可以沿着_____方向连接两个DataFrame。pd.merge(df1, df2, on='key')
可以根据_____列合并两个DataFrame。df.pivot_table(values='value', index='index_col', columns='col')
可以创建一个_____表格。df.sort_values('column', ascending=False)
可以按_____排序DataFrame。df.drop_duplicates()
可以删除DataFrame中的_____行。df.set_index('column')
可以将DataFrame的_____设置为指定列。df.reset_index()
可以重置DataFrame的_____索引。df['column'].value_counts()
可以统计某一列中各个值的_____。df['new_col'] = pd.to_datetime(df['date_col'])
可以将_____转换为日期时间格式。df.to_csv('file.csv', index=False)
可以将DataFrame保存为_____文件。df.plot()
可以绘制_____图形。df.corr()
可以计算DataFrame中各列之间的_____系数。df.isnull().sum()
可以统计DataFrame中每列的_____值数量。答案
import pandas as pd
。pd.Series(data)
创建一个Pandas的 Series 对象。pd.read_csv('file.csv')
,返回的数据结构是 DataFrame。df['column_name']
或df.column_name
的 索引 方法。df[['col1', 'col2']]
的 列表 语法。df.head(10)
可以查看DataFrame的 前 10 行数据。df.tail(5)
可以查看DataFrame的 后 5 行数据。df['new_column'] = values
的 赋值 方法。df.info()
可以查看DataFrame的 信息。df.describe()
可以获取DataFrame的 描述性 统计信息。df.dropna()
可以删除包含 缺失值 的行。df.fillna(value)
可以将DataFrame中的 缺失值 替换为指定值。df.groupby('column').mean()
可以按 分组 计算均值。df['new_col'] = df.apply(lambda row: func(row['col']), axis=1)
可以在DataFrame中应用 自定义函数。pd.concat([df1, df2], axis=0)
可以沿着 行 方向连接两个DataFrame。pd.merge(df1, df2, on='key')
可以根据 键 列合并两个DataFrame。df.pivot_table(values='value', index='index_col', columns='col')
可以创建一个 透视 表格。df.sort_values('column', ascending=False)
可以按 降序 排序DataFrame。df.drop_duplicates()
可以删除DataFrame中的 重复 行。df.set_index('column')
可以将DataFrame的 索引 设置为指定列。df.reset_index()
可以重置DataFrame的 索引。df['column'].value_counts()
可以统计某一列中各个值的 出现 次数。df['new_col'] = pd.to_datetime(df['date_col'])
可以将 日期 列转换为日期时间格式。df.to_csv('file.csv', index=False)
可以将DataFrame保存为 CSV 文件。df.plot()
可以绘制 折线 图形。df.corr()
可以计算DataFrame中各列之间的 相关 系数。df.isnull().sum()
可以统计DataFrame中每列的 缺失 值数量。试卷:Linux基础指令
_________
。_________
。test.txt
的空文件的命令是 _________
。_________
。user1
的命令是 _________
。_________
。_________
。new_dir
的新目录的命令是 _________
。file1.txt
的文件的命令是 _________
。old_dir
的空目录的命令是 _________
。source.txt
到目录dest
的命令是 _________
。file1.txt
重命名为file2.txt
的命令是 _________
。_________
。file1.txt
的内容输出到屏幕的命令是 _________
。Tab
键可以进行_____。file1.txt
的内容追加到file2.txt
的命令是 _________
。source_dir
目录及其内容压缩成source_dir.tar.gz
的命令是 _________
。archive.tar.gz
的压缩文件的命令是 _________
。*
通配符代表_____。_________
。_________
。1234
的进程的命令是 _________
。command
的命令是 _________
。_________
。_________
。file1.txt
从本地上传到远程主机的命令是 _________
。file1.txt
的文件到本地的命令是 _________
。>
符号用于_____。|
符号用于_____。sudo
命令用于以_____权限执行命令。答案
pwd
。whoami
。test.txt
的空文件的命令是 touch test.txt
。cd /
。user1
的命令是 su user1
或 sudo -u user1 -i
。ls -l
或 ls -lh
。ls
。new_dir
的新目录的命令是 mkdir new_dir
。file1.txt
的文件的命令是 rm file1.txt
。old_dir
的空目录的命令是 rmdir old_dir
。source.txt
到目录dest
的命令是 cp source.txt dest/
。file1.txt
重命名为file2.txt
的命令是 mv file1.txt file2.txt
。cat filename
或 less filename
。file1.txt
的内容输出到屏幕的命令是 cat file1.txt
。Tab
键可以进行 文件名自动补全。file1.txt
的内容追加到file2.txt
的命令是 cat file1.txt >> file2.txt
。source_dir
目录及其内容压缩成source_dir.tar.gz
的命令是 tar -czvf source_dir.tar.gz source_dir/
。archive.tar.gz
的压缩文件的命令是 tar -xzvf archive.tar.gz
。*
通配符代表 匹配任意字符。date
。ps aux
或 top
。1234
的进程的命令是 kill 1234
或 kill -9 1234
。command
的命令是 command &
。df -h
。quota -v
。file1.txt
从本地上传到远程主机的命令是 scp file1.txt user@remote_host:/path/to/destination/
。file1.txt
的文件到本地的命令是 scp user@remote_host:/path/to/file1.txt /local/path/
。>
符号用于 重定向输出到文件。|
符号用于 管道,将一个命令的输出作为另一个命令的输入。sudo
命令用于以 超级用户 权限执行命令。试卷:Apache Flume基础指令
flume-ng __
。-c __
。-f __
。__
。__
。__
。avro
是一种常见的 __类型。-n __
。-D__=
进行设置。type = __
。agent.sources.sourceName.channels = channelName
来连接 __ 和 __。type = __
。-cp __
。port = __
。hostname = __
。port = __
。hdfs.path = __
。batchSize = __
。capacity = __
。transactionCapacity = __
。答案
flume-ng agent
。-c
。-f
。source
。channel
。sink
。avro
是一种常见的 source 类型。-n
。-Dflume.root.logger
进行设置。type =
。agent.sources.sourceName.channels = channelName
。agent.sources.sourceName.channels = channelName
来连接 source 和 channel。type =
。-cp
。port =
。hostname =
。port =
。hdfs.path =
。batchSize =
。capacity =
。transactionCapacity =
。试卷:Apache Pig基础指令
答案:
LOAD
INTO ...
。DEFINE
。FILTER
BY
。FOREACH
GENERATE
。GROUP
BY
。ORDER
BY
。DESCRIBE
。STORE
INTO
。CLEAR
。JOIN
BY
,
BY
。COGROUP
BY
。COUNT()
。SUM()
。AVG()
。MAX()
。MIN()
。DISTINCT()
。LOWER()
。UPPER()
。SUBSTRING()
。CONCAT()
。MATCHES()
。SIZE()
。INT()
。DOUBLE()
。CURRENT_DATE()
。CURRENT_TIME()
。CURRENT_TIMESTAMP()
。SIZE()
。TYPEOF()
。
Hadoop题
hadoop fs ___
。hadoop fs ___
。hadoop fs ___ ___
。hadoop fs ___ ___
。hadoop fs ___
。hadoop fs ___
。hadoop fs ___
。hadoop fs ___
。hadoop fs -___
。hadoop fs ___ ___
。hadoop fs ___ ___
。hadoop fs ___ ___
。hadoop fs ___ ___
。hadoop fs ___
。hadoop fs ___ ___
。
答案
hadoop fs -stat
。hadoop fs -mkdir
。hadoop fs -put
。hadoop fs -get
。hadoop fs -rm
。hadoop fs -rm -r
。hadoop fs -ls
。hadoop fs -stat
。hadoop fs -du -h
。hadoop fs -cp
。hadoop fs -getmerge
。hadoop fs -chmod
。hadoop fs -chown
。hadoop fs -getfacl
。hadoop fs -setfacl -m
。hadoop job -list
。hadoop job -status
。hadoop job -kill
。hadoop dfsadmin -report
。hadoop namenode -format
。start-all.sh
。stop-all.sh
。hadoop fs -df -h
。hadoop jar
。hadoop jar
。yarn logs -applicationId
。hadoop fsck
。hadoop fs -copyFromLocal
。hadoop fs -copyToLocal
。hadoop job -list-active
.