• 自己在hadoop中会输错的命令


    (01)

    hdfs dfsadmin -report -live


    仅查看集群在线节点的基本信息可以使用:
    (02)

    hdfs dfs mkdir -C /Tipdm/Hadoop


    使用这个命令可以在hdfs上面创建一个 /Tipdm/Hadoop,自己错误的点就是:-C(没有了-C这个填写记录)
    (03)

    hdfs dfs -copyToLocal  /opt/a.txt/user/root


    这个命令作用是由此开始将hdfs复制到本地文件系统,主要参数:src为hdfs文件路径,localdst为本地系统文件路径。
    (04)

    hdfs dfs -rmdir /Tipdm/Spark


    运用这个命令可以删除这个错误的文件目录。
    (05)HQL和SQL的一个不同之处在于partition操作
    (06)String-Double间类型转换是被HQL所支持的
    (07)hive的全局变量是在/etc/profile中进行配置
    (08)HIVE适用的场景是:实时的在线数据分析
    (09)HIVE默认分桶的数量是:-1
    (10)HQL中,“select ceil(2.34);”的输出结果为:3
    (11)创建hive数据表的时候,指定字段之间的分隔符,需要使用fields terminated by语句进行
    (12)在保证HBase服务已经启动的情况下,进入Hbase Shell界面,启动hbase的命令是:hbase shell
    (13)查看当前HBase中表数据的命令是:list
    (14)HBase依赖MapReduce提供强大的计算能力
    (15)与ZooKeeper类似的框架:Chubby
    (16)下列更新Hbase表中数据的语法,写法正确的是:

    Put 'users','XIAOMING','info.age','29'


    (17)上传一个大小为500mb的文件data.txt到Hadoop集群上,这个文件会占用HDFS数据块的个数是:4个
    (18)Mapreduce程序最后输出的结果通常都是按键值对进行排序的,那么排序工作发生在Shuffle

  • 相关阅读:
    分析 java.util.LinkedHashMap
    Redis 布隆过滤器的相关命令的使用
    vscode高效之代码片段
    教你学会Element之Upload 上传组件的常规用法
    认识计算机-JavaEE初阶
    ue5 pico 手柄按键获取
    C++入门
    如何写专利
    PDF格式分析(六十九)——注释字典
    [N0wayback 2023春节红包题] happyGame python反编译
  • 原文地址:https://blog.csdn.net/2303_77434440/article/details/138156971