• java中spark数据集字段下划线改成驼峰


    前文:因为业务实际需要,在spark中hive存储数据用的是下划线格式,但是从hive迁移数据到mongoDB当中需要将下划线改成驼峰格式。

    正文

    1. String sql = "select * from student";
    2. Dataset dataset = sparkSession.sql(sql);

    这是我们需要的数据,从spark层搜到的。现在dataset里面的数据集每一列字段都如“hello_word”,我们需要对数据集的列进行修改,使其变成“helloWord”。

    修改过程:

    第一版(有些小问题)

    1. //取出的是列的数组
    2. String[] columns = dataset.columns();
    3. ListstringList = new ArrayList<>();
    4. for (int i = 0; i
    5. String join = StrUtil.toCamelCase(columns[i]);
    6. stringList.add(join);
    7. }
    8. //这样写能通过语法检查,但是编译会抛异常
    9. String[] strings = (String[]) stringList.toArray();
    10. Dataset dataset1 = dataset.toDF(newColumns);
    11. MongoSpark.save(dataset1);

    如上图所示,我们先取出dataset所有的列,组成一个数组。这个时候我们对数组进行操作就容易多了。只要对数组遍历操作就能将每个字段拿到,然后对字段进行操作,就ok了。

    但是,list在toArray()的时候,转的是Object【】,而我们需要的是string【】。对其强转,这样写就如注释上写的一样可以通过java的语法检查,但是在编译过程会抛异常,如图所示:

    1. [Ljava.lang.Object; cannot be cast to [Ljava.lang.String;

    显示的就是Object不能转换为String。

    第二版(正常可用)

    1. String[] columns = dataset.columns();
    2. ListstringList = new ArrayList<>();
    3. for (int i = 0; i
    4. String join = StrUtil.toCamelCase(columns[i]);
    5. stringList.add(join);
    6. }
    7. String[] newColumns = new String[stringList.size()];
    8. newColumns = stringList.toArray(newColumns);
    9. Dataset dataset1 = dataset.toDF(newColumns);
    10. MongoSpark.save(dataset1);

    如图,对list进行处理一下,就ok了,就可以。

    总结

    其实总结起来就是两步。

    1、对dataset进行操作,将需要的列进行操作,将它们合成一个数组。

    2、对数组进行操作,将字段修改成我们需要的格式,就ok了。

    这样就能操作成驼峰格式了,是不是很简单呢~

  • 相关阅读:
    break,continue
    第十三届蓝桥杯省赛与国赛真题题解大汇总(十四届参赛者必备)
    Kyligence Cloud 4.6 GA 发布:更简化、更高效的云上分析体验
    LVS负载均衡群集(NAT模式、IP隧道模式、DR模式)
    科普 | 数据安全与网络安全(一)概念篇
    【应用】OPC 通讯协议
    CocosCreator3.8研究笔记(十八)CocosCreator UI组件(二)
    《梦醒蝶飞:释放Excel函数与公式的力量》1.1.8认识 excel后台视图
    Linux:权限篇
    无序数组计算排序后最大相邻差
  • 原文地址:https://blog.csdn.net/ProBaiXiaodi/article/details/126890169