前文:因为业务实际需要,在spark中hive存储数据用的是下划线格式,但是从hive迁移数据到mongoDB当中需要将下划线改成驼峰格式。
- String sql = "select * from student";
- Dataset
dataset = sparkSession.sql(sql);
这是我们需要的数据,从spark层搜到的。现在dataset里面的数据集每一列字段都如“hello_word”,我们需要对数据集的列进行修改,使其变成“helloWord”。
修改过程:
- //取出的是列的数组
- String[] columns = dataset.columns();
- List
stringList = new ArrayList<>(); - for (int i = 0; i
- String join = StrUtil.toCamelCase(columns[i]);
- stringList.add(join);
- }
- //这样写能通过语法检查,但是编译会抛异常
- String[] strings = (String[]) stringList.toArray();
- Dataset
dataset1 = dataset.toDF(newColumns);
- MongoSpark.save(dataset1);
如上图所示,我们先取出dataset所有的列,组成一个数组。这个时候我们对数组进行操作就容易多了。只要对数组遍历操作就能将每个字段拿到,然后对字段进行操作,就ok了。
但是,list在toArray()的时候,转的是Object【】,而我们需要的是string【】。对其强转,这样写就如注释上写的一样可以通过java的语法检查,但是在编译过程会抛异常,如图所示:
-
-
- [Ljava.lang.Object; cannot be cast to [Ljava.lang.String;
-
-
显示的就是Object不能转换为String。
第二版(正常可用)
- String[] columns = dataset.columns();
- List
stringList = new ArrayList<>(); - for (int i = 0; i
- String join = StrUtil.toCamelCase(columns[i]);
- stringList.add(join);
- }
- String[] newColumns = new String[stringList.size()];
- newColumns = stringList.toArray(newColumns);
- Dataset
dataset1 = dataset.toDF(newColumns);
- MongoSpark.save(dataset1);
如图,对list进行处理一下,就ok了,就可以。
总结
其实总结起来就是两步。
1、对dataset进行操作,将需要的列进行操作,将它们合成一个数组。
2、对数组进行操作,将字段修改成我们需要的格式,就ok了。
这样就能操作成驼峰格式了,是不是很简单呢~
-
相关阅读:
break,continue
第十三届蓝桥杯省赛与国赛真题题解大汇总(十四届参赛者必备)
Kyligence Cloud 4.6 GA 发布:更简化、更高效的云上分析体验
LVS负载均衡群集(NAT模式、IP隧道模式、DR模式)
科普 | 数据安全与网络安全(一)概念篇
【应用】OPC 通讯协议
CocosCreator3.8研究笔记(十八)CocosCreator UI组件(二)
《梦醒蝶飞:释放Excel函数与公式的力量》1.1.8认识 excel后台视图
Linux:权限篇
无序数组计算排序后最大相邻差
-
原文地址:https://blog.csdn.net/ProBaiXiaodi/article/details/126890169