我们用的是Apache Spark SQL,所以首先需要安装下pyhive
- #命令既下载了pyhive也下载了它所依赖的其他安装包
- pip install pyhive
-
- #多个命令也可下载
- pip install sasl
- pip install thrift
- pip install thrift-sasl
- pip install pyhs2
Apache Spark SQL连接的格式
hive://hive@{hostname}:{port}/{database}

安装包下载完成,可以测试是否可以连接hive了。
因为驱动不匹配导致的,返回重新下载依赖包
连接数据库的时候一直报无法连接数据库下面的信息,所以我们此时应该重启superset或者关掉superset、关闭hadoop集群,再开启hadoop、superset、登录superset即可。
需要找到并修改config.py文件。我的config.py文件的路径是:
/opt/module/miniconda3/envs/superset/lib/python3.9/site-packages/superset
pip install pyhs2

Apache Spark SQL数据结构决定的,无法直接像其他数据库一样查出表,需要手动查表添加,点击SQL Lab,手动查表保存

按以下步骤

再点击保存

返回Datasets就能看到表了

今天就介绍到这里啦!希望能帮大家避坑!欢迎在评论区交流。如果文章对你有所帮助,❤️关注+点赞❤️鼓励一下!博主会持续更新。。。。
我的博客:前端小阳仔_Html,CSS,JavaScript,Vue,React,Angular领域博主
往期回顾
vue3.x使用prerender-spa-plugin预渲染达到SEO优化
vue3.x使用prerender-spa-plugin预渲染达到SEO优化