不通过pyspark,如何使用Python直接把dataframe的内容写入到目标hive表。
可以使用Python中的PyHive库来直接连接并操作Hive表
pip install PyHive
# 开启支持Hive
spark = SparkSession.builder.appName("pyspark_hive").master("local") \
.enableHiveSupport() \
.getOrCreate()
# 读取Hive
hive_df = spark.sql("select * from dbName.dbTable1")
hive_df.show()
# 将数据保存Hive
hive_df.write.mode("overwrite").saveAsTable("dbName.daTable2")