spark的dataframe中如何提取某一列数据的类型做判断?

例如:

if ( df.select(列名).获取数据的类型 == String){

https://blog.csdn.net/yulijianzhangminmin/article/details/53611582

如果在创建df之前,可以使用withColumn("name",StringType("name"))来进行明确的指定类型

如果在以创建df中进行判断可以使用SQL的case when aid is null then cast('111' as bigint) else aid end来进行模拟
如果在一创建df后,可以使用map函数调用row.getAs[]后配合isInstanceOf来进行判断
其次,要判断一整列数据是否是一个类型可以使用自定义UDF函数,这是比较快的办法