利用循环对文件数据去重

问题遇到的现象和发生背景

循环中对数据进行去重,语法不知道哪里错了。感谢各位。

遇到的现象和发生背景,请写出第一个错误信息

unharshable type series

用代码块功能插入代码,请勿粘贴截图。 不用代码块回答率下降 50%
rawdata_df[i]=pd.concat([rawdata_df[i],df_hexiao],ignore_index = True)
rawdata_df[i]['删除重复数据']=rawdata_df[i]['借据流水号']+str(rawdata_df[i]['default'+Date[i]])
rawdata_df[1].drop_duplicates(subset=[rawdata_df[1]['删除重复数据']])

img

运行结果及详细报错内容
我的解答思路和尝试过的方法,不写自己思路的,回答率下降 60%
我想要达到的结果,如果你需要快速回答,请尝试 “付费悬赏”

想在循环中对每个excel表进行去重

这个错误是由于在使用Pandas的drop_duplicates函数时传入了一个无法被识别的参数,所以报出了“unharshable type series”错误。

具体来说,drop_duplicates函数接受一个名为subset的参数,用于指定要删除重复数据的列。您在这里传入了rawdata_df[1]['删除重复数据'],这是一个Pandas Series对象,但是这个参数需要的是一个列名列表,因此无法被识别。

为了解决这个问题,可以把subset参数的值改为一个包含要删除重复数据的列名的列表,例如['删除重复数据']。具体的修改方法如下:

# 将原代码中的
rawdata_df[1].drop_duplicates(subset=[rawdata_df[1]['删除重复数据']])

# 改为
rawdata_df[1].drop_duplicates(subset=['删除重复数据'])