要统计整理每个月的销售信息,把他们汇总在一起。
代码如下
'''
import pandas as pd
import openpyxl
f=pd.DataFrame(pd.read_csv('201901.csv',header=0))
r=pd.pivot_table(f,index=["型号","颜色","工厂","实体店"],values=["条码"],aggfunc='count')
r.rename(columns={'条码':'1月'}, inplace = True)
f2=pd.DataFrame(pd.read_csv('201902.csv',header=0))
r2=pd.pivot_table(f2,index=["型号","颜色","工厂","实体店"],values=["条码"],aggfunc='count')
r2.rename(columns={'条码':'2月'}, inplace = True)
f3=pd.DataFrame(pd.read_csv('201902.csv',header=0))
r3=pd.pivot_table(f,index=["型号","颜色","工厂","实体店"],values=["条码"],aggfunc='count')
r3.rename(columns={'条码':'3月'}, inplace = True)
res=pd.concat([r,r2,r3], axis=1)'''
writer =pd.ExcelWriter('结果.xlsx')
r.to_excel(writer,'1')
writer.save()
因为数据文件太大,运行时提示
MemoryError: Unable to allocate array with shape (1408618,) and data type object
请问大佬如何优化我的垃圾代码
内存太小了,去taobao买一个垃圾成色的双路x58,有12个内存插槽的(200元左右,送你2个亮机的CPU,比如E5620之类的)+12条DDRIII 8GB内存,一共96GB,每条20元,一共240元。如果你钱多,上192GB内存也可以。
这样你花不到1天的工钱,就买来足够运行比你程序要求多很多的内存。
而捣鼓你的破程序毫无价值。