在linux下,现在有一个拥有大量ip地址的txt文本文档,但是里面有很多重复的,如何快速去重?
with open('xxx.txt', 'r') as f: data = f.readlines() ret = [] for ip in data: if ip not in ret: ret.append(ip) print('\n'.join(ret))
sort -u 文件名 > 新文件名
或者
cat 文件名 | sort -u > 新文件名