怎么编程实现批处理文本,使文本内容减少10%,20%,30%?

在一个目录下有几百个txt文件,里面是拼音,每个拼音之间空格相隔,用perl或者Python和bat都行,貌似这几个没有这种删除的方法,不是删除也行,提取90%,80%,70%到新txt文件也行

求人不如求己,自己早就弄出来了

google python 哈夫曼算法

谢谢,我查查,不过不会Python

读取整个文件大小,然后计算10%是多少,把整个内容的字符串中去除对应比例的字符,再写回文件。

没明白你表达的什么?
你到底想做啥?
删除?提取?

关键你删除有要求么 或者说 数据提取要不要随机
就是说你提出来的数据是随机从文件得到的
如果只要满足删除10%这个不难的(一个文件多大?内存可以装下么?)
1.遍历文本,记录行数;(如果是单词个数也一样咯!)
2.产生1到第一步记录下的数量的随机数,个数等于行数*(70%~90%),产生一个这大的随机数序列;
3.然后按随机数序列输出文本呗!
我博客有Python和C++实现的随机数产生代码
希望可以帮到你!!!!!!!!!!!!!!!!

既然是个数减少,那么就每十个去掉一个,然后一下依次写入文件。达到减少10%

wc -l file得到文件总行数,然后具体提多少行就你自己看着办吧。sed -n 'm,n p' file 就是输出从m行到n行的内容。