本人正在做一个电子书项目,里边要解压epub文件,但是有的书籍很大,按照常规的解压方式解压完一本书,内存就占到40多M了,请问有没有什么优化的解压方式
/**
* 解压Assets中的文件
* @param context 上下文对象
* @param assetName 压缩包文件名
* @param outputDirectory 输出目录
* @throws IOException
*/
public static void unZip(Context context, String assetName,String outputDirectory) throws IOException {
File file1 = new File(FileTools.getStoragePath(context, false) + "/" + assetName);
//创建解压目标目录
File file = new File(outputDirectory);
//如果目标目录不存在,则创建
if (!file.exists()) {
file.mkdirs();
}
InputStream inputStream = null;
inputStream=new FileInputStream(file1);
//打开压缩文件
// inputStream = context.getAssets().open(assetName);
ZipInputStream zipInputStream = new ZipInputStream(inputStream);
//读取一个进入点
ZipEntry zipEntry = zipInputStream.getNextEntry();
//使用1Mbuffer
byte[] buffer = new byte[1024 * 1024];
//解压时字节计数
int count = 0;
//如果进入点为空说明已经遍历完所有压缩包中文件和目录
while (zipEntry != null) {
//如果是一个目录
if (zipEntry.isDirectory()) {
//String name = zipEntry.getName();
//name = name.substring(0, name.length() - 1);
file = new File(outputDirectory + File.separator + zipEntry.getName());
file.mkdir();
} else {
//如果是文件
file = new File(outputDirectory + File.separator
+ zipEntry.getName());
//创建该文件
file.createNewFile();
FileOutputStream fileOutputStream = new FileOutputStream(file);
while ((count = zipInputStream.read(buffer)) > 0) {
fileOutputStream.write(buffer, 0, count);
}
fileOutputStream.close();
}
//定位到下一个文件入口
zipEntry = zipInputStream.getNextEntry();
}
zipInputStream.close();
}
看解压和压缩算法是不是你自己实现的,如果用现成的库和算法,没有什么优化空间。如果你自己实现的,可以选择流的方式,分块,边解压边读取,就不消耗很多内存了。