public Form1()
{
InitializeComponent();
Stopwatch sw = new Stopwatch();
sw.Start();
//string filePath = @"D:\cp.bin";
string filePath = System.AppDomain.CurrentDomain.
SetupInformation.ApplicationBase + @"cp.txt";//设置路径将文件保存在目标文件下
using (FileStream fs = File.Create(filePath))//优化
{
/*需要使用内置的 Syncronized TextReader/Writer类
* 在复制内存时检测到可能的 I/O 争用条件。默认情况下,I/O 包不是线程安全的。
* 在多线程应用程序中,必须以线程安全方式(如 TextReader 或 TextWriter
* 的 Synchronized 方法返回的线程安全包装)访问流。
* 这也适用于 StreamWriter 和 StreamReader 这样的类。
*/
StreamWriter ObjWrites = default(StreamWriter);
ObjWrites = new StreamWriter(fs);
dynamic synws = StreamWriter.Synchronized(ObjWrites);
double t0 = 0, f0 = 100000d;
//double beta = (f1 - f0) / t1;
double beta = 900000d/4.194304d;
double chirp = 0;
for(int i=0; i<=167772160; i++)
{
chirp = Math.Cos(Math.PI * (2 * f0 + beta * t0) * t0);
t0 += 0.000000025;
chirp = Math.Round(chirp * 2046);
chirp = chirp*2 + 2046;
byte[] b=Encoding.Unicode.GetBytes(chirp.ToString());
while (b.Length == 1024 * 1024)
{
fs.Write(b, 0, b.Length);//时间大都花在写文件上了,需要优化
}
}
/* synws.Close();
ObjWrites.Close();*/
}
sw.Stop();
MessageBox.Show("耗时为: " + sw.ElapsedMilliseconds.ToString() + " ms");
}
产生的数据有1.29G,我想分割成几块写入文件,而不是一个字节写入
1、不修改程序可以考虑磁盘阵列。解决IO瓶颈
2、换个思路。既然需要产生这么大的文件,必然日后有读的需求。那么读的时候一样会碰到你写时的问题。所以你读取的时候也会采用分块的方式来读取。
所以,可以将这么大的文件写的时候作为一个包来处理,包内包含好多文件块。可以写一块读一块。
3、关于分块问题。这个涉及到你的实现方式。如果我来做,我会一部分一部分的分解。每个部分包含好多块。每个部分由对立的线程来负责处理。
当然这里可能会涉及到调度问题,你块之间的关系问题,以及你对块的组织问题,如采用线性方式、链表方式、还是排序树等。你这个问题是可以解决的。