深入nodejs中流(stream)的理解

2020-06-17 05:48:54易采站长站整理

nodejs的

fs
模块并没有提供一个
copy
的方法,但我们可以很容易的实现一个,比如:


var source = fs.readFileSync('/path/to/source', {encoding: 'utf8'});
fs.writeFileSync('/path/to/dest', source);

这种方式是把文件内容全部读入内存,然后再写入文件,对于小型的文本文件,这没有多大问题,比如grunt-file-copy就是这样实现的。但是对于体积较大的二进制文件,比如音频、视频文件,动辄几个GB大小,如果使用这种方法,很容易使内存“爆仓”。理想的方法应该是读一部分,写一部分,不管文件有多大,只要时间允许,总会处理完成,这里就需要用到流的概念。

如上面高大上的图片所示,我们把文件比作装水的桶,而水就是文件里的内容,我们用一根管子(pipe)连接两个桶使得水从一个桶流入另一个桶,这样就慢慢的实现了大文件的复制过程。

Stream
在nodejs中是
EventEmitter
的实现,并且有多种实现形式,例如:

http responses request
fs read write streams
zlib streams
tcp sockets
child process stdout and stderr

上面的文件复制可以简单实现一下:


var fs = require('fs');
var readStream = fs.createReadStream('/path/to/source');
var writeStream = fs.createWriteStream('/path/to/dest');

readStream.on('data', function(chunk) { // 当有数据流出时,写入数据
writeStream.write(chunk);
});

readStream.on('end', function() { // 当没有数据时,关闭数据流
writeStream.end();
});

上面的写法有一些问题,如果写入的速度跟不上读取的速度,有可能导致数据丢失。正常的情况应该是,写完一段,再读取下一段,如果没有写完的话,就让读取流先暂停,等写完再继续,于是代码可以修改为:


var fs = require('fs');
var readStream = fs.createReadStream('/path/to/source');
var writeStream = fs.createWriteStream('/path/to/dest');

readStream.on('data', function(chunk) { // 当有数据流出时,写入数据
if (writeStream.write(chunk) === false) { // 如果没有写完,暂停读取流
readStream.pause();
}
});

writeStream.on('drain', function() { // 写完后,继续读取
readStream.resume();
});

readStream.on('end', function() { // 当没有数据时,关闭数据流
writeStream.end();
});

或者使用更直接的

pipe