file roll
按照需求可以把实现步骤拆成两步:
追加最新的数据到文件末尾。(Node.js的fs模块有相应函数)
删除文件开头超出限制部分。(Node.js没有响应函数)
这两步不分先后顺序,但是Node.js没有提供API来删除文件开头部分,只提供了修改文件指定位置的函数。
既然无法删除文件开头部分内容,那么我们就换个思路,只保留文件末尾部分内容(不超出大小限制)。
什么?这不是一个意思么?
略有区别~
删除是在原有文件上进行的操作,而保留内容可以借助临时文件来进行操作。
所以思路变成:
创建一个临时文件,临时文件的内容来自于日志文件。
往临时文件中增加数据。
将临时文件中符合文件大小限制的内容,从后往前(采取偏移量的形式)进行读取并复制到日志文件进行覆盖。
为了不占用额外的磁盘空间,写操作完成后删除临时文件。
这样就不会出现像log4js一样日志文件内容不全的现象,也不会保留额外的临时文件。但是对IO的操作会增加~
对于写操作可以采取tail命令来实现,最终实现代码如下:
private write(name: string, buf?: Buffer | string) {
// append buf to tmp file
const tmpName = name.replace(/(.*/)(.*$)/, '$1_.$2.tmp');
if (!existsSync(tmpName)) {
copyFileSync(name, tmpName);
}
buf && appendFileSync(tmpName, buf);
// if busy, wait
if (this.stream && this.stream.readable) {
this.needUpdateLogFile[name] = true;
} else {
try {
execSync(`tail -c ${limit} ${tmpName} > ${name}`);
try {
if (this.needUpdateLogFile[name]) {
this.needUpdateLogFile[name] = false;
this.write(name);
} else {
existsSync(tmpName) && unlinkSync(tmpName);
}
} catch (e) {
console.error(e);
}
} catch (e) {
console.error(e);
}
}
}总结
完成这个功能有两点感悟:
量变引起质变。当数据量变大时,很多简单的处理方式就不可以用了,比如写文件,如果直接使用writeFile会占用大量内存甚至有可能内存都不够用。所以要通过合适的方式进行拆分,拆分过程中又会碰到各种问题,比如本文中截取文件内容的要求。
学会借力。君子性非异也善假于物也~当无法在单个点完成操作的时候可以借助外部条件来实现,比如在本文中使用临时文件来保存数据内容。
好了,以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对软件开发网的支持。









