- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我已经创建了一个解析 NGinx 日志的模块,现在我正在编写一个使用它的命令工具。我的问题是我允许解析整个目录,这在读取然后解析方面不是问题,因为我有一个池可以读取和解析,但是,在命令行工具上,我允许以不同的格式重写日志,现在是 JSON,- 好吧,我将切入正题,我已经编写了这个 Writer 对象,它将保留所有 WriteStreams 的引用(wstreams[readFilePath](我知道我正在使用 readFilePath,这只是查找的关键),并且还有通过模块公开对象 Parser.rstreams[readFilePath] 的所有读取流的全局引用
// creating a writer to handle the data buffering from the parser's readstreams
writer = {
wstreams: {},
append: function(data, wfile, rfile){
console.log(JSON.stringify(this.wstreams[rfile]));
if(this.wstreams[rfile]
&& (this.wstreams[rfile].write(data, wfile) == false) // <-- crashing here
&& parser.rstreams[rfile]
&& parser.rstreams[rfile].pause){
console.log('Pausing: ' + rfile);
parser.rstreams[rfile].pause();
}
},
addStream: function(wfile, rfile){
var wstream = fs.createWriteStream(wfile, {'flags': 'w', 'encoding':'utf8', 'mode': '0666'});
console.log("stream added: " + wfile + " r: " + rfile);
this.wstreams[rfile] = wstream;
this.wstreams[rfile].on('drain', function(){
if(parser.rstreams[rfile]
&& parser.rstreams[rfile].readable
&& parser.rstreams[rfile].resume){
console.log('Drained: ' + rfile);
parser.rstreams[rfile].resume();
}
});
}
}
当 writeStream 试图写入数据时,它抛出一个未知编码异常,这没有任何意义,因为它默认为 utf8,即使我通过可选编码,它也会做同样的事情,我试过 ut8, utf-8 和 ascii
{"path":"/Users/akhoury/code/rk/ginx/bin/here.json","fd":8,"writable":true,"flags":"w","encoding":"utf8","mode":"0666","bytesWritten":0,"busy":false,"_queue":[],"_events":{}}
[GINX][ERROR][uncaughtException] Error: Unknown encoding
[GINX-DEBUG] Exiting - 0 {file:cursor} record(s) stored in /Users/akhoury/code/rk/ginx/tmp/stored.cursors
/Users/akhoury/code/rk/ginx/lib/ginx.js:453
throw err;
^
Error: Unknown encoding
at Buffer.write (buffer.js:382:13)
at new Buffer (buffer.js:261:26)
at WriteStream.write (fs.js:1548:12)
at Object.writer.append (/Users/akhoury/code/rk/ginx/bin/ginx.js:95:38)
at /Users/akhoury/code/rk/ginx/bin/ginx.js:152:16
at Ginx.eval [as hardParseLine] (eval at generateParseLine (/Users/akhoury/code/rk/ginx/lib/ginx.js:59:21))
at streamData (/Users/akhoury/code/rk/ginx/lib/ginx.js:179:13)
at Ginx.parseFile.fs.stat.stream.on.streamEnd.cursor (/Users/akhoury/code/rk/ginx/lib/ginx.js:346:28)
at EventEmitter.emit (events.js:93:17)
at ReadStream._emitData (fs.js:1365:10)
我什至对流进行 JSON.stringify 以查看其中的内容,它看起来不错。
我查看了 buffer.js 的源代码,它没有意义,当编码不在允许列表中时,应该会发生该错误 https://github.com/joyent/node/blob/master/lib/buffer.js :50 岁
然后我有一个循环读取目录,如果是目录,然后写入。addStream(outputfile, inputfile)
if (stats.isDirectory()) {
fs.mkdir(output, function () {
fs.readdir(input, function (err, files) {
if (err) error(err);
files.forEach(function (wfile) {
wfile = path.join(output, file);
rfile = path.join(input, file);
console.log("W:"+ wfile + " R: " + rfile);
//prepend the JSON openings for each new file before we go on.
if (isNewFile(rfile)) {
fs.writeFileSync(wfile, "{[", 'utf8');
}
writer.addStream(wfile, rfile); // <-- adding the stream to writer here
});
processDirectory(input, output);
});
});
} else if (stats.isFile()) {
if (isNewFile(input)) {
fs.writeFile(output, "{[", 'utf8', function () {
writer.addStream(output, input);
processFile(input, output);
});
} else {
writer.addStream(output, input);
processFile(input, output);
}
}
然后在 processFile 和 processDirectory 中,每次我收到一个 rowCallback,这意味着一行已经被解析,我使用 writer.append
// process file parsing to JSON output
function processFile(input, ouput) {
parser.parseFile(input,
function (err, row) {
if (err) error(err);
writer.append(ifLastRow(row), output, row.__file);
},
function (err, rfile) {
if (err) error(err);
//close the JSON array
writer.append("]}", output, file);
});
// process directory parsing to JSON outputs
function processDirectory(input, output) {
parser.parseDir(input,
function (err, row) {
if (err) error(err);
var fname = row.__fname;
writer.append(ifLastRow(row), path.join(output, fname), row.__file);
},
function (err, rfile) {
if (err) error(err);
var wfile = path.join(output, rfile.substring(rfile.lastIndexOf(path.sep) + 1));
//close the JSON array
writer.append("]}", wfile, rfile);
},
function (err, filesCount) {
if (err) error(err);
});
}
谁能看出我在这里做错了什么?我是否以错误的方式创建流?
我知道需要阅读的内容很多,但我不想过于笼统。谢谢。
最佳答案
问题是您将文件名作为第二个参数传递给 stream.write() ,但是 .write()
的第二个参数是一个可选的编码(参见前面的链接)。
错误是因为它试图将文件名用作编码,这是一种未知编码
。如果data
是一个buffer,那么让它根据buffer来决定编码。
写入流与文件相关联,因此您无需在每次写入时传递文件名。尝试更改:
&& (this.wstreams[rfile].write(data, wfile) == false)
收件人:
&& (this.wstreams[rfile].write(data) == false)
关于Node.js WriteStream 未知编码错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15229856/
我有一个 EventEmitter 对象,我设置它来监听事件。当事件发出时,我想将信息写入文件。我有一个打开的 FileStream 通过 fs.createWriteStream(path, { f
问题: 我有 fs.createWriteStream(filename),其中文件名是通过 res.pipe(); 写入的 mp3 文件。来自远程服务器的响应是永无止境的音频数据流。 Time-to
在我正在实现的 Vert.x verticle 中,我有一个之前加载到内存中的缓冲区,现在我想将它转储到磁盘中。 据我所知,我们应该使用 Pump 来确保不会使 WriteStream 过载。 但我没
考虑以下消息序列: 1. s := '' writeStream. 2. s nextPutAll: '123'. 3. s skip: -3. 4. s position "=> 0". 5. s
看看这个示例代码,它在 Nodejs 中创建文件的副本。 var fs = require('fs'); var out = fs.createWriteStream('1_GB_FILE_COPY'
如何在调用 WriteStream.write() 时将数据写入文件? 编辑:事实证明,当我使用 REPL 并调用该函数时,这是有效的。但是,这在我的程序中不起作用: import * as FS f
这是我想做的: stream = fs.WriteStream('crap.txt',{flags:'w'}; // more code response.on('close',function()
我已经创建了一个解析 NGinx 日志的模块,现在我正在编写一个使用它的命令工具。我的问题是我允许解析整个目录,这在读取然后解析方面不是问题,因为我有一个池可以读取和解析,但是,在命令行工具上,我允许
我有这样一个函数,它创建一个写入流,然后将字符串数组写入文件。我想让它在编写完成后返回一个 Promise。但我不知道如何才能完成这项工作。 function writeToFile(filePath
我用var writeStream = fs.createWriteStream('...')打开了一个WriteStream,但是没有writeStream.close()函数。这在 node 中是
两个Writestream在 Spark Structured Streaming 2.2.1 中,同一个数据库接收器不会按顺序发生。请建议如何使它们按顺序执行。 val deleteSink = d
考虑一个通用的 writeStream调用 - 使用典型的“控制台”输出格式: out.writeStream .outputMode("complete") .format("console
var http = require('http'); var fs = require('fs').createWriteStream('file1');; http.createServer(fu
我正在尝试在 Spark 中读取来自 kafka(版本 10)的消息并尝试打印它。 import spark.implicits._ val spark = SparkSe
我现在正在编写一个生成文件的程序。我想知道关于 Stream(s) 的最佳实践是什么,尤其是在大小方面?我可以想象,如果一个流变得太大,它会带来一些减速或其他性能问题。 我有以下代码,可以调用很多次,
也许我是在 JVM 的阴影下考虑这个问题,但是...... 我正在使用一个第三方 API,它有一个采用 WriteStream 的函数声明(我相信它只使用 .write() 方法)。 我希望能够直接使
我希望能够使用 node.js 和 pipe 方法监控副本的速度,以便我可以显示进度条、速度指示器以及最终的时间估算。 目前,在浏览一些引用资料时,我想我将不得不使用 writeStream.byte
const barStream = fs.createWriteStream('bar'); const foo = spawn('foo', [], { stdio: ['ignore', barS
我正在尝试使用 nodeJS 将经过处理的图像保存在 base64 字符串中。 var buff = new Buffer(base64data,'base64'); console.log(base
我正在 node.js 中编写一个纯同步的单线程命令行程序,它需要编写一个二进制文件,为此我使用 WriteStream。我的使用模式是这样的: var stream = fs.createWrite
我是一名优秀的程序员,十分优秀!