分析Nodejs的Stream模块
这篇文章主要讲解了“分析Nodejs的Stream模块”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“分析Nodejs的Stream模块”吧!
在成都做网站、成都网站制作过程中,需要针对客户的行业特点、产品特性、目标受众和市场情况进行定位分析,以确定网站的风格、色彩、版式、交互等方面的设计方向。创新互联还需要根据客户的需求进行功能模块的开发和设计,包括内容管理、前台展示、用户权限管理、数据统计和安全保护等功能。
一,开篇分析
流是一个抽象接口,被
Node 中的很多对象所实现。比如对一个 HTTP 服务器的请求是一个流,stdout 也是一个流。流是可读,可写或兼具两者的。
最早接触Stream是从早期的unix开始的, 数十年的实践证明Stream 思想可以很简单的开发出一些庞大的系统。
在unix里,Stream是通过 "|" 实现的。在node中,作为内置的stream模块,很多核心模块和三方模块都使用到。
和unix一样,node stream主要的操作也是.pipe(),使用者可以使用反压力机制来控制读和写的平衡。
Stream 可以为开发者提供可以重复使用统一的接口,通过抽象的Stream接口来控制Stream之间的读写平衡。
一个TCP连接既是可读流,又是可写流,而Http连接则不同,一个http request对象是可读流,而http response对象则是可写流。
流的传输过程默认是以buffer的形式传输的,除非你给他设置其他编码形式,以下是一个例子:
1.
2.
3.
var http = require('http') ;
4.
var server = http.createServer(function(req,res){
5.
res.writeHeader(200, {'Content-Type': 'text/plain'}) ;
6.
res.end("Hello,大熊!") ;
7.
}) ;
8.
server.listen(8888) ;
9.
console.log("http server running on port 8888 ...") ;
运行后会有乱码出现,原因就是没有设置指定的字符集,比如:“utf-8” 。
修改一下就好:
var http = require('http') ;
1.
2.
var server = http.createServer(function(req,res){
3.
res.writeHeader(200,{
4.
'Content-Type' : 'text/plain;charset=utf-8' // 添加charset=utf-8
5.
}) ;
6.
res.end("Hello,大熊!") ;
7.
}) ;
8.
server.listen(8888) ;
9.
console.log("http server running on port 8888 ...") ;
运行结果:
为什么使用Stream
node中的I/O是异步的,因此对磁盘和网络的读写需要通过回调函数来读取数据,下面是一个文件下载例子
上代码:
1.
2.
var http = require('http') ;
3.
var fs = require('fs') ;
4.
var server = http.createServer(function (req, res) {
5.
fs.readFile(__dirname + '/data.txt', function (err, data) {
6.
res.end(data);
7.
}) ;
8.
}) ;
9.
server.listen(8888) ;
代码可以实现需要的功能,但是服务在发送文件数据之前需要缓存整个文件数据到内存,如果"data.txt"文件很
大并且并发量很大的话,会浪费很多内存。因为用户需要等到整个文件缓存到内存才能接受的文件数据,这样导致
用户体验相当不好。不过还好(req,res)两个参数都是Stream,这样我们可以用fs.createReadStream()代替fs.readFile()。如下:
var http = require('http') ;
1.
2.
var fs = require('fs') ;
3.
var server = http.createServer(function (req, res) {
4.
var stream = fs.createReadStream(__dirname + '/data.txt') ;
5.
stream.pipe(res) ;
6.
}) ;
7.
server.listen(8888) ;
.pipe()方法监听fs.createReadStream()的'data' 和'end'事件,这样"data.txt"文件就不需要缓存整
个文件,当客户端连接完成之后马上可以发送一个数据块到客户端。使用.pipe()另一个好处是可以解决当客户
端延迟非常大时导致的读写不平衡问题。
有五种基本的Stream:readable,writable,transform,duplex,and "classic” 。(具体使用请自己查阅api)
二,实例引入
当内存中无法一次装下需要处理的数据时,或者一边读取一边处理更加高效时,我们就需要用到数据流。NodeJS中通过各种Stream来提供对数据流的操作。
以大文件拷贝程序为例,我们可以为数据源创建一个只读数据流,示例如下:
var rs = fs.createReadStream(pathname);
1.
2.
rs.on('data', function (chunk) {
3.
doSomething(chunk) ; // 具体细节自己任意发挥
4.
});
5.
rs.on('end', function () {
6.
cleanUp() ;
7.
}) ;
代码中data事件会源源不断地被触发,不管doSomething函数是否处理得过来。代码可以继续做如下改造,以解决这个问题。
1.
2.
3.
var rs = fs.createReadStream(src) ;
4.
rs.on('data', function (chunk) {
5.
rs.pause() ;
6.
doSomething(chunk, function () {
7.
rs.resume() ;
8.
}) ;
9.
}) ;
10.
rs.on('end', function () {
11.
cleanUp();
12.
}) ;
给doSomething函数加上了回调,因此我们可以在处理数据前暂停数据读取,并在处理数据后继续读取数据。
此外,我们也可以为数据目标创建一个只写数据流,如下:
var rs = fs.createReadStream(src) ;
1.
2.
var ws = fs.createWriteStream(dst) ;
3.
rs.on('data', function (chunk) {
4.
ws.write(chunk);
5.
}) ;
6.
rs.on('end', function () {
7.
ws.end();
8.
}) ;
doSomething换成了往只写数据流里写入数据后,以上代码看起来就像是一个文件拷贝程序了。但是以上代码存在上边提到的问题,如果写入速度跟不上读取速度的话,只写数据流内部的缓存会爆仓。我们可以根据.write方法的返回值来判断传入的数据是写入目标了,还是临时放在了缓存了,并根据drain事件来判断什么时候只写数据流已经将缓存中的数据写入目标,可以传入下一个待写数据了。因此代码如下:
var rs = fs.createReadStream(src) ;
1.
2.
var ws = fs.createWriteStream(dst) ;
3.
rs.on('data', function (chunk) {
4.
if (ws.write(chunk) === false) {
5.
rs.pause() ;
6.
}
7.
}) ;
8.
rs.on('end', function () {
9.
ws.end();
10.
});
11.
ws.on('drain', function () {
12.
rs.resume();
13.
}) ;
最终实现了数据从只读数据流到只写数据流的搬运,并包括了防爆仓控制。因为这种使用场景很多,例如上边的大文件拷贝程序,NodeJS直接提供了.pipe方法来做这件事情,其内部实现方式与上边的代码类似。
下面是一个更加完整的复制文件的过程:
var fs = require('fs'),
1.
2.
path = require('path'),
3.
out = process.stdout;
4.
var filePath = '/bb/bigbear.mkv';
5.
var readStream = fs.createReadStream(filePath);
6.
var writeStream = fs.createWriteStream('file.mkv');
7.
var stat = fs.statSync(filePath);
8.
var totalSize = stat.size;
9.
var passedLength = 0;
10.
var lastSize = 0;
11.
var startTime = Date.now();
12.
readStream.on('data', function(chunk) {
13.
passedLength += chunk.length;
14.
if (writeStream.write(chunk) === false) {
15.
readStream.pause();
16.
}
17.
});
18.
readStream.on('end', function() {
19.
writeStream.end();
20.
});
21.
writeStream.on('drain', function() {
22.
readStream.resume();
23.
});
24.
setTimeout(function show() {
25.
var percent = Math.ceil((passedLength / totalSize) * 100);
26.
var size = Math.ceil(passedLength / 1000000);
27.
var diff = size - lastSize;
28.
lastSize = size;
29.
out.clearLine();
30.
out.cursorTo(0);
31.
out.write('已完成' + size + 'MB, ' + percent + '%, 速度:' + diff * 2 +
32. 'MB/s');
33.
if (passedLength < totalSize) {
34.
setTimeout(show, 500);
35.
} else {
36.
var endTime = Date.now();
37.
console.log();
38.
console.log('共用时:' + (endTime - startTime) / 1000 + '秒。');
39.
}
40.
}, 500);
可以把上面的代码保存为
"copy.js" 试验一下我们添加了一个递归的 setTimeout (或者直接使用setInterval)来做一个旁观者,
每500ms观察一次完成进度,并把已完成的大小、百分比和复制速度一并写到控制台上,当复制完成时,计算总的耗费时间。
感谢各位的阅读,以上就是“分析Nodejs的Stream模块”的内容了,经过本文的学习后,相信大家对分析Nodejs的Stream模块这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!
网站题目:分析Nodejs的Stream模块
路径分享:http://scjbc.cn/article/gjeccg.html