《C# 爬虫 破境之道》:第二境 爬虫应用 — 第三节:处理压缩数据
MikeCheers 人气:0续上一节内容,本节主要讲解一下Web压缩数据的处理方法。
在HTTP协议中指出,可以通过对内容压缩来减少网络流量,从而提高网络传输的性能。
那么问题来了,在HTTP中,采用的是什么样的压缩格式和机制呢?
首先呢,先说压缩格式,主要有三种:
- DEFLATE,是一种使用 Lempel-Ziv 压缩算法(LZ77)和哈夫曼编码的数据压缩格式。定义于 RFC 1951 : DEFLATE Compressed Data Format Specification;
- ZLIB,是一种使用 DEFLATE 的数据压缩格式。定义于 RFC 1950 : ZLIB Compressed Data Format Specification;
- GZIP,是一种使用 DEFLATE 的文件格式。定义于 RFC 1952 : GZIP file format specification;
我们这里就不细琢磨了,格式里面又有算法,又有规则什么的,我也搞不清楚,说多了,挨骂……理解上,就相当于我们常用的Zip、7Zip、RAR等压缩格式;
但是需要注意的是,ZLIB和GZIP都是使用的DEFLATE,这就有点儿意思了,后面再说:)
说完压缩格式,再来说机制,分为两条路子(请求、回复):
- 请求:在request header中指定Accept-Encoding。例如:Accept-Encoding: gzip, deflate, compress, br;Accept-Encoding在Headers中是可选的,可以不指定;当然,其中还有一些规则,后面我们结合回复一起给出;
- 回复:在response header中指定Content-Encoding。例如:Content-Encoding: gzip;Content-Encoding在Headers中也是可选的,可以不指定;不过现在大多数站点都会对内容进行压缩,不过通常不会对图片及视频等已经经过压缩的资源进行压缩,因为得不偿失啊;
来解释一下,首先客户端(比如说浏览器)发出请求,我们在使用浏览器的过程中,一般就只是输入一个网址或点击某个连接,不会刻意去填写一下Accept-Encoding,但是浏览器会为我们添加;这个Accept-Encoding,就是告诉网站服务器端,我(浏览器)可以解释这几种压缩格式(一个列表),你(网站服务器)要是压缩,就给我这几种格式,否则,就不要压缩了;网站服务器端收到请求后,进行解析,看看有没有自己能够使用的压缩格式,如果有,那么就进行压缩,如果有多个可以使用,那就要看优先级,选择优先级最高的格式进行压缩(后面列出规则),并将使用的压缩格式填入Content-Encoding中发送回客户端;客户端(浏览器)收到回复以后,就看Content-Encoding有没有值,如果有并且自己也认识,那么就可以正常解压,显示在界面上了。
这个就是压缩的机制了,一切看起来那么的和谐,但在互联网的世界,总是不缺乏“惊喜”,即使客户端不指定任何Accept-Encoding,服务器端也会根据情况返回Content-Encoding,这就迫使浏览器,还必须得有两把刷子,否则就傻眼了。
HTTP Header中Accept-Encoding 是浏览器发给服务器,声明浏览器支持的编码类型[1] 常见的有 Accept-Encoding: compress, gzip //支持compress 和gzip类型 Accept-Encoding: //默认是identity Accept-Encoding: * //支持所有类型 Accept-Encoding: compress;q=0.5, gzip;q=1.0//按顺序支持 gzip , compress Accept-Encoding: gzip;q=1.0, identity; q=0.5, *;q=0 // 按顺序支持 gzip , identity 服务器返回的对应的类型编码header是 content-encoding.服务器处理accept-encoding的规则如下所示: 1. 如果服务器可以返回定义在Accept-Encoding 中的任何一种Encoding类型, 那么处理成功(除非q的值等于0, 等于0代表不可接受) 2. * 代表任意一种Encoding类型 (除了在Accept-Encoding中显示定义的类型) 3. 如果有多个Encoding同时匹配, 按照q值顺序排列 4. identity总是可被接受的encoding类型(除非明确的标记这个类型q=0) 如果Accept-Encoding的值是空, 那么只有identity是会被接受的类型 如果Accept-Encoding中的所有类型服务器都没法返回, 那么应该返回406错误给客户端 如果request中没有Accept-Encoding 那么服务器会假设所有的Encoding都是可以被接受的。 如果Accept-Encoding中有identity 那么应该优先返回identity (除非有q值的定义,或者你认为另外一种类型是更有意义的) 注意: 如果服务器不支持identity 并且浏览器没有发送Accept-Encoding,那么服务器应该倾向于使用HTTP1.0中的 "gzip" and "compress" , 服务器可能按照客户端类型发送更适合的encoding类型 大部分HTTP1.0的客户端无法处理q值 Accept-Encoding与Content-Encoding的规则
另外,需要额外说明的是,在Accept-Encoding中指定的delfate,可不一定是DEFLATE压缩格式,按照官方的说法:
- gzip,一种由文件压缩程序「Gzip,GUN zip」产生的编码格式,描述于 RFC 1952。这种编码格式是一种具有 32 位 CRC 的 Lempel-Ziv 编码(LZ77);
- deflate,由定义于 RFC 1950 的「ZLIB」编码格式与 RFC 1951 中描述的「DEFLATE」压缩机制组合而成的产物;
也就是说,deflate其实对应的应该是ZLIB压缩格式,而它的名字,又与DEFLATE格式重名(估计这位同仁会被祭天了吧),导致很多浏览器厂商不知道究竟该用哪种格式来解释Content-Encoding: deflate,因为不论你选择哪种,都会有例外发生,这就尴尬了。所以,尽管deflate的压缩效果要比gzip好,但还是会被不少Web-Server放弃或者降低优先级。这也就是为什么我们会经常看到Content-Encoding: gzip而很少能看到Content-Encoding: deflate的原因;所以,我们在做爬虫的时候,也应该尽量避免使用deflate,减少不必要的麻烦。
话锋一转,回到我们的爬虫,也会遇到上面浏览器遇到的尴尬场面,所以,就必须得事先准备好常用的解压缩方式,要不然,数据抓下来了,读不出来,你说气不气~
本节中,我们就来继续改造我们的爬虫框架,让它也有两把刷子:)
[Code 2.3.1]
1 public static byte[] DecompressStreamData(Stream sourceStream, String contentEncoding) 2 { 3 var _stream = sourceStream; 4 switch ((contentEncoding ?? string.Empty).ToLower()) 5 { 6 case "gzip": 7 _stream = new GZipStream(sourceStream, CompressionMode.Decompress); 8 break; 9 case "deflate": 10 _stream = new DeflateStream(sourceStream, CompressionMode.Decompress); 11 break; 12 default: 13 break; 14 } 15 using (var memory = new MemoryStream()) 16 { 17 int length = 256; 18 Byte[] buffer = new Byte[length]; 19 int bytesRead = _stream.Read(buffer, 0, length); 20 while (bytesRead > 0) 21 { 22 memory.Write(buffer, 0, bytesRead); 23 bytesRead = _stream.Read(buffer, 0, length); 24 } 25 return memory.ToArray(); 26 } 27 }
这是一个公共静态方法,其目的就是将原数据流中的数据转换为byte[]数组,其中,如果指定了压缩格式,就会使用适当的方法进行解压。这里只提供了最常见的gzip和不推荐的deflate两种格式,可以自行扩展。
接下来,就是对工蚁(WorkerAnt)进行改造了。
[Code 2.3.2]
1 private void GetResponse(JobContext context) 2 { 3 context.Request.BeginGetResponse(new AsyncCallback(acGetResponse => 4 { 5 var contextGetResponse = acGetResponse.AsyncState as JobContext; 6 using (contextGetResponse.Response = contextGetResponse.Request.EndGetResponse(acGetResponse)) 7 using (contextGetResponse.ResponseStream = contextGetResponse.Response.GetResponseStream()) 8 using (contextGetResponse.Memory = new MemoryStream()) 9 { 10 // 此处省略N行…… 11 12 if (TaskStatus.Running == contextGetResponse.JobStatus) 13 { 14 if (!String.IsNullOrEmpty(contextGetResponse.Response.Headers["Content-Encoding"])) 15 { 16 contextGetResponse.Memory.Seek(0, SeekOrigin.Begin); 17 contextGetResponse.Buffer = DecompressStreamData(contextGetResponse.Memory 18 , contextGetResponse.Response.Headers["Content-Encoding"]); 19 //contextGetResponse.Buffer = contextGetResponse.Memory.ToArray(); 20 } 21 else 22 contextGetResponse.Buffer = contextGetResponse.Memory.ToArray(); 23 24 contextGetResponse.JobStatus = TaskStatus.RanToCompletion; 25 NotifyStatusChanged(new JobEventArgs { Context = context, EventAnt = this, }); 26 } 27 28 contextGetResponse.Buffer = null; 29 } 30 }), context); 31 }
注释中是原来使用的方法,现在用上面的DecompressStreamData替换掉了。
这样我们在收到采集完成事件通知时,就可以得到解压缩后的数据了:
[Code 2.3.3]
1 switch (args.Context.JobStatus) 2 { 3 // 此处省略N行…… 4 case TaskStatus.RanToCompletion: 5 if (null != args.Context.Buffer && 0 < args.Context.Buffer.Length) 6 { 7 Task.Factory.StartNew(oBuffer => 8 { 9 var content = new UTF8Encoding(false).GetString((byte[])oBuffer); 10 richOutput.EndInvoke(richOutput.BeginInvoke(new MethodInvoker(() => { richOutput.Text = content; }))); 11 }, args.Context.Buffer, TaskCreationOptions.LongRunning); 12 } 13 if (null != args.Context.Watch) 14 Console.WriteLine("/* ********************** using {0}ms / request ******************** */" 15 + Environment.NewLine + Environment.NewLine, (args.Context.Watch.Elapsed.TotalMilliseconds / 100).ToString("000.00")); 16 break; 17 // 此处省略N行…… 18 default:/* Do nothing on this even. */ 19 break; 20 }
至于为何在Complete事件的位置处理解压缩,而不在Running事件的位置,这是gzip的限制,它具有CRC校验位,CRC的算法,大家可以在网上搜索,大体上说,就是遍历一遍所有数据,进行与或计算,最终得到一个校验位,来保证数据的完整性与正确性。这也导致我们无法对中间数据进行解压,因为没有校验位,对末尾数据解压,又因数据不全,CRC计算结果也不会对。
至此,我们就完成了对HTTP协议内容部分已压缩数据的处理,抛砖引玉,可以实现更多种压缩格式的处理;
节外生枝:
- 本节讲述的数据压缩,指的是HTTP协议中,对协议内容部分的压缩,在HTTP 2.x的版本中,增加了对协议头部的压缩(更确切的说是缓存)的机制,用空间换时间,由于2.x版本Schema为HTTPS,处理起来,另有蹊跷,本节先不做深入介绍了,可作为延伸内容,有兴趣的童鞋可以搜索相关主题;
- 为了方便以后的做更多更好的案例,源码中增加了一个WinForm项目,这样在切换Uri的时候,就更方便一些;
喜欢本系列丛书的朋友,可以点击链接加入QQ交流群(994761602)【C# 破境之道】
方便各位在有疑问的时候可以及时给我个反馈。同时,也算是给各位志同道合的朋友提供一个交流的平台。
需要源码的童鞋,也可以在群文件中获取最新源代码。
加载全部内容