赞
踩
目的:更快的内容到达时间。
核心思路:
最佳实践:
当浏览器从(第三方)服务器请求资源时,必须先将该跨域域名解析为 IP 地址,然后浏览器才能发出请求,此过程称为 DNS 解析。
DNS 作为互联网的基础协议,其解析的速度似乎很容易被网站优化人员忽视。现在大多数新浏览器已经针对 DNS 解析进行了优化,比如 DNS 缓存。典型的一次 DNS 解析需要耗费 20-120 毫秒,所花费的时间几乎可以忽略不计,但是当网站中使用的资源依赖于多个不同的域的时候,时间就会成倍的增加,从而增加了网站的加载时间。比如在某些图片较多的页面中,在发起图片加载请求之前预先把域名解析好将会有至少 5% 的图片加载速度提升。
一般来说,在前端优化中与 DNS 有关的有两点:
域名系统(Domain Name System:DNS)将主机名映射到 IP 地址,就像电话簿将人们的姓名映射到他们的电话号码一样。在浏览器中输入 www.taobao.com 时,浏览器联系的 DNS 解析器将返回该服务器的 IP 地址。DNS 解析有成本,DNS 通常需要 20-120 毫秒来查找给定主机名的 IP 地址。在 DNS 查找完成之前,浏览器无法从该主机名下载任何内容。
缓存 DNS 查找以提高性能。这种缓存可以在由用户的 ISP 或局域网维护的特殊缓存服务器上进行,但是在个别用户的计算机上也会发生缓存。DNS 信息保留在操作系统的 DNS 缓存中(Microsoft Windows 上的“ DNS客户端服务”)。大多数浏览器都有自己的缓存,与操作系统的缓存分开。只要浏览器将 DNS 记录保留在其自己的缓存中,它就不会对操作系统发出记录请求进行打扰。
以淘宝为例,首先清除本地 DNS 缓存(参考后面的章节《清除 DNS 缓存》),F12 打开 network 面板,访问 www.taobao.com。
可以在时间线瀑布流中查看 DNS 查找时间:
打开点击请求查看计时:
重新刷新页面,已经缓存了 DNS 的请求不会在进行 DNS 解析:
默认情况下,Internet Explorer 会缓存 30 分钟的 DNS 查找结果,这是由 DnsCacheTimeout
注册表设置指定的 。Firefox 在 network.dnsCacheExpiration
配置设置的控制下缓存 DNS 查找结果 1 分钟。Chrome 也是1分钟。
系统缓存时间是根据具体的 DNS 设置,例如阿里云的域名解析配置:
当客户端的 DNS 缓存为空(浏览器和操作系统)时,DNS 查找的次数等于网页中唯一主机名的数目。这包括在页面的 URL,图像,脚本文件,样式表,Flash 对象等中使用的主机名。减少唯一主机名的数量将减少 DNS 查找的数量。
减少域名的数量有可能减少页面中并行下载的数量。避免 DNS 查找会减少响应时间,但是减少并行下载可能会增加响应时间。建议将这些资源划分为至少两个但不超过四个域名。这将在减少 DNS 查找和允许高度并行下载之间取得良好的折衷。
dns-prefetch(DNS 预解析)是尝试在请求资源之前解析域名。这可能是后面要加载的文件,也可能是用户尝试打开的链接目标。
域名解析和内容载入是串行的网络操作,所以 DNS 预解析会减少用户的等待时间,提升用户体验。
dns-prefetch 可以帮助开发人员掩盖 DNS 解析延迟。HTML <link>
元素通过 dns-prefetch
的 rel
属性值提供此功能。然后在 href
属性中指定要跨域的域名:
<link rel="dns-prefetch" href="https://fonts.googleapis.com/">
例如 www.taobao.com 对 dns-prefetch
的使用:
每当站点引用跨域域上的资源时,都应在 <head>
元素中放置 dns-prefetch
提示,但是要记住一些注意事项:
dns-prefetch
仅对跨域域上的 DNS 查找有效,因此请避免使用它来指向您的站点或域。这是因为,当浏览器看到提示时,您站点域背后的 IP 已经被解析。dns-prefetch
需慎用,多页面重复 DNS 预解析会增加重复 DNS 查询次数dns-prefetch
能够加快页面的解析速度,但也不能滥用,因为有开发者指出禁用 DNS 预解析能力能节省每月 100 亿的 DNS 查询。对于自己搭建 DNS 服务的公司,禁用 DNS 预解析能够节省大量的流量(也就是成本)。可以通过设置 X-DNS-Prefetch-Control 响应头禁用 dns-prefetch,或使用 <meta>
元素:
<meta http-equiv="x-dns-prefetch-control" content="off">
阿里云域名解析图示:
参考:4 ways to optimize DNS resolution for web performance
chrome://net-internals/#dns
(Edge 是 edge://net-internals/#dns
)- Clear host cachechrome://net-internals/#sockets
- Flush socket pools# Windows 中查看 DNS 缓存记录
ipconfig /displaydns
# Windows 中清除 DNS 缓存记录
ipconfig /flushdns
# macOS 中清除 DNS 缓存记录
sudo killall -HUP mDNSResponder
HTTP 协议的初始版本中,每次进行一次 HTTP 通信就要断开一个 TCP 连接。
以早期的通信情况来说,因为都是些容量很小的文本传输,所以即使这样也没有多大问题。但是随着 HTTP 的大量普及,文档中包含大量富文本(图片、视频等资源)的情况多了起来。
比如,使用浏览器浏览一个包含多张图片的 HTML 页面时,在发送请求访问 HTML 页面资源的同时,也会请求该 HTML 页面包含的其他资源。因此,每次的请求都会造成无谓的 TCP 连接建立和断开,增加通信的开销。
为了解决这个问题,有些浏览器在请求时,用了一个非标准的 Connection
字段:Connection: keep-alive
这个字段要求服务器不要关闭 TCP 连接,以便其他请求复用。服务器同样响应这个字段:Connection: keep-alive
一个可以复用的 TCP 连接就建立了,直到客户端和服务器主动关闭连接。但是,这不是标准字段,不同实现的行为可能不一致,因此不是根本的解决办法。
1997 年 1 月,HTTP/1.1 版本发布,只比 1.0 版本晚了半年。它进一步完善了 HTTP 协议,直到现在还是最流行的版本。
HTTP/1.1 的最大变化,就是引入了持久连接(HTTP Persistent Connections),即 TCP 连接默认不关闭,可以被多个请求复用,不用声明 Connection: keep-alive
。
持久连接的好处在于减少了 TCP 连接的重复建立和断开所造成的额外开销,减轻了服务器端的负载。另外,减少开销的那部分时间,使 HTTP 请求和响应能够更早的结束,这样 Web 页面的显示速度也就相应提高了。
客户端和服务器发现对方一段时间没有活动,就可以主动关闭连接。不过,规范的做法是,客户端在最后一个请求时,发送 Connection: close
,明确要求服务器关闭 TCP 连接。
目前,对于同一个域名,大多数浏览器允许同时建立 6 个持久连接。
HTTP/1.1 还引入了管道机制(pipelining),即在同一个 TCP 连接里面,客户端可以同时发送多个请求。这样就进一步改进了 HTTP 协议的效率。
从前发送请求后需要等待并接收响应,才能发送下一个请求。管道技术出现后,不用等待响应即可直接发送下一个请求。这样就能够做到同时并行发送多个请求,而不需要一个接一个的等待响应了。与挨个连接相比,用持久连接可以让请求更快结束,而管道技术则比持久连接还要快。请求数越多,时间差就越明显。
举例来说,客户端需要请求两个资源,以前的做法是,在同一个 TCP 连接里面,先发送 A 请求,然后等待服务器做出响应,收到后再发出 B 请求。管道机制则是允许浏览器同时发出 A 请求和 B 请求,但是服务器还是按照顺序,先响应 A 请求,完成后再响应 B 请求。
一个 TCP 连接现在可以传送多个响应,势必就要有一种机制,区分数据包是属于哪一个响应的。这就是 Content-Length
字段的作用,声明本次响应的数据长度。
Content-Length: 3495
上面代码告诉浏览器,本次响应需要查询的数据量(或长度)是 3495 个字节,后面的字节就属于下一个响应了。
在 1.0 版本中,Content-Length
字段不是必需的,因为浏览器发现服务器关闭了 TCP 连接,就表明收到的数据包已经完整了。
使用 Content-Length
字段的前提条件是,服务器发送响应之前,必须知道响应的数据长度。
对于一些很耗时的动态操作来说,这意味着,服务器要等到所有操作完成,才能发送数据,显然这样的效率不高。更好的处理方法是,产生一块数据,就发送一块,采用“流模式”(stream)取代“缓存模式”(buffer)。
因此,1.1 版规定可以不使用 Content-Length
字段,而使用"分块传输编码"(chunked transfer encoding)。只要请求或响应的头信息有 Transfer-Encoding
字段,就表明响应将由数量未定的数据块组成。
Transfer-Encoding: chunked
每个非空的数据块之前,会有一个 16 进制的数值,表示这个块的长度。最后是一个大小为 0 的块,表示本次响应的数据发送完了。下面是一个例子:
HTTP/1.1 200 OK Content-Type: text/plain Transfer-Encoding: chunked 25 This is the data in the first chunk 1C and this is the second one 3 con 8 sequence 0
虽然 HTTP 1.1 版允许复用 TCP 连接,但是同一个 TCP 连接里面,所有的数据通信是按次序进行的。服务器只有处理完一个响应,才会进行下一个响应。要是前面的响应特别慢,后面就会有许多请求排队等着。这称为"队头堵塞"(Head-of-line blocking)。
为了避免这个问题,只有两种方法:
这导致了很多的网页优化技巧,比如合并脚本和样式表、将图片嵌入 CSS 代码、域名分片(domain sharding)等等。如果 HTTP 协议设计得更好一些,这些额外的工作是可以避免的。
2009 年,谷歌公开了自行研发的 SPDY 协议,主要解决 HTTP/1.1 效率不高的问题。
这个协议在 Chrome 浏览器上证明可行以后,就被当作 HTTP/2 的基础,主要特性都在 HTTP/2 之中得到继承。
2015年,HTTP/2 发布。它不叫 HTTP/2.0,是因为标准委员会不打算再发布子版本了,下一个新版本将是 HTTP/3。
HTTP/1.1 版的头信息肯定是文本(ASCII 编码),数据体可以是文本,也可以是二进制。HTTP/2 则是一个彻底的二进制协议,头信息和数据体都是二进制,并且统称为"帧"(frame):头信息帧和数据帧。
二进制协议的一个好处是,可以定义额外的帧。HTTP/2 定义了近十种帧,为将来的高级应用打好了基础。如果使用文本实现这种功能,解析数据将会变得非常麻烦,二进制解析则方便得多。
HTTP/2 复用 TCP 连接,在一个连接里,客户端和浏览器都可以同时发送多个请求或响应,而且不用按照顺序一一对应,这样就避免了“队头堵塞”。
举例来说,在一个 TCP 连接里面,服务器同时收到了 A 请求和 B 请求,于是先响应 A 请求,结果发现处理过程非常耗时,于是就发送 A 请求已经处理好的部分, 接着响应 B 请求,完成后,再发送 A 请求剩下的部分。
这样双向的、实时的通信,就叫做多工(Multiplexing)。
这是一个对比 HTTP1 和 HTTP2 资源加载的在线示例:https://http2.akamai.com/demo。
因为 HTTP/2 的数据包是不按顺序发送的,同一个连接里面连续的数据包,可能属于不同的响应。因此,必须要对数据包做标记,指出它属于哪个响应。
HTTP/2 将每个请求或响应的所有数据包,称为一个数据流(stream)。每个数据流都有一个独一无二的编号。数据包发送的时候,都必须标记数据流 ID,用来区分它属于哪个数据流。另外还规定,客户端发出的数据流,ID 一律为奇数,服务器发出的,ID 为偶数。
数据流发送到一半的时候,客户端和服务器都可以发送信号(RST_STREAM帧),取消这个数据流。1.1 版取消数据流的唯一方法,就是关闭 TCP 连接。这就是说,HTTP/2 可以取消某一次请求,同时保证 TCP 连接还打开着,可以被其他请求使用。
客户端还可以指定数据流的优先级。优先级越高,服务器就会越早响应。
HTTP 协议不带有状态,每次请求都必须附上所有信息。所以,请求的很多字段都是重复的,比如 Cookie 和 User Agent,一模一样的内容,每次请求都必须附带,这会浪费很多带宽,也影响速度。
HTTP/2 对这一点做了优化,引入了头信息压缩机制(header compression)。一方面,头信息使用 gzip 或 compress 压缩后再发送;另一方面,客户端和服务器同时维护一张头信息表,所有字段都会存入这个表,生成一个索引号,以后就不发送同样字段了,只发送索引号,这样就提高速度了。
HTTP/2 允许服务器未经请求,主动向客户端发送资源,这叫做服务器推送(server push)。
常见场景是客户端请求一个网页,这个网页里面包含很多静态资源。正常情况下,客户端必须收到网页后,解析 HTML 源码,发现有静态资源,再发出静态资源请求。其实,服务器可以预期到客户端请求网页后,很可能会再请求静态资源,所以就主动把这些静态资源随着网页一起发给客户端了。
https://developers.google.com/web/fundamentals/performance/http2?hl=zh-cn
URL 重定向,也称为 URL 转发,是一种当实际资源,如单个页面、表单或者整个 Web 应用被迁移到新的 URL 下的时候,保持(原有)链接可用的技术。HTTP 协议提供了一种特殊形式的响应—— HTTP 重定向(HTTP redirects)来执行此类操作。
重定向可实现许多目标:
在 HTTP 协议中,重定向操作由服务器通过发送特殊的响应(即 redirects)而触发。HTTP 协议的重定向响应的状态码为 3xx 。
浏览器在接收到重定向响应的时候,会采用该响应提供的新的 URL ,并立即进行加载;大多数情况下,除了会有一小部分性能损失之外,重定向操作对于用户来说是不可见的。
不同类型的重定向映射可以划分为三个类别:
这种重定向操作是永久性的。它表示原 URL 不应再被使用,而应该优先选用新的 URL。搜索引擎机器人会在遇到该状态码时触发更新操作,在其索引库中修改与该资源相关的 URL 。
编码 | 含义 | 处理方法 | 典型应用场景 |
---|---|---|---|
301 | Moved Permanently | GET 方法不会发生变更,其他方法有可能会变更为 GET 方法 | 网站重构。 |
308 | Permanent Redirect | 方法和消息主体都不发生变化。 | 网站重构,用于非GET方法。(with non-GET links/operations) |
有时候请求的资源无法从其标准地址访问,但是却可以从另外的地方访问。在这种情况下可以使用临时重定向。
搜索引擎不会记录该新的、临时的链接。在创建、更新或者删除资源的时候,临时重定向也可以用于显示临时性的进度页面。
编码 | 含义 | 处理方法 | 典型应用场景 |
---|---|---|---|
302 | Found | GET 方法不会发生变更,其他方法有可能会变更为 GET 方法。 | 由于不可预见的原因该页面暂不可用。在这种情况下,搜索引擎不会更新它们的链接。 |
303 | See Other | GET 方法不会发生变更,其他方法会变更为 GET 方法(消息主体会丢失)。 | 用于PUT 或 POST 请求完成之后进行页面跳转来防止由于页面刷新导致的操作的重复触发。 |
307 | Temporary Redirect | 方法和消息主体都不发生变化。 | 由于不可预见的原因该页面暂不可用。在这种情况下,搜索引擎不会更新它们的链接。当站点支持非 GET 方法的链接或操作的时候,该状态码优于 302 状态码。 |
除了上述两种常见的重定向之外,还有两种特殊的重定向。304
(Not Modified,资源未被修改)会使页面跳转到本地陈旧的缓存版本当中,而 300
(Multiple Choice,多项选择) 则是一种手工重定向:以 Web 页面形式呈现在浏览器中的消息主体包含了一个可能的重定向链接的列表,用户可以从中进行选择。
编码 | 含义 | 典型应用场景 |
---|---|---|
300 | Multiple Choice | 不常用:所有的选项在消息主体的 HTML 页面中列出。鼓励在 Link 头部加入机器可读的 rel=alternate |
304 | Not Modified | 发送用于重新验证的条件请求。表示缓存的响应仍然是新鲜的并且可以使用。 |
数据压缩是提高 Web 站点性能的一种重要手段。对于有些文件来说,高达 70% 的压缩比率可以大大减低对于带宽的需求。随着时间的推移,压缩算法的效率也越来越高,同时也有新的压缩算法被发明出来,应用在客户端与服务器端。
这里所说的压缩指的是去除换行空格之类的压缩,文件内容不变。
浏览器和服务器之间会使用主动协商机制。浏览器发送 Accept-Encoding 首部,其中包含有它所支持的压缩算法,以及各自的优先级,服务器则从中选择一种,使用该算法对响应的消息主体进行压缩,并且发送 Content-Encoding 首部来告知浏览器它选择了哪一种算法。
由于该内容协商过程是基于编码类型来选择资源的展现形式的,在响应中, Vary 首部中至少要包含 Accept-Encoding ;这样的话,缓存服务器就可以对资源的不同展现形式进行缓存。
下面是一个请求响应的 HTTP 报文示例:
客户端通过请求头告诉服务端自己支持哪些压缩算法。
GET /bundle.js HTTP/1.1
Accept-Encoding: gzip, deflate, br
...
服务端告诉客户端可以提供的压缩算法,并按照该算法响应。
HTTP/1.1 200 OK
Content-Encoding: gzip
Vary: Accept-Encoding
...
可以通过 F12 的 network 面板的 Content-Encoding
查看资源使用的哪种压缩算法。
注意:Gzip 是在传输的过程中进行动态压缩,需要一个耗时的操作,所以 gzip一般是对一些小的文本进行压缩,而对于图片、视频等资源就需要进行提前压缩。
在后续《图片优化》章节说明。
HTTP 协议不带有状态,每次请求都必须附上所有信息。所以,请求的很多字段都是重复的,比如 Cookie 和 User Agent,一模一样的内容,每次请求都必须附带,这会浪费很多带宽,也影响速度。
HTTP/2 对这一点做了优化,引入了头信息压缩机制(header compression)。一方面,头信息使用 gzip 或 compress 压缩后再发送;另一方面,客户端和服务器同时维护一张头信息表,所有字段都会存入这个表,生成一个索引号,以后就不发送同样字段了,只发送索引号,这样就提高速度了。
前面我们介绍了 HTTP 协议中的 Accept-Encoding/Content-Encoding
机制。这套机制可以很好地用于文本类响应正文的压缩,可以大幅减少网络传输,从而一直被广泛使用。但 HTTP 请求的发起方(例如浏览器),无法事先知晓要访问的服务端是否支持解压,所以现阶段的浏览器没有压缩请求正文。
有一些通讯协议基于 HTTP 做了扩展,他们的客户端和服务端是专用的,可以放心大胆地压缩请求正文。例如 WebDAV 客户端就是这样。
实际的 Web 项目中,会存在请求正文非常大的场景,例如发表长篇博客,上报用于调试的网络数据等等。这些数据如果能在本地压缩后再提交,就可以节省网络流量、减少传输时间。
本文介绍如何对 HTTP 请求正文进行压缩,包含如何在服务端解压、如何在客户端压缩两个部分。
开始之前,先来介绍本文涉及的三种数据压缩格式:
Content-Encoding 中的 deflate,实际上是 ZLIB。为了清晰,本文将 DEFLATE 称之为 RAW DEFLATE,ZLIB 和 GZIP 都是 RAW DEFLATE 的不同 Wrapper。
下面是一个简单示例,使用 pako 在客户端压缩请求体,在服务端使用 zlib 解压请求体。
(1)在客户端使用 pako 压缩请求正文数据
var rawBody = 'content=test'; var rawLen = rawBody.length; var pako = require('pako'); var bufBody = new Uint8Array(rawLen); for(var i = 0; i < rawLen; i++) { bufBody[i] = rawBody.charCodeAt(i); } var format = 'gzip'; // gzip | deflate | deflate-raw var buf; switch(format) { case 'gzip': buf = pako.gzip(bufBody); break; case 'deflate': buf = pako.deflate(bufBody); break; case 'deflate-raw': buf = pako.deflateRaw(bufBody); break; } var xhr = new XMLHttpRequest(); xhr.open('POST', '/node/'); xhr.setRequestHeader('Content-Encoding', format); xhr.setRequestHeader('Content-Type', 'application/x-www-form-urlencoded; charset=UTF-8'); xhr.send(buf);
(2)在 Node 中使用 zlib 解压请求正文中的数据
var http = require('http'); var zlib = require('zlib'); http.createServer(function (req, res) { var zlibStream; var encoding = req.headers['content-encoding']; switch(encoding) { case 'gzip': zlibStream = zlib.createGunzip(); break; case 'deflate': zlibStream = zlib.createInflate(); break; case 'deflate-raw': zlibStream = zlib.createInflateRaw(); break; } res.writeHead(200, {'Content-Type': 'text/plain'}); req.pipe(zlibStream).pipe(res); }).listen(8361, '127.0.0.1');
如果数据量非常大,压缩本身也是很耗时间的,所以一般还是针对文本类的数据。
这种方式需要手动进行压缩解压,实际使用还需要匹配具体的服务器,如 Nginx、Apache 等。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。