您的位置:首页 > 产品设计 > UI/UE

为什么一个Http Header中的空格会被骇客利用 - HTTP request smuggling

2019-10-15 22:22 2401 查看

 

导读:本文通过一个Netty的一个issue来学习什么是 "http request smuggling"、它产生的原因与解决方法,从而对http协议有进一步了解。

前言

前阵子在Netty的issue里有人提了一个问题 http request smuggling, cause by obfuscating TE header ,描述了一个Netty的http解码器一直以来都存在的问题:没有正确地分割http header field名称,可能导致被骇客利用。

引起问题的那段code很简单,它的作用是从一个字符串中分割出header field-name:

               
for (nameEnd = nameStart; nameEnd < length; nameEnd ++) {
           char ch = sb.charAt(nameEnd);
           if (ch == ':' || Character.isWhitespace(ch)) {
               break;
          }
}
   

这段有什么问题呢?它不应该把空格也当成header field-name的终止符,这会导致

Transfer-Encoding[空格]: chunked
 被解析为
Transfer-Encoding
而不是
Transfer-Encoding[空格]

乍一看可能让很多人迷惑,一个Header Field名称识别错了为什么会被骇客攻击呢?大不了就缺了一个Header嘛。但真实世界,却没这么简单。这事,还得从现代的web服务架构说起。

(注:本文所有的"Http协议"都指1.1版本以后)

起因

链式处理

通常现代的Web服务器并非单体存在的,而是由一系列的程序组成(比如nginx -> tomcat),为了实现均衡负载、请求路由等等功能。这些系统都会解析Http协议来进行一系列处理,处理完后,会将对应的请求通过http协议分发链路中的下一个。

假设现在一个用户的请求到达逻辑服务器B的过程为:

用户 -> A -> B
。通常会有许多个用户连接到A,而为了减少连接建立的消耗,A到B的连接数实际上会少很多。如何用少量的连接服务于多个用户呢?我们知道HTTP/1.1协议通常是一个请求发出一个响应回来,然后再发起下一个请求这样串行处理的。实际上HTTP/1.1还有一个较少出现在公众视野里的HTTP pipelining的技术,可以批量发送请求,然后再批量获得响应(但是由于某些原因现代浏览器基本上没有启用这个功能)。A -> B 之间常用这种技术来获得性能的提升。

所以多个用户的请求往往会汇合在同一个连接中。

 

 

大家的请求都合在一起了,如何区分请求与请求之间的边界呢?接下来我们再来看看Http协议中的

Transfer-Encoding: chunked
Content-Length

Transfer-Encoding: chunked和Content-Length

Http协议通过

Transfer-Encoding: chunked
(以下简称TE)或
Content-Length
(以下简称CL)来确定entity的长度。

TE表示将数据以一系列分块的形式进行发送,在每一个分块的开头需要添加当前分块的长度,以十六进制的形式表示,后面紧跟着 '\r\n' ,之后是分块本身,后面也是'\r\n' 。终止块是一个常规的分块,不同之处在于其长度为0。

而CL通过直接指定entity的字节长度来完成同样的使命。

那么当它们两个同时出现在Http Header里时会发生什么呢?实际上Http协议规范有明确定义,当这两种确定长度的Header都存在时,应该优先使用TE,然后忽略CL。

看到这,结合上述那段不规范的header field-name解析代码,或许你想到了一些东西?假如一个包含了TE和CL的Http请求被处理了两次会发生什么?接下来,我们来看看具体的情况。

发送攻击请求

此时我们依旧使用

用户 -> A -> B
的例子。 这里我们假设B是存在问题的Netty,而A是一个正常的只识别CL的程序。一个包含了
Transfer-Encoding[空格]: chunked
Content-Length
的Http请求来了

POST / HTTP/1.1

Host: vulnerable-website.com

Content-Length: 8

Transfer-Encoding[空格]: chunked

 

0

 

FOR

然后又来了一个正常的用户请求

GET /my-info HTTP/1.1

Host: vulnerable-website.com

A

A识别到了CL为8,并将这两个请求合并到一个连接中一起传给B

B

B识别到了

Transfer-Encoding[空格]
,按照规则忽略了CL,此时B会怎么分割这两个请求呢:

请求1

POST / HTTP/1.1

Host: vulnerable-website.com

Content-Length: 8

Transfer-Encoding[空格]: chunked

 

0

请求2

FORGET /my-info HTTP/1.1

Host: vulnerable-website.com

这就糟糕了:服务端报了一个错,正常用户获得了一个400的响应。

 

(任何上下游识别请求的分界不一致的情况都会出现这样的问题)

如何避免这样的漏洞

  1. 避免重用连接,当然不可取。
  2. 使用HTTP/2作为系统间协议,此协议避免了http header的混淆。
  3. 使用同一种服务器作为上下游服务器。
  4. 大家都按规范来,不出BUG。

其中我们展开了解一下为什么HTTP/2可以避免这种情况

HTTP/2不会有含糊不清的Header

HTTP/2是一个二进制协议,致力于避免不必要的网络流量以及提高TCP连接的利用率等等。

它对于常用的Header使用了一个静态字典来压缩。比如

Content-Length
使用28来表示;`

Transfer-Encoding`使用57来表示。这样一来,各种实现就不会有歧义了。更多的定义详见HTTP/2关于Header静态表的定义

 

 

文献

  1. Hypertext Transfer Protocol (HTTP/1.1)关于Http Header Field的解析定义
  2. Transfer-Encoding - HTTP | MDN
  3. Content-Length - HTTP | MDN
  4. What is HTTP request smuggling? Tutorial & Examples
  5. HTTP/1.x 的连接管理 - HTTP | MDN
  6. HTTP/2关于Header静态表的定义
 
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐