SQL优化一 Merge Join vs. Hash Join vs. Nested Loop

发布于 2023-09-13 21:12:01 字数 6768 浏览 42 评论 0

本文介绍了 Merge Join,Hash Join,Nested Loop 这三种数据库 Join 方式的工作原理,并通过实验进一步说明了其适用范围。

Nested Loop,Hash Join,Merge Join 介绍

Nested Loop

对于被连接的数据子集较小的情况,Nested Loop 是个较好的选择。Nested Loop 就是扫描一个表(外表),每读到一条记录,就根据 Join 字段上的索引去另一张表(内表)里面查找,若 Join 字段上没有索引查询优化器一般就不会选择 Nested Loop。在 Nested Loop 中,内表(一般是带索引的大表)被外表(也叫“驱动表”,一般为小表——不紧相对其它表为小表,而且记录数的绝对值也较小,不要求有索引)驱动,外表返回的每一行都要在内表中检索找到与它匹配的行,因此整个查询返回的结果集不能太大(大于 1 万不适合)。

Hash Join

Hash Join 是做大数据集连接时的常用方式,优化器使用两个表中较小(相对较小)的表利用 Join Key 在内存中建立散列表,然后扫描较大的表并探测散列表,找出与 Hash 表匹配的行。
这种方式适用于较小的表完全可以放于内存中的情况,这样总成本就是访问两个表的成本之和。但是在表很大的情况下并不能完全放入内存,这时优化器会将它分割成若干不同的分区,不能放入内存的部分就把该分区写入磁盘的临时段,此时要求有较大的临时段从而尽量提高 I/O 的性能。它能够很好的工作于没有索引的大表和并行查询的环境中,并提供最好的性能。大多数人都说它是 Join 的重型升降机。Hash Join 只能应用于等值连接(如 WHERE A.COL3 = B.COL4),这是由 Hash 的特点决定的。

Merge Join

通常情况下 Hash Join 的效果都比排序合并连接要好,然而如果两表已经被排过序,在执行排序合并连接时不需要再排序了,这时 Merge Join 的性能会优于 Hash Join。Merge join 的操作通常分三步:

  1. 对连接的每个表做 table access full
  2. 对 table access full 的结果进行排序
  3. 进行 merge join 对排序结果进行合并

在全表扫描比索引范围扫描再进行表访问更可取的情况下,Merge Join 会比 Nested Loop 性能更佳。当表特别小或特别巨大的时候,实行全表访问可能会比索引范围扫描更有效。Merge Join 的性能开销几乎都在前两步。Merge Join 可适于于非等值 Join(>,<,>=,<=,但是不包含!=,也即<>)

Nested Loop,Hash JOin,Merge Join 对比

类别Nested LoopHash JoinMerge Join
使用条件任何条件等值连接(=)等值或非等值连接(>,<,=,>=,<=),‘<>’除外
相关资源CPU、磁盘 I/O内存、临时空间内存、临时空间
特点当有高选择性索引或进行限制性搜索时效率比较高,能够快速返回第一次的搜索结果。当缺乏索引或者索引条件模糊时,Hash Join 比 Nested Loop 有效。通常比 Merge Join 快。在数据仓库环境下,如果表的纪录数多,效率高。当缺乏索引或者索引条件模糊时,Merge Join 比 Nested Loop 有效。非等值连接时,Merge Join 比 Hash Join 更有效
缺点当索引丢失或者查询条件限制不够时,效率很低;当表的纪录数多时,效率低。为建立哈希表,需要大量内存。第一次的结果返回较慢。所有的表都需要排序。它为最优化的吞吐量而设计,并且在结果没有全部找到前不返回数据。

实验

本文所做实验均基于 PostgreSQL 9.3.5 平台

小于万条记录小表与大表 Join

一张记录数 1 万以下的小表 nbar.mse_test_test,一张大表 165 万条记录的大表 nbar.nbar_test,大表上建有索引

Query 1:等值 Join

select 
count(*)
from
mse_test_test,
nbar_test
where
mse_test_test.client_key = nbar_test.client_key;

Query 1 Test 1: 查询优化器自动选择 Nested Loop,耗时 784.845 ms

  如下图所示,执行器将小表 mse_test_test 作为外表(驱动表),对于其中的每条记录,通过大表(nbar_test)上的索引匹配相应记录。

Query 1 Test 2:强制使用 Hash Join,耗时 1731.836ms

如下图所示,执行器选择一张表将其映射成散列表,再遍历另外一张表并从散列表中匹配相应记录。

Query 1 Test 3:强制使用 Merge Join,耗时 4956.768 ms

如下图所示,执行器先分别对 mse_test_test 和 nbar_test 按 client_key 排序。其中 mse_test_test 使用快速排序,而 nbar_test 使用 external merge 排序,之后对二者进行 Merge Join。

Query 1 总结 1 :

通过对比 Query 1 Test 1Query 1 Test 2Query 1 Test 3 可以看出 Nested Loop 适用于结果集很小(一般要求小于一万条),并且内表在 Join 字段上建有索引(这点非常非常非常重要)。

在大表上创建聚簇索引

Query 1 Test 4:强制使用 Merge Join,耗时 1660.228 ms

如下图所示,执行器通过聚簇索引对大表(nbar_test)排序,直接通过快排对无索引的小表(mse_test_test)排序,之后对二才进行 Merge Join。

Query 1 总结 2:

通过对比 Query 1 Test 3Query 1 Test 4 可以看出,Merge Join 的主要开销是排序开销,如果能通过建立聚簇索引(如果 Query 必须显示排序),可以极大提高 Merge Join 的性能。从这两个实验可以看出,创建聚簇索引后,查询时间从 4956.768 ms 缩减到了 1815.238 ms。

在两表上同时创建聚簇索引

Query 1 Test 5:强制使用 Merge Join,耗时 2575.498 ms。

如下图所示,执行器通过聚簇索引对大表(nbar_test)和小表(mse_test_test)排序,之后才进行 Merge Join。

Query 1 总结 3:

对比 Query 1 Test 4Query 1 Test 5 ,可以看出二者唯一的不同在于对小表(mse_test_test)的访问方式不同,前者使用快排,后者因为聚簇索引的存在而使用 Index Only Scan,在表数据量比较小的情况下前者比后者效率更高。由此可看出如果通过索引排序再查找相应的记录比直接在原记录上排序效率还低,则直接在原记录上排序后 Merge Join 效率更高。

删除 nbar_test 上的索引

Query 1 Test 6:强制使用 Hash Join,耗时 1815.238 ms

时间与 Query 1 Test 2 几乎相等。

如下图所示,与 Query 1 Test 2 相同,执行器选择一张表将其映射成散列表,再遍历另外一张表并从散列表中匹配相应记录。

Query 1 总结 4 :通过对比 Query 1 Test 2Query 1 Test 6 可以看出 Hash Join 不要求表在 Join 字段上建立索引。

两大表 Join

mse_test 约 100 万条记录,nbar_test 约 165 万条记录

Query 2:不等值 Join

select 
count(*)
from
mse_test,
nbar_test
where
mse_test.client_key = nbar_test.client_key
and
mse_test.client_key between 100000 and 300000;

Query 2 Test 1:强制使用 Hash Join,失败

本次实验通过设置 enable_hashjoin=trueenable_nestloop=falseenable_mergejoin=false 来试图强制使用 Hash Join,但是失败了。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据

关于作者

0 文章
0 评论
23 人气
更多

推荐作者

qq_E2Iff7

文章 0 评论 0

Archangel

文章 0 评论 0

freedog

文章 0 评论 0

Hunk

文章 0 评论 0

18819270189

文章 0 评论 0

wenkai

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文