主頁 > 資料庫 > 單表千萬行資料庫 LIKE 搜索優化手記

單表千萬行資料庫 LIKE 搜索優化手記

2020-09-10 06:13:25 資料庫

我們經常在資料庫中使用 LIKE 運算子來完成對資料的模糊搜索,LIKE 運算子用于在 WHERE 子句中搜索列中的指定模式,

如果需要查找客戶表中所有姓氏是“張”的資料,可以使用下面的 SQL 陳述句:

SELECT * FROM Customer WHERE Name LIKE '張%'

如果需要查找客戶表中所有手機尾號是“1234”的資料,可以使用下面的 SQL 陳述句:

SELECT * FROM Customer WHERE Phone LIKE '%123456'

如果需要查找客戶表中所有名字中包含“秀”的資料,可以使用下面的 SQL 陳述句:

SELECT * FROM Customer WHERE Name LIKE '%秀%'

以上三種分別對應了:左前綴匹配、右后綴匹配和模糊查詢,并且對應了不同的查詢優化方式,

資料概覽

現在有一張名為 tbl_like 的資料表,表中包含了四大名著中的全部陳述句,資料條數上千萬:

左前綴匹配查詢優化

如果要查詢所有以“孫悟空”開頭的句子,可以使用下面的 SQL 陳述句:

SELECT * FROM tbl_like WHERE txt LIKE '孫悟空%'

SQL Server 資料庫比較強大,耗時八百多毫秒,并不算快:

我們可以在 txt 列上建立索引,用于優化該查詢:

CREATE INDEX tbl_like_txt_idx ON [tbl_like] ( [txt] )

應用索引后,查詢速度大大加快,僅需 5 毫秒:

由此可知:對于左前綴匹配,我們可以通過增加索引的方式來加快查詢速度,

右后綴匹配查詢優化

在右后綴匹配查詢中,上述索引對右后綴匹配并不生效,使用以下 SQL 陳述句查詢所有以“孫悟空”結尾的資料:

SELECT * FROM tbl_like WHERE txt LIKE '%孫悟空'

效率十分低下,耗時達到了 2.5秒:

我們可以采用“以空間換時間”的方式來解決右后綴匹配查詢時效率低下的問題,

簡單來說,我們可以將字串倒過來,讓右后綴匹配變成左前綴匹配,以“防著古海回來再抓孫悟空”為例,將其倒置之后的字串是“空悟孫抓再來回海古著防”,當需要查找結尾為“孫悟空”的資料時,去查找以“空悟孫”開頭的資料即可,

具體做法是:在該表中增加“txt_back”列,將“txt”列的值倒置后,填入“txt_back”列中,最后為 “txt_back”列增加索引,

ALTER TABLE tbl_like ADD txt_back nvarchar(1000);-- 增加資料列
UPDATE tbl_like SET txt_back = reverse(txt); -- 填充 txt_back 的值
CREATE INDEX tbl_like_txt_back_idx ON [tbl_like] ( [txt_back] );--  txt_back 列增加索引

資料表調整之后,我們的 SQL 陳述句也需要調整:

SELECT * FROM tbl_like WHERE txt_back LIKE '空悟孫%'

此番操作下來,執行速度就非常迅速了:

由此可知:對于右后綴匹配,我們可以建立倒序欄位將右后綴匹配變成左前綴匹配來加快查詢速度,

模糊查詢優化

在查詢所有包含“悟空”的陳述句時,我們使用以下的 SQL 陳述句:

SELECT * FROM tbl_like WHERE txt LIKE '%悟空%'

該陳述句無法利用到索引,所以查詢非常慢,需要 2.7 秒:

遺憾的是,我們并沒有一個簡單的辦法可以優化這個查詢,但沒有簡單的辦法,并不代表沒有辦法,解決辦法之一就是:分詞+倒排索引,

分詞就是將連續的字序列按照一定的規范重新組合成詞序列的程序,我們知道,在英文的行文中,單詞之間是以空格作為自然分界符的,而中文只是字、句和段能通過明顯的分界符來簡單劃界,唯獨詞沒有一個形式上的分界符,雖然英文也同樣存在短語的劃分問題,不過在詞這一層上,中文比之英文要復雜得多、困難得多,

倒排索引源于實際應用中需要根據屬性的值來查找記錄,這種索引表中的每一項都包括一個屬性值和具有該屬性值的各記錄的地址,由于不是由記錄來確定屬性值,而是由屬性值來確定記錄的位置,因而稱為倒排索引(inverted index),帶有倒排索引的檔案我們稱為倒排索引檔案,簡稱倒排檔案(inverted file),

以上兩段讓人摸不著頭腦的文字來自百度百科,你可以和我一樣選擇忽略他,

我們不需要特別高超的分詞技巧,因為漢語的特性,我們只需“二元”分詞即可,

所謂二元分詞,即將一段話中的文字每兩個字符作為一個詞來分詞,還是以“防著古海回來再抓孫悟空”這句話為例,進行二元分詞之后,得到的結果是:防著、著古、古海,海回,回來,來再,再抓,抓孫,孫悟,悟空,使用 C# 簡單實作一下:

public static List<String> Cut(String str)
{
       var list = new List<String>();
       var buffer = new Char[2];
       for (int i = 0; i < str.Length - 1; i++)
       {
             buffer[0] = str[i];
             buffer[1] = str[i + 1];
             list.Add(new String(buffer));
       }
       return list;
}

測驗一下結果:

我們需要一張資料表,把分詞后的詞條和原始資料對應起來,為了獲得更好的效率,我們還用到了覆寫索引:

CREATE TABLE tbl_like_word (
  [id] int identity,
  [rid] int NOT NULL,
  [word] nchar(2) NOT NULL,
  PRIMARY KEY CLUSTERED ([id])
);
CREATE INDEX tbl_like_word_word_idx ON tbl_like_word(word,rid);-- 覆寫索引(Covering index

以上 SQL 陳述句創建了一張名為 ”tbl_like_word“的資料表,并為其 ”word“和“rid”列增加了聯合索引,這就是我們的倒排表,接下來就是為其填充資料,

為了便于演示,筆者使用了 LINQPad 來做資料處理,對該工具感興趣的朋友,可以參看筆者之前的文章:《.NET 程式員的 Playground :LINQPad》,文章中對 LINQPad 做了一個簡要的介紹,鏈接地址是:https://www.coderbusy.com/archives/432.html ,

我們需要先用 LINQPad 自帶的資料庫鏈接功能鏈接至資料庫,之后就可以在 LINQPad 中與資料庫互動了,首先按 Id 順序每 3000 條一批讀取 tbl_like 表中的資料,對 txt 欄位的值分詞后生成 tbl_like_word 所需的資料,之后將資料批量入庫,完整的 LINQPad 代碼如下:

void Main()
{
       var maxId = 0;
       const int limit = 3000;
       var wordList = new List<Tbl_like_word>();
       while (true)
       {
             $"開始處理:{maxId} 之后 {limit} 條".Dump("Log");
             //分批次讀取
             var items = Tbl_likes
             .Where(i => i.Id > maxId)
             .OrderBy(i => i.Id)
             .Select(i => new { i.Id, i.Txt })
             .Take(limit)
             .ToList();
             if (items.Count == 0)
             {
                    break;
             }
             //逐條生產
             foreach (var item in items)
             {
                    maxId = item.Id;
                    //單個字的資料跳過
                    if (item.Txt.Length < 2)
                    {
                           continue;
                    }
                    var words = Cut(item.Txt);
                    wordList.AddRange(words.Select(str => new Tbl_like_word {  Rid = item.Id, Word = str }));
             }
       }
       "處理完畢,開始入庫,".Dump("Log");
       this.BulkInsert(wordList);
       SaveChanges();
       "入庫完成".Dump("Log");
}
// Define other methods, classes and namespaces here
public static List<String> Cut(String str)
{
       var list = new List<String>();
       var buffer = new Char[2];
       for (int i = 0; i < str.Length - 1; i++)
       {
             buffer[0] = str[i];
             buffer[1] = str[i + 1];
             list.Add(new String(buffer));
       }
       return list;
}
以上 LINQPad 腳本使用 Entity Framework Core 連接到了資料庫,并參考了 NuGet 包“EFCore.BulkExtensions”來做資料批量插入,

之后,就可以把查詢安排上,先查詢倒排索引,然后關聯到主表:

SELECT TOP 10 * FROM tbl_like WHERE id IN (
SELECT rid FROM tbl_like_word WHERE word IN ('悟空'))

查詢速度很快,僅需十幾毫秒:

因為我們將所有的陳述句分成了二字符詞組,所以當需要對單個字符模糊查詢時,直接使用 LIKE 是一個更加經濟的方案,如果需要查詢的字符多于兩個時,就需要對查詢詞進行分詞,如需查詢“東土大唐”一詞,構造出的查詢陳述句可能會是這樣:

SELECT TOP 10*FROM tbl_like WHERE id IN (
SELECT rid FROM tbl_like_word WHERE word IN ('東土','土大','大唐'))

但是,該查詢并不符合我們的預期,因為其將只包含“土大”的陳述句也篩選了出來:

我們可以采取一些技巧來解決這個問題,比如先 GROUP 一下:

SELECT TOP
    10 *
FROM
    tbl_like
WHERE
    id IN (
    SELECT
        rid
    FROM
        tbl_like_word
    WHERE
        word IN ( '東土', '土大', '大唐' )
    GROUP BY
        rid
    HAVING
    COUNT ( DISTINCT ( word ) ) = 3
    )

在上述 SQL 陳述句中,我們對 rid 進行了分組,并篩選出了不重復的詞組數量是三個(即我們的查詢詞數量)的,于是,我們可以得到正確的結果:

由此可知:對于模糊查詢,我們可以通過分詞+倒排索引的方式優化查詢速度,

后記

雖然在講述時使用的是 SQL Server 資料庫,但是以上優化經驗對大部分關系型資料庫來說是通用的,比如 MySQL、Oracle 等,

如果你和筆者一樣在實際作業中使用 PostgreSQL 資料庫,那么在做倒排索引時可以直接使用陣列型別并配置 GiN 索引,以獲得更好的開發和使用體驗,需要注意的是,雖然 PostgreSQL 支持函式索引,但是如果對函式結果進行 LIKE 篩選時,索引并不會命中,

對于 SQLite 這種小型資料庫,模糊搜索并不能使用到索引,所以左前綴搜索和右后綴搜索的優化方式對其不生效,不過,一般我們不會使用 SQLite 去存盤大量的資料,盡管分詞+倒排索引的優化方式也可以在 SQLite 中實作,

轉載請註明出處,本文鏈接:https://www.uj5u.com/shujuku/1086.html

標籤:大數據

上一篇:滴滴資料倉庫指標體系建設實踐

下一篇:滴滴Ceph分布式存盤系統優化之鎖優化

標籤雲
其他(157675) Python(38076) JavaScript(25376) Java(17977) C(15215) 區塊鏈(8255) C#(7972) AI(7469) 爪哇(7425) MySQL(7132) html(6777) 基礎類(6313) sql(6102) 熊猫(6058) PHP(5869) 数组(5741) R(5409) Linux(5327) 反应(5209) 腳本語言(PerlPython)(5129) 非技術區(4971) Android(4554) 数据框(4311) css(4259) 节点.js(4032) C語言(3288) json(3245) 列表(3129) 扑(3119) C++語言(3117) 安卓(2998) 打字稿(2995) VBA(2789) Java相關(2746) 疑難問題(2699) 细绳(2522) 單片機工控(2479) iOS(2429) ASP.NET(2402) MongoDB(2323) 麻木的(2285) 正则表达式(2254) 字典(2211) 循环(2198) 迅速(2185) 擅长(2169) 镖(2155) 功能(1967) .NET技术(1958) Web開發(1951) python-3.x(1918) HtmlCss(1915) 弹簧靴(1913) C++(1909) xml(1889) PostgreSQL(1872) .NETCore(1853) 谷歌表格(1846) Unity3D(1843) for循环(1842)

熱門瀏覽
  • GPU虛擬機創建時間深度優化

    **?桔妹導讀:**GPU虛擬機實體創建速度慢是公有云面臨的普遍問題,由于通常情況下創建虛擬機屬于低頻操作而未引起業界的重視,實際生產中還是存在對GPU實體創建時間有苛刻要求的業務場景。本文將介紹滴滴云在解決該問題時的思路、方法、并展示最終的優化成果。 從公有云服務商那里購買過虛擬主機的資深用戶,一 ......

    uj5u.com 2020-09-10 06:09:13 more
  • 可編程網卡芯片在滴滴云網路的應用實踐

    **?桔妹導讀:**隨著云規模不斷擴大以及業務層面對延遲、帶寬的要求越來越高,采用DPDK 加速網路報文處理的方式在橫向縱向擴展都出現了局限性。可編程芯片成為業界熱點。本文主要講述了可編程網卡芯片在滴滴云網路中的應用實踐,遇到的問題、帶來的收益以及開源社區貢獻。 #1. 資料中心面臨的問題 隨著滴滴 ......

    uj5u.com 2020-09-10 06:10:21 more
  • 滴滴資料通道服務演進之路

    **?桔妹導讀:**滴滴資料通道引擎承載著全公司的資料同步,為下游實時和離線場景提供了必不可少的源資料。隨著任務量的不斷增加,資料通道的整體架構也隨之發生改變。本文介紹了滴滴資料通道的發展歷程,遇到的問題以及今后的規劃。 #1. 背景 資料,對于任何一家互聯網公司來說都是非常重要的資產,公司的大資料 ......

    uj5u.com 2020-09-10 06:11:05 more
  • 滴滴AI Labs斬獲國際機器翻譯大賽中譯英方向世界第三

    **桔妹導讀:**深耕人工智能領域,致力于探索AI讓出行更美好的滴滴AI Labs再次斬獲國際大獎,這次獲獎的專案是什么呢?一起來看看詳細報道吧! 近日,由國際計算語言學協會ACL(The Association for Computational Linguistics)舉辦的世界最具影響力的機器 ......

    uj5u.com 2020-09-10 06:11:29 more
  • MPP (Massively Parallel Processing)大規模并行處理

    1、什么是mpp? MPP (Massively Parallel Processing),即大規模并行處理,在資料庫非共享集群中,每個節點都有獨立的磁盤存盤系統和記憶體系統,業務資料根據資料庫模型和應用特點劃分到各個節點上,每臺資料節點通過專用網路或者商業通用網路互相連接,彼此協同計算,作為整體提供 ......

    uj5u.com 2020-09-10 06:11:41 more
  • 滴滴資料倉庫指標體系建設實踐

    **桔妹導讀:**指標體系是什么?如何使用OSM模型和AARRR模型搭建指標體系?如何統一流程、規范化、工具化管理指標體系?本文會對建設的方法論結合滴滴資料指標體系建設實踐進行解答分析。 #1. 什么是指標體系 ##1.1 指標體系定義 指標體系是將零散單點的具有相互聯系的指標,系統化的組織起來,通 ......

    uj5u.com 2020-09-10 06:12:52 more
  • 單表千萬行資料庫 LIKE 搜索優化手記

    我們經常在資料庫中使用 LIKE 運算子來完成對資料的模糊搜索,LIKE 運算子用于在 WHERE 子句中搜索列中的指定模式。 如果需要查找客戶表中所有姓氏是“張”的資料,可以使用下面的 SQL 陳述句: SELECT * FROM Customer WHERE Name LIKE '張%' 如果需要 ......

    uj5u.com 2020-09-10 06:13:25 more
  • 滴滴Ceph分布式存盤系統優化之鎖優化

    **桔妹導讀:**Ceph是國際知名的開源分布式存盤系統,在工業界和學術界都有著重要的影響。Ceph的架構和演算法設計發表在國際系統領域頂級會議OSDI、SOSP、SC等上。Ceph社區得到Red Hat、SUSE、Intel等大公司的大力支持。Ceph是國際云計算領域應用最廣泛的開源分布式存盤系統, ......

    uj5u.com 2020-09-10 06:14:51 more
  • es~通過ElasticsearchTemplate進行聚合~嵌套聚合

    之前寫過《es~通過ElasticsearchTemplate進行聚合操作》的文章,這一次主要寫一個嵌套的聚合,例如先對sex集合,再對desc聚合,最后再對age求和,共三層嵌套。 Aggregations的部分特性類似于SQL語言中的group by,avg,sum等函式,Aggregation ......

    uj5u.com 2020-09-10 06:14:59 more
  • 爬蟲日志監控 -- Elastc Stack(ELK)部署

    傻瓜式部署,只需替換IP與用戶 導讀: 現ELK四大組件分別為:Elasticsearch(核心)、logstash(處理)、filebeat(采集)、kibana(可視化) 下載均在https://www.elastic.co/cn/downloads/下tar包,各組件版本最好一致,配合fdm會 ......

    uj5u.com 2020-09-10 06:15:05 more
最新发布
  • day02-2-商鋪查詢快取

    功能02-商鋪查詢快取 3.商鋪詳情快取查詢 3.1什么是快取? 快取就是資料交換的緩沖區(稱作Cache),是存盤資料的臨時地方,一般讀寫性能較高。 快取的作用: 降低后端負載 提高讀寫效率,降低回應時間 快取的成本: 資料一致性成本 代碼維護成本 運維成本 3.2需求說明 如下,當我們點擊商店詳 ......

    uj5u.com 2023-04-20 08:33:24 more
  • MySQL中binlog備份腳本分享

    關于MySQL的二進制日志(binlog),我們都知道二進制日志(binlog)非常重要,尤其當你需要point to point災難恢復的時侯,所以我們要對其進行備份。關于二進制日志(binlog)的備份,可以基于flush logs方式先切換binlog,然后拷貝&壓縮到到遠程服務器或本地服務器 ......

    uj5u.com 2023-04-20 08:28:06 more
  • day02-短信登錄

    功能實作02 2.功能01-短信登錄 2.1基于Session實作登錄 2.1.1思路分析 2.1.2代碼實作 2.1.2.1發送短信驗證碼 發送短信驗證碼: 發送驗證碼的介面為:http://127.0.0.1:8080/api/user/code?phone=xxxxx<手機號> 請求方式:PO ......

    uj5u.com 2023-04-20 08:27:27 more
  • 快取與資料庫雙寫一致性幾種策略分析

    本文將對幾種快取與資料庫保證資料一致性的使用方式進行分析。為保證高并發性能,以下分析場景不考慮執行的原子性及加鎖等強一致性要求的場景,僅追求最終一致性。 ......

    uj5u.com 2023-04-20 08:26:48 more
  • sql陳述句優化

    問題查找及措施 問題查找 需要找到具體的代碼,對其進行一對一優化,而非一直把關注點放在服務器和sql平臺 降低簡化每個事務中處理的問題,盡量不要讓一個事務拖太長的時間 例如檔案上傳時,應將檔案上傳這一步放在事務外面 微軟建議 4.啟動sql定時執行計劃 怎么啟動sqlserver代理服務-百度經驗 ......

    uj5u.com 2023-04-20 08:26:35 more
  • 云時代,MySQL到ClickHouse資料同步產品對比推薦

    ClickHouse 在執行分析查詢時的速度優勢很好的彌補了MySQL的不足,但是對于很多開發者和DBA來說,如何將MySQL穩定、高效、簡單的同步到 ClickHouse 卻很困難。本文對比了 NineData、MaterializeMySQL(ClickHouse自帶)、Bifrost 三款產品... ......

    uj5u.com 2023-04-20 08:26:29 more
  • sql陳述句優化

    問題查找及措施 問題查找 需要找到具體的代碼,對其進行一對一優化,而非一直把關注點放在服務器和sql平臺 降低簡化每個事務中處理的問題,盡量不要讓一個事務拖太長的時間 例如檔案上傳時,應將檔案上傳這一步放在事務外面 微軟建議 4.啟動sql定時執行計劃 怎么啟動sqlserver代理服務-百度經驗 ......

    uj5u.com 2023-04-20 08:25:13 more
  • Redis 報”OutOfDirectMemoryError“(堆外記憶體溢位)

    Redis 報錯“OutOfDirectMemoryError(堆外記憶體溢位) ”問題如下: 一、報錯資訊: 使用 Redis 的業務介面 ,產生 OutOfDirectMemoryError(堆外記憶體溢位),如圖: 格式化后的報錯資訊: { "timestamp": "2023-04-17 22: ......

    uj5u.com 2023-04-20 08:24:54 more
  • day02-2-商鋪查詢快取

    功能02-商鋪查詢快取 3.商鋪詳情快取查詢 3.1什么是快取? 快取就是資料交換的緩沖區(稱作Cache),是存盤資料的臨時地方,一般讀寫性能較高。 快取的作用: 降低后端負載 提高讀寫效率,降低回應時間 快取的成本: 資料一致性成本 代碼維護成本 運維成本 3.2需求說明 如下,當我們點擊商店詳 ......

    uj5u.com 2023-04-20 08:24:03 more
  • day02-短信登錄

    功能實作02 2.功能01-短信登錄 2.1基于Session實作登錄 2.1.1思路分析 2.1.2代碼實作 2.1.2.1發送短信驗證碼 發送短信驗證碼: 發送驗證碼的介面為:http://127.0.0.1:8080/api/user/code?phone=xxxxx<手機號> 請求方式:PO ......

    uj5u.com 2023-04-20 08:23:11 more