欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品

主頁 > 知識庫 > PostgreSQL 慢查詢SQL跟蹤操作

PostgreSQL 慢查詢SQL跟蹤操作

熱門標簽:濟南外呼網絡電話線路 天津開發區地圖標注app 移動外呼系統模擬題 電銷機器人能補救房產中介嗎 地圖標注要花多少錢 電話機器人怎么換人工座席 400電話申請客服 江蘇400電話辦理官方 廣州電銷機器人公司招聘

PostgreSQL 開啟慢SQL捕獲在排查問題時是個很有效的手段。根據慢SQL讓我在工作中真正解決了實際問題,很有幫助。

PostgreSQL 日志支持的輸出格式有 stderr(默認)、csvlog 、syslog

一般的錯誤跟蹤,只需在配置文件 【postgresql.conf】簡單設置幾個參數,當然還有錯誤級別等要設置。

logging_collector = on
log_destination = 'stderr'
log_directory = 'log'
log_filename = 'postgresql-%Y-%m-%d_%H%M%S.log'
SELECT 
   name,
   setting,
   vartype,
   boot_val,
   reset_val 
FROM pg_settings 
where name in('logging_collector','log_destination','log_directory','log_filename');

默認的跟蹤日志記錄在 pgdate/log 中,如 /usr/local/pgsql/data/log 。

其他幾個重要參數說明:

log_rotation_age = 1440  #minute,多長時間創建新的文件記錄日志。0 表示禁擴展。
log_rotation_size = 10240  #kb,文件多大后創建新的文件記錄日志。0 表示禁擴展。
log_truncate_on_rotation = on #可重用同名日志文件

當需要跟蹤SQL語句或者慢語句,得需要設置以下參數:

log_statement = all  #需設置跟蹤所有語句,否則只能跟蹤出錯信息
log_min_duration_statement = 5000  #milliseconds,記錄執行5秒及以上的語句

log_statement:

設置跟蹤的語句類型,有4種類型:none(默認), ddl, mod, all。跟蹤所有語句時可設置為 "all"。

log_min_duration_statement:

跟蹤慢查詢語句,單位為毫秒。如設置 5000,表示日志將記錄執行5秒以上的SQL語句。

當 log_statement=all 和 log_min_duration_statement 同時設置時,將跟蹤所有語句,忽略log_min_duration_statement 設置。所以需按情況設置其中一個或兩個值。

加載配置

select pg_reload_conf();
show log_min_duration_statement;

針對某個用戶或者某數據庫進行設置

alter database test set log_min_duration_statement=5000;

捕獲正在查詢的慢SQL

select * from pg_stat_activity where state>'idle' and now()-query_start > interval '5 s' order by query_start ; 

補充:PostgreSQL CPU占用100%性能分析及慢sql優化

查看連接數變化

CPU利用率到達100%,首先懷疑,是不是業務高峰活躍連接陡增,而數據庫預留的資源不足造成的結果。我們需要查看下,問題發生時,活躍的連接數是否比平時多很多。

對于RDS for PG,數據庫上的連接數變化,可以從控制臺的監控信息中看到。而當前活躍的連接數>可以直接連接數據庫,使用下列查詢語句得到:

select count( * ) from pg_stat_activity where state not like '%idle';

追蹤慢SQL

如果活躍連接數的變化處于正常范圍,則很大概率可能是當時有性能很差的SQL被大量執行導致。由于RDS有慢SQL日志,我們可以通過這個日志,定位到當時比較耗時的SQL來進一步做分析。但通常問題發生時,整個系統都處于停滯狀態,所有SQL都慢下來,當時記錄的>慢SQL可能非常多,并不容易排查罪魁禍首。這里我們介紹幾種在問題發生時,即介入追查慢SQL的方法。

1、第一種方法是使用pg_stat_statements插件定位慢SQL,步驟如下。

1.1 如果沒有創建這個插件,需要手動創建。我們要利用插件和數據庫系統里面的計數信息(如SQL執行時間累積等),而這些信息是不斷累積的,包含了歷史信息。為了更方便的排查當前的CPU滿問題,我們要先重置計數器。

create extension pg_stat_statements;
select pg_stat_reset();
select pg_stat_statements_reset();

1.2 等待一段時間(例如1分鐘),使計數器積累足夠的信息。

1.3 查詢最耗時的SQL(一般就是導致問題的直接原因)。

select * from pg_stat_statements order by total_time desc limit 5;

1.4 查詢讀取Buffer次數最多的SQL,這些SQL可能由于所查詢的數據沒有索引,而導致了過多的Buffer讀,也同時大量消耗了CPU。

select * from pg_stat_statements order by shared_blks_hit+shared_blks_read desc limit 5;

2、第二種方法是,直接通過pg_stat_activity視圖,利用下面的查詢,查看當前長時間執行,一直不結束的SQL。這些SQL對應造成CPU滿,也有直接嫌疑。

select datname, usename, client_addr, application_name, state, backend_start, xact_start, xact_stay, query_start, query_stay, replace(query, chr(10), ' ') as query from (select pgsa.datname as datname, pgsa.usename as usename, pgsa.client_addr client_addr, pgsa.application_name as application_name, pgsa.state as state, pgsa.backend_start as backend_start, pgsa.xact_start as xact_start, extract(epoch from (now() - pgsa.xact_start)) as xact_stay, pgsa.query_start as query_start, extract(epoch from (now() - pgsa.query_start)) as query_stay , pgsa.query as query from pg_stat_activity as pgsa where pgsa.state != 'idle' and pgsa.state != 'idle in transaction' and pgsa.state != 'idle in transaction (aborted)') idleconnections order by query_stay desc limit 5;
datname |  usename  | client_addr |   application_name   | state |     backend_start     |     xact_start      |  xact_stay  |     query_start     | query_stay  |                                                                                         
                             query                                                                                                                      
---------+-------------+---------------+--------------------------+--------+-------------------------------+-------------------------------+---------------+-------------------------------+---------------+----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 denali | denaliadmin | 10.222.16.45 | pgAdmin III - Query Tool | active | 2018-02-26 22:36:05.603781+00 | 2018-02-26 22:36:13.054396+00 | 187614.245395 | 2018-02-26 22:36:13.054396+00 | 187614.245395 | select * from gen3_search_eu_17q2_20171115_epl.place_name \r where place_id not in (select place_id from gen3_search_eu_17q1_20170308_epl.place_name ) \r and name not in (select name from gen3_search_eu_17q1_20170308_epl.place_name)\r and lang = 'ENG'\r limit 50
 denali | denaliadmin | 10.222.16.45 | pgAdmin III - Query Tool | active | 2018-02-26 23:46:24.442846+00 | 2018-02-26 23:46:34.920261+00 | 183392.37953 | 2018-02-26 23:46:34.920261+00 | 183392.37953 | select * from gen3_search_eu_17q2_20171115_epl.place_name \r where place_id not in (select place_id from gen3_search_eu_17q1_20170308_epl.place_name ) \r and name not in (select name from gen3_search_eu_17q1_20170308_epl.place_name)\r and lang = 'ENG'\r limit 50\r 
 denali | denaliadmin | 10.222.16.45 | pgAdmin III - Query Tool | active | 2018-02-27 01:19:53.83589+00 | 2018-02-27 01:20:01.519778+00 | 177785.780013 | 2018-02-27 01:20:01.519778+00 | 177785.780013 | select * from gen3_search_eu_17q2_20171115_epl.place_name \r where place_id not in (select place_id from gen3_search_eu_17q1_20170308_epl.place_name ) \r and name not in (select name from gen3_search_eu_17q1_20170308_epl.place_name)\r limit 50
 denali | denaliadmin | 10.222.16.45 | pgAdmin III - Query Tool | active | 2018-02-27 01:46:05.207888+00 | 2018-02-27 01:47:52.039779+00 | 176115.260012 | 2018-02-27 01:47:52.039779+00 | 176115.260012 | select a.place_id, a.metadata_dictionary_id,a.value, a.lang, b.place_id, b.metadata_dictionary_id, b.value, b.lang\r from gen3_search_eu_17q1_20170308_epl.place_address a \r inner join gen3_search_eu_17q2_20171115_epl.place_address b\r on a.place_id = b.place_id \r where a.metadata_dictionary_id = b.metadata_dictionary_id and a.lang = b.lang and a.value!=b.value and b.place_id not in (select poi_id from gen3_search_eu_17q2_20171115_epl.place_embeded_ids)\r limit 100\r 
 denali | denaliadmin | 10.224.14.148 | pgAdmin III - Query Tool | active | 2018-02-27 05:05:39.903885+00 | 2018-02-27 05:05:48.827779+00 | 164238.472012 | 2018-02-27 05:05:48.827779+00 | 164238.472012 | select a.place_id, a.metadata_dictionary_id,a.value, a.lang, b.place_id, b.metadata_dictionary_id, b.value, b.lang\r from gen3_search_eu_17q1_20170308_epl.place_address a \r inner join gen3_search_eu_17q2_20171115_epl.place_address b\r on a.place_id = b.place_id \r where a.metadata_dictionary_id = b.metadata_dictionary_id and a.lang = b.lang and a.value!=b.value and b.place_id not in (select poi_id from gen3_search_eu_17q2_20171115_epl.place_embeded_ids)\r limit 100\r 
(5 rows)

3、第3種方法,是從數據表上表掃描(Table Scan)的信息開始查起,查找缺失索引的表。數據表如果缺失索引,大部分熱數據又都在內存時(例如內存8G,熱數據6G),此時數據庫只能使用表掃描,并需要處理已在內存中的大量的無關記錄,而耗費大量CPU。特別是對于表記錄數超100的表,一次表掃描占用大量CPU(基本把一個CPU占滿),多個連接并發(例如上百連接),把所有CPU占滿。

3.1 通過下面的查詢,查出使用表掃描最多的表:

select * from pg_stat_user_tables where n_live_tup > 100000 and seq_scan > 0 order by seq_tup_read desc limit 10;

3.2 查詢當前正在運行的訪問到上述表的慢查詢:

select * from pg_stat_activity where query ilike '%table name>%' and query_start - now() > interval '10 seconds';

3.3 也可以通過pg_stat_statements插件定位涉及到這些表的查詢:

select * from pg_stat_statements where query ilike '%table>%'order by shared_blks_hit+shared_blks_read desc limit 3;

處理慢SQL

對于上面的方法查出來的慢SQL,首先需要做的可能是Cancel或Kill掉他們,使業務先恢復:

select pg_cancel_backend(pid) from pg_stat_activity where query like '%query text>%' and pid != pg_backend_pid();
select pg_terminate_backend(pid) from pg_stat_activity where query like '%query text>%' and pid != pg_backend_pid();

如果這些SQL確實是業務上必需的,則需要對他們做優化。這方面有“三板斧”:

1、對查詢涉及的表,執行ANALYZE table>或VACUUM ANZLYZE table>,更新表的統計信息,使查詢計劃更準確。注意,為避免對業務影響,最好在業務低峰執行。

2、執行explain (query text)或explain (buffers true, analyze true, verbose true) (query text)命令,查看SQL的執行計劃(注意,前者不會實際執行SQL,后者會實際執行而且能得到詳細的執行信息),對其中的Table Scan涉及的表,建立索引。

3、重新編寫SQL,去除掉不必要的子查詢、改寫UNION ALL、使用JOIN CLAUSE固定連接順序等到,都是進一步深度優化SQL的手段,這里不再深入說明。

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • postgresql 查詢字符串中是否包含某字符的操作
  • PostgreSQL 實現子查詢返回多行的案例
  • Visual Studio Code(VS Code)查詢PostgreSQL拓展安裝教程圖解
  • PostgreSQL 實現給查詢列表增加序號操作
  • 基于postgresql查詢某個字段屬于哪個表的說明
  • 基于postgreSql 常用查詢小結

標簽:海西 溫州 辛集 濮陽 杭州 榆林 昭通 寶雞

巨人網絡通訊聲明:本文標題《PostgreSQL 慢查詢SQL跟蹤操作》,本文關鍵詞  PostgreSQL,慢,查詢,SQL,跟蹤,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《PostgreSQL 慢查詢SQL跟蹤操作》相關的同類信息!
  • 本頁收集關于PostgreSQL 慢查詢SQL跟蹤操作的相關信息資訊供網民參考!
  • 推薦文章
    欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品
  • <rt id="w000q"><acronym id="w000q"></acronym></rt>
  • <abbr id="w000q"></abbr>
    <rt id="w000q"></rt>
    久久疯狂做爰流白浆xx| 亚洲自拍偷拍一区二区| 国产这里有精品| 中文字幕 久热精品 视频在线| 经典一区二区三区| 国产三级av在线播放| 欧美mv日韩mv国产网站app| 午夜精品免费在线观看| 色哟哟无码精品一区二区三区| 欧美丝袜第三区| 亚洲午夜成aⅴ人片| 亚洲综合中文网| 欧美挠脚心视频网站| 一级日本不卡的影视| 日韩成人av影院| 51精品国自产在线| 日韩精品电影一区亚洲| 疯狂揉花蒂控制高潮h| 日韩免费高清av| 老司机一区二区| 欧美日韩中文字幕视频| 亚洲国产精华液网站w| 成人免费高清视频在线观看| 深夜福利影院在线观看| 一区二区三区欧美| 精品人妻伦一二三区久| 日韩免费福利电影在线观看| 精品一二三四区| 欧洲美女女同性互添| 亚洲精品久久嫩草网站秘色| 老司机av网站| 日韩欧美激情四射| 国产综合成人久久大片91| 搜索黄色一级片| 一区二区三区在线视频观看58| 天天躁日日躁狠狠躁免费麻豆| 欧美一级电影网站| 国产精品一区二区久久不卡| 破处女黄色一级片| 亚洲国产毛片aaaaa无费看| av网页在线观看| 国产婷婷一区二区| www.亚洲精品| 91精品国产色综合久久久蜜香臀| 久久精品国产免费| 加勒比婷婷色综合久久| 亚洲一二三级电影| 免费一级做a爰片久久毛片潮| 欧美激情一区二区在线| 少妇伦子伦精品无吗| 精品国产乱码91久久久久久网站| 国产91丝袜在线观看| 欧美日韩高清在线| 国产精品一区免费在线观看| 91国偷自产一区二区三区观看| 五月天网站亚洲| 开心激情五月网| 亚洲成人资源在线| 亚洲天堂最新地址| 亚洲一区二区在线观看视频 | 激情伊人五月天久久综合| 中文字幕五月天| 香港成人在线视频| 天天操天天综合网| 九九这里只有精品视频| 亚洲1区2区3区4区| 亚洲区一区二区三| 天堂影院一区二区| www.av免费| 日本va欧美va欧美va精品| 天天看片中文字幕| 美女网站一区二区| 欧美色图12p| 国产综合久久久久久鬼色| 欧美区在线观看| 成人午夜在线免费| 欧美成人三级在线| 久久久久亚洲av无码麻豆| 在线观看视频欧美| 丁香激情综合国产| 亚洲精品一区二区三区四区高清| 精品人妻一区二区三| 精品国产3级a| 欧美性生给视频| 奇米在线7777在线精品 | 国产在线视视频有精品| 看全色黄大色黄女片18| 亚洲精品综合在线| www..com.cn蕾丝视频在线观看免费版| 久久精品视频在线免费观看| 9色porny自拍视频一区二区| 久久蜜臀中文字幕| 最近中文字幕在线mv视频在线| 一区二区三区日韩精品视频| 欧洲av一区二区三区| 精品无码国产污污污免费网站 | 国产日本亚洲高清| 韩国无码一区二区三区精品| 亚洲欧美视频一区| 91传媒免费观看| 韩国午夜理伦三级不卡影院| 91精品国产美女浴室洗澡无遮挡| 91在线porny国产在线看| 国产精品系列在线| 欧美日韩国产黄色| 裸体在线国模精品偷拍| 制服丝袜激情欧洲亚洲| 天天躁日日躁狠狠躁av| 亚洲一区二区三区免费视频| 色诱视频网站一区| 成人福利在线看| 国产精品入口麻豆九色| 亚洲一二三四视频| 极品少妇xxxx偷拍精品少妇| 日韩免费一区二区三区在线播放| 精品人妻一区二区三区日产| 一级日本不卡的影视| 在线欧美日韩国产| 99国产精品一区| 亚洲天堂网中文字| 一本大道久久精品懂色aⅴ| 粉嫩久久99精品久久久久久夜 | 成人免费无遮挡无码黄漫视频| 首页综合国产亚洲丝袜| 777久久久精品| 国产高清成人久久| 首页综合国产亚洲丝袜| 欧美一区二区人人喊爽| 日本一区二区三区网站| 久久精品久久久精品美女| 欧美精品一区二区三区高清aⅴ| www.久久国产| 久久99久国产精品黄毛片色诱| 精品国产麻豆免费人成网站| 无码人妻aⅴ一区二区三区69岛| 精品一区二区三区久久久| 久久婷婷国产综合精品青草| 先锋影音av在线| 国产精品一级二级三级| 国产精品久久一级| 色噜噜狠狠一区二区三区果冻| 成人综合在线观看| 国产精品私人自拍| 91国偷自产一区二区使用方法| 自拍视频第一页| 日韩成人伦理电影在线观看| 精品国产乱码久久久久久久 | 成人免费观看av| 亚洲激情六月丁香| 7777精品伊人久久久大香线蕉完整版 | 欧美三级视频在线| 男人网站在线观看| 六月丁香综合在线视频| 日本一区二区三级电影在线观看| 久久99国内精品| 久久网这里都是精品| 成年人午夜剧场| 99久久综合狠狠综合久久| 一区二区三区久久久| 欧美一区午夜精品| 亚洲av熟女国产一区二区性色| 成人手机在线视频| 亚洲一区二区三区国产| 日韩精品在线一区二区| 日韩一卡二卡在线观看| 91免费视频网址| 免费xxxx性欧美18vr| 国产精品伦一区二区三级视频| 欧美专区亚洲专区| 中文字幕一区二区三区人妻| 国产精品一区二区三区99| 亚洲黄色免费电影| 日韩精品中文字幕在线不卡尤物| 精品一区二区在线观看视频| 96av麻豆蜜桃一区二区| 日产国产欧美视频一区精品| 国产女主播视频一区二区| 欧美三级韩国三级日本一级| 高潮毛片无遮挡| eeuss国产一区二区三区| 五月天视频一区| 中文字幕第一页久久| 欧美精三区欧美精三区| 女性裸体视频网站| 亚洲一区二区在线免费| 国产99久久久国产精品潘金| 亚洲国产成人porn| 国产欧美一区二区精品秋霞影院| 欧美色男人天堂| 男女男精品视频网站| 久久无码专区国产精品s| 国产原创一区二区| 亚洲国产乱码最新视频| 国产精品嫩草影院av蜜臀| 7777女厕盗摄久久久| 69av.com| 亚洲色图日韩精品| 影音先锋人妻啪啪av资源网站| 成人性生交大合| 久久精品久久久精品美女|