欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品

主頁 > 知識庫 > 在PostgreSQL中使用數(shù)組時值得注意的一些地方

在PostgreSQL中使用數(shù)組時值得注意的一些地方

熱門標(biāo)簽:南昌呼叫中心外呼系統(tǒng)哪家好 怎么去開發(fā)一個電銷機(jī)器人 小程序智能電話機(jī)器人 ai電話電話機(jī)器人 泗洪正規(guī)電話機(jī)器人找哪家 湖南保險智能外呼系統(tǒng)產(chǎn)品介紹 怎么申請400熱線電話 簡單的智能語音電銷機(jī)器人 河北便宜電銷機(jī)器人軟件

在Heap中,我們依靠PostgreSQL支撐大多數(shù)后端繁重的任務(wù),我們存儲每個事件為一個hstore blob,我們?yōu)槊總€跟蹤的用戶維護(hù)一個已完成事件的PostgreSQL數(shù)組,并將這些事件按時間排序。 Hstore能夠讓我們以靈活的方式附加屬性到事件中,而且事件數(shù)組賦予了我們強大的性能,特別是對于漏斗查詢,在這些查詢中我們計算不同轉(zhuǎn)化渠道步驟間的輸出。

在這篇文章中,我們看看那些意外接受大量輸入的PostgreSQL函數(shù),然后以高效,慣用的方式重寫它。

你的第一反應(yīng)可能是將PostgreSQL中的數(shù)組看做像C語言中對等的類似物。你之前可能用過變換陣列位置或切片來操縱數(shù)據(jù)。不過要小心,在PostgreSQL中不要有這樣的想法,特別是數(shù)組類型是變長的時,比如JSON、文本或是hstore。如果你通過位置來訪問PostgreSQL數(shù)組,你會進(jìn)入一個意想不到的性能暴跌的境地。


這種情況幾星期前在Heap出現(xiàn)了。我們在Heap為每個跟蹤用戶維護(hù)一個事件數(shù)組,在這個數(shù)組中我們用一個hstore datum代表每個事件。我們有一個導(dǎo)入管道來追加新事件到對應(yīng)的數(shù)組。為了使這一導(dǎo)入管道是冪等的,我們給每個事件設(shè)定一個event_id,我們通過一個功能函數(shù)重復(fù)運行我們的事件數(shù)組。如果我們要更新附加到事件的屬性的話,我們只需使用相同的event_id轉(zhuǎn)儲一個新的事件到管道中。

所以,我們需要一個功能函數(shù)來處理hstores數(shù)組,并且,如果兩個事件具有相同的event_id時應(yīng)該使用數(shù)組中最近出現(xiàn)的那個。剛開始嘗試這個函數(shù)是這樣寫的:
 

-- This is slow, and you don't want to use it!
--
-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_1(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發(fā)生了什么呢? 關(guān)鍵在于PostgreSQL存貯了一個系列的hstores作為數(shù)組的值, 而不是指向值的指針. 一個包含了三個hstores的數(shù)組看起來像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側(cè)讀取的事件直到讀取到第二次讀取的數(shù)據(jù). 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數(shù)據(jù)! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數(shù)組中的每一個索引都是 O(N2), N是數(shù)組的長度.

PostgreSQL能得到更加恰當(dāng)?shù)慕馕鼋Y(jié)果,  它可以在這樣的情況下分析該數(shù)組一次. 真正的答案是可變長度的元素與指針來實現(xiàn),以數(shù)組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內(nèi).


即便如此,我們也不應(yīng)該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數(shù)組并返回一組條目。這樣一來,我們就不需要在數(shù)組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id, is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.
   SELECT event, row_number AS index, rank()
   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)
   FROM (
    -- Use unnest instead of generate_subscripts to turn an array into a set.
    SELECT event, row_number()
    OVER (ORDER BY event -> 'time')
    FROM unnest(events) AS event
   ) unnested_data
  ) deduped_events
  WHERE rank = 1
  ORDER BY index ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

結(jié)果是有效的,它花費的時間跟輸入數(shù)組的大小呈線性關(guān)系。對于100K個元素的輸入它需要大約半秒,而之前的實現(xiàn)需要40秒。

這實現(xiàn)了我們的需求:

  •     一次解析數(shù)組,不需要unnest。
  •     按event_id劃分。
  •     對每個event_id采用最新出現(xiàn)的。
  •     按輸入索引排序。

教訓(xùn):如果你需要訪問PostgreSQL數(shù)組的特定位置,考慮使用unnest代替。 

   SELECT events[sub] AS event, sub, rank()
   OVER (PARTITION BY (events[sub] -> 'event_id')::BIGINT ORDER BY sub DESC)
   FROM generate_subscripts(events, 1) AS sub
  ) deduped_events
  WHERE rank = 1
  ORDER BY sub ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

這樣奏效,但大輸入是性能下降了。這是二次的,在輸入數(shù)組有100K各元素時它需要大約40秒!

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發(fā)生了什么呢? 關(guān)鍵在于PostgreSQL存貯了一個系列的hstores作為數(shù)組的值, 而不是指向值的指針. 一個包含了三個hstores的數(shù)組看起來像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側(cè)讀取的事件直到讀取到第二次讀取的數(shù)據(jù). 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數(shù)據(jù)! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數(shù)組中的每一個索引都是 O(N2), N是數(shù)組的長度.

PostgreSQL能得到更加恰當(dāng)?shù)慕馕鼋Y(jié)果,  它可以在這樣的情況下分析該數(shù)組一次. 真正的答案是可變長度的元素與指針來實現(xiàn),以數(shù)組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內(nèi).


即便如此,我們也不應(yīng)該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數(shù)組并返回一組條目。這樣一來,我們就不需要在數(shù)組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id, is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.
   SELECT event, row_number AS index, rank()
   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)
   FROM (
    -- Use unnest instead of generate_subscripts to turn an array into a set.
    SELECT event, row_number()
    OVER (ORDER BY event -> 'time')
    FROM unnest(events) AS event
   ) unnested_data
  ) deduped_events
  WHERE rank = 1
  ORDER BY index ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

結(jié)果是有效的,它花費的時間跟輸入數(shù)組的大小呈線性關(guān)系。對于100K個元素的輸入它需要大約半秒,而之前的實現(xiàn)需要40秒。

這實現(xiàn)了我們的需求:

  •     一次解析數(shù)組,不需要unnest。
  •     按event_id劃分。
  •     對每個event_id采用最新出現(xiàn)的。
  •     按輸入索引排序。

教訓(xùn):如果你需要訪問PostgreSQL數(shù)組的特定位置,考慮使用unnest代替。

您可能感興趣的文章:
  • PostgreSQL 對數(shù)組的遍歷操作
  • PostgreSQL中使用數(shù)組改進(jìn)性能實例代碼
  • Mybatis調(diào)用PostgreSQL存儲過程實現(xiàn)數(shù)組入?yún)鬟f
  • postgresql 實現(xiàn)將數(shù)組變?yōu)樾?/li>

標(biāo)簽:景德鎮(zhèn) 荊門 柳州 淮安 威海 瀘州 江蘇 那曲

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《在PostgreSQL中使用數(shù)組時值得注意的一些地方》,本文關(guān)鍵詞  在,PostgreSQL,中,使用,數(shù)組,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《在PostgreSQL中使用數(shù)組時值得注意的一些地方》相關(guān)的同類信息!
  • 本頁收集關(guān)于在PostgreSQL中使用數(shù)組時值得注意的一些地方的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品
  • <rt id="w000q"><acronym id="w000q"></acronym></rt>
  • <abbr id="w000q"></abbr>
    <rt id="w000q"></rt>
    美女100%无挡| 色噜噜狠狠成人中文综合| 欧美日韩性生活| 亚洲欧洲成人av每日更新| 韩国精品主播一区二区在线观看| 亚洲欧美高清在线| 欧美午夜精品久久久久久超碰| 中文字幕一区二区三区av | 欧美日韩在线免费视频| 亚洲人快播电影网| 99久久亚洲一区二区三区青草| 国产又粗又猛又爽又黄的视频小说| 精品日韩欧美一区二区| 免费人成黄页网站在线一区二区| 亚洲最大免费视频| 欧美一级欧美三级| 日本视频免费一区| 亚洲精品成人无码熟妇在线| 日韩精品在线看片z| 蜜臀av在线播放一区二区三区| 成年人网站免费在线观看| 欧美成人性战久久| 久久99精品久久只有精品| 久久久久亚洲av无码a片| 久久蜜桃av一区二区天堂 | 日本一区二区三区在线不卡| 国产乱子伦视频一区二区三区| 老司机精品免费视频| 中文在线一区二区| 成人99免费视频| 在线免费观看日本一区| 亚洲一区免费观看| 污污内射在线观看一区二区少妇| 日韩一区和二区| 精品在线视频一区| 国产又色又爽又高潮免费| 中文字幕在线不卡国产视频| 91麻豆精东视频| 3d成人动漫网站| 免费观看一级特黄欧美大片| xxxxx99| 国产精品久久精品日日| 一个人看的视频www| 欧美一级精品大片| 九九九精品视频| 男女性高潮免费网站| 一区二区免费视频| 精品无码在线视频| 日本一区二区免费在线观看视频| gogogo免费视频观看亚洲一| 欧美丰满美乳xxx高潮www| 麻豆精品蜜桃视频网站| 国产性生活大片| 亚洲一区二区三区不卡国产欧美| 影音先锋人妻啪啪av资源网站| 日韩美一区二区三区| 国产成人无遮挡在线视频| 在线精品视频小说1| 蜜桃一区二区三区在线| 我要看黄色一级片| 午夜精品福利一区二区三区蜜桃| 91激情视频在线观看| 亚洲男同性恋视频| 中文字幕av网址| 日韩欧美成人激情| 国产精品成人一区二区艾草 | 亚洲视频免费看| 第四色在线视频| 欧美国产精品专区| 国产精品九九视频| 中文在线一区二区 | 国产乱淫av麻豆国产免费| 精品国产精品网麻豆系列| 成人av免费在线观看| 日韩免费视频一区二区| 成人a区在线观看| 日韩一级大片在线观看| 成人激情图片网| 欧美不卡一二三| 在线观看网站黄| 久久久久久久国产精品影院| 国产成人精品一区二区三区在线观看| 久久久五月婷婷| 久久久久久久久久影视| 久久精品视频免费观看| 在线看黄色的网站| 亚洲私人影院在线观看| 免费看裸体网站| 偷拍亚洲欧洲综合| 色婷婷综合中文久久一本| 精品制服美女丁香| 欧美一区二区久久| 91理论电影在线观看| 国产日韩欧美a| 三级电影在线看| 亚洲综合精品自拍| 亚洲最大的黄色网址| 韩国v欧美v亚洲v日本v| 欧美一级精品大片| 久久久精品人妻一区二区三区| 国产精品入口麻豆九色| 国产精品一二三区在线观看| 午夜久久福利影院| 欧美在线不卡一区| 成人a级免费电影| 欧美高清在线一区二区| av男人的天堂av| 奇米亚洲午夜久久精品| 欧美猛男gaygay网站| 91在线观看成人| 国产精品久久久久久久午夜片 | 精品免费99久久| 丰满岳乱妇一区二区| 依依成人精品视频| 一本色道**综合亚洲精品蜜桃冫| 国产成人综合网站| 国产性色一区二区| 91成人精品一区二区| 久久国产视频网| 精品欧美黑人一区二区三区| 欧美成人三级伦在线观看| 亚洲成人自拍网| 欧美精选在线播放| 丰满熟女人妻一区二区三区| 亚洲综合成人在线视频| 欧美在线不卡视频| 欧美图片自拍偷拍| 亚洲电影激情视频网站| 欧美日韩国产一二三| 又黄又色的网站| 亚洲成人在线免费| 正在播放一区二区| 性久久久久久久久久久| 日日骚欧美日韩| 日韩欧美国产小视频| 亚洲女优在线观看| 黄网站免费久久| 国产日韩欧美综合在线| а天堂中文在线资源| 国产成人三级在线观看| 中文字幕一区二| 一本大道久久a久久综合| 97精品视频在线观看自产线路二| 亚洲乱码国产乱码精品精的特点 | 中文字幕亚洲一区二区va在线| 国产97免费视频| 99re成人在线| 亚洲成人激情综合网| 欧美一区二区在线免费观看| 丰满少妇高潮一区二区| 国产一区二区精品在线观看| 欧美激情在线观看视频免费| 欧美黑人性猛交xxx| 91欧美一区二区| 污片在线观看一区二区| 精品国内片67194| 日本裸体美女视频| 91在线观看下载| 日韩高清在线一区| 久久精品亚洲精品国产欧美kt∨| 午夜精品福利在线视频| 亚洲av午夜精品一区二区三区| 日韩精品亚洲专区| 久久免费电影网| 一本大道久久精品懂色aⅴ| 欧美极品jizzhd欧美仙踪林| 麻豆传媒一区二区三区| 国产欧美日本一区二区三区| 色哦色哦哦色天天综合| 99久久免费看精品国产一区| 国产一区二区在线视频| 亚洲免费在线播放| 欧美一区二区精品在线| 蜜臀av午夜精品久久| 伊人av在线播放| 免费高清视频精品| 国产精品白丝在线| 91精品免费观看| 三级黄色在线观看| 亚洲图片欧美另类| 韩国欧美国产1区| 欧美亚洲高清一区二区三区不卡| 91丨九色丨尤物| 亚洲一区二区三区精品在线| 26uuu成人网一区二区三区| 色综合久久综合网欧美综合网| 少妇精品无码一区二区三区| 国产美女在线精品| 亚洲电影中文字幕在线观看| 久久看人人爽人人| 91福利区一区二区三区| 中文字幕第4页| 91免费观看视频在线| 九九精品视频在线看| 亚洲国产成人av网| 中文字幕欧美激情| 欧美一区二区视频在线观看 | 久久久精品中文字幕麻豆发布| 91久久人澡人人添人人爽欧美| 最新中文字幕视频|