欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品

主頁 > 知識庫 > MySQL Shell import_table數據導入的實現

MySQL Shell import_table數據導入的實現

熱門標簽:話務外呼系統怎么樣 云南電商智能外呼系統價格 臨清電話機器人 拉卡拉外呼系統 高清地圖標注道路 400電話可以辦理嗎 大眾點評星級酒店地圖標注 智能外呼系統復位 外東北地圖標注

1. import_table介紹

上期技術分享我們介紹了MySQL Load Data的4種常用的方法將文本數據導入到MySQL,這一期我們繼續介紹另一款更加高效的數據導入工具,MySQL Shell 工具集中的import_table,該工具的全稱是Parallel Table Import Utility,顧名思義,支持并發數據導入,該工具在MySQL Shell 8.0.23版本后,功能更加完善, 以下列舉該工具的核心功能

  • 基本覆蓋了MySQL Data Load的所有功能,可以作為替代品使用
  • 默認支持并發導入(支持自定義chunk大小)
  • 支持通配符匹配多個文件同時導入到一張表(非常適用于相同結構數據匯總到一張表)
  • 支持限速(對帶寬使用有要求的場景,非常合適)
  • 支持對壓縮文件處理
  • 支持導入到5.7及以上MySQL

2. Load Data 與 import table功能示例

該部分針對import table和Load Data相同的功能做命令示例演示,我們依舊以導入employees表的示例數據為例,演示MySQL Load Data的綜合場景

  • 數據自定義順序導入
  • 數據函數處理
  • 自定義數據取值
## 示例數據如下
[root@10-186-61-162 tmp]# cat employees_01.csv
"10001","1953-09-02","Georgi","Facello","M","1986-06-26"
"10003","1959-12-03","Parto","Bamford","M","1986-08-28"
"10002","1964-06-02","Bezalel","Simmel","F","1985-11-21"
"10004","1954-05-01","Chirstian","Koblick","M","1986-12-01"
"10005","1955-01-21","Kyoichi","Maliniak","M","1989-09-12"
"10006","1953-04-20","Anneke","Preusig","F","1989-06-02"
"10007","1957-05-23","Tzvetan","Zielinski","F","1989-02-10"
"10008","1958-02-19","Saniya","Kalloufi","M","1994-09-15"
"10009","1952-04-19","Sumant","Peac","F","1985-02-18"
"10010","1963-06-01","Duangkaew","Piveteau","F","1989-08-24"

## 示例表結構
 10.186.61.162:3306  employees  SQL > desc emp;
+-------------+---------------+------+-----+---------+-------+
| Field       | Type          | Null | Key | Default | Extra |
+-------------+---------------+------+-----+---------+-------+
| emp_no      | int           | NO   | PRI | NULL    |       |
| birth_date  | date          | NO   |     | NULL    |       |
| first_name  | varchar(14)   | NO   |     | NULL    |       |
| last_name   | varchar(16)   | NO   |     | NULL    |       |
| full_name   | varchar(64)   | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
| gender      | enum('M','F') | NO   |     | NULL    |       |
| hire_date   | date          | NO   |     | NULL    |       |
| modify_date | datetime      | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
| delete_flag | varchar(1)    | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
+-------------+---------------+------+-----+---------+-------+

2.1 用Load Data方式導入數據

具體參數含義不做說明,需要了解語法規則及含義可查看系列上一篇文章MySQL Load Data的多種用法>

load data infile '/data/mysql/3306/tmp/employees_01.csv'
into table employees.emp
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'
(@C1,@C2,@C3,@C4,@C5,@C6)
set emp_no=@C1,
    birth_date=@C2,
    first_name=upper(@C3),
    last_name=lower(@C4),
    full_name=concat(first_name,' ',last_name),
    gender=@C5,
    hire_date=@C6 ,
    modify_date=now(),
    delete_flag=if(hire_date'1988-01-01','Y','N');

2.2 用import_table方式導入數據

util.import_table(
    [
        "/data/mysql/3306/tmp/employees_01.csv",
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })

3. import_table特定功能

3.1 多文件導入(模糊匹配)

## 在導入前我生成好了3分單獨的employees文件,導出的結構一致
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql  579 3月  24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql  584 3月  24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql  576 3月  24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月  26 17:15 sbtest1.csv

## 導入命令,其中對對文件用employees_*做模糊匹配
util.import_table(
    [
        "/data/mysql/3306/tmp/employees_*",
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })
    
## 導入命令,其中對要導入的文件均明確指定其路徑
util.import_table(
    [
        "/data/mysql/3306/tmp/employees_01.csv",
        "/data/mysql/3306/tmp/employees_02.csv",
        "/data/mysql/3306/tmp/employees_03.csv"
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })

3.2 并發導入

在實驗并發導入前我們創建一張1000W的sbtest1表(大約2G數據),做并發模擬,import_table用threads參數作為并發配置, 默認為8個并發.

## 導出測試需要的sbtest1數據
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql  579 3月  24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql  584 3月  24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql  576 3月  24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月  26 17:15 sbtest1.csv

## 開啟threads為8個并發
util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "8"
    })

3.3 導入速率控制

可以通過maxRatethreads來控制每個并發線程的導入數據,如,當前配置線程為4個,每個線程的速率為2M/s,則最高不會超過8M/s

util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "4",
        "maxRate": "2M"
    })

3.4 自定義chunk大小

默認的chunk大小為50M,我們可以調整chunk的大小,減少事務大小,如我們將chunk大小調整為1M,則每個線程每次導入的數據量也相應減少

util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "4",
        "bytesPerChunk": "1M",
        "maxRate": "2M"
    })

4. Load Data vs import_table性能對比

  • 使用相同庫表
  • 不對數據做特殊處理,原樣導入
  • 不修改參數默認值,只指定必備參數
-- Load Data語句
load data infile '/data/mysql/3306/tmp/sbtest1.csv'
into table demo.sbtest1
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'

-- import_table語句
util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4"
    })

可以看到,Load Data耗時約5分鐘,而import_table則只要不到一半的時間即可完成數據導入,效率高一倍以上(虛擬機環境磁盤IO能力有限情況下)

5. 技術總結

  • import_table包含了Load Data幾乎所有的功能
  • import_table導入的效率比Load Data更高
  • import_table支持對導入速度,并發以及每次導入的數據大小做精細控制
  • import_table的導入進度報告更加詳細,便于排錯及時間評估,包括
    • 導入速度
    • 導入總耗時
    • 每批次導入的數據量,是否存在Warning等等
    • 導入最終的匯總報告

到此這篇關于MySQL import_table數據導入的實現的文章就介紹到這了,更多相關MySQL import_table數據導入內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Mysql命令行導入sql數據
  • MYSQL 數據庫導入導出命令
  • mysql導入導出數據中文亂碼解決方法小結
  • MySQL 文本文件的導入導出數據的方法
  • MySQL如何導入csv格式數據文件解決方案
  • 在linux中導入sql文件的方法分享(使用命令行轉移mysql數據庫)
  • mysql 導入導出數據庫、數據表的方法
  • mysql 導入導出數據庫以及函數、存儲過程的介紹
  • MYSQL大數據導入

標簽:無錫 山西 定西 三明 揚州 福州 阿里 溫州

巨人網絡通訊聲明:本文標題《MySQL Shell import_table數據導入的實現》,本文關鍵詞  MySQL,Shell,import,table,數據,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《MySQL Shell import_table數據導入的實現》相關的同類信息!
  • 本頁收集關于MySQL Shell import_table數據導入的實現的相關信息資訊供網民參考!
  • 推薦文章
    欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品
  • <rt id="w000q"><acronym id="w000q"></acronym></rt>
  • <abbr id="w000q"></abbr>
    <rt id="w000q"></rt>
    欧美成人女星排名| 精品不卡在线视频| 国产精品进线69影院| 精品一区中文字幕| 国产精品久久无码| 欧美日韩三级一区二区| 亚洲色图丝袜美腿| 成人的网站免费观看| 蜜桃av一区二区三区电影| 91麻豆精东视频| 日本乱人伦aⅴ精品| 1区2区3区国产精品| av不卡在线播放| 一本一本久久a久久精品综合麻豆| 国产精品国产自产拍高清av| 懂色中文一区二区在线播放| 亚洲AV成人无码精电影在线| 国产日产欧美一区二区三区| 国产麻豆成人精品| 亚洲一级二级片| 国产精品久久久久影院亚瑟| 高清在线观看日韩| 中文字幕手机在线观看| 亚洲乱码一区二区三区在线观看| www.在线成人| 欧美在线一区二区| 亚洲伊人伊色伊影伊综合网| 亚洲成人激情小说| 欧美一区日韩一区| 久久99精品国产| 午夜激情福利电影| 亚洲婷婷国产精品电影人久久| 99麻豆久久久国产精品免费优播| 欧洲激情一区二区| 亚洲成人动漫在线免费观看| 蜜臀av粉嫩av懂色av| 欧美一二区视频| 国产综合久久久久影院| 欧美日韩黄色网| 亚洲精品成人精品456| 黄色性视频网站| 亚洲精品一区二区三区影院| 国产传媒久久文化传媒| 色婷婷av一区二区| 亚洲大型综合色站| 女女互磨互喷水高潮les呻吟| 欧美激情中文不卡| 91美女片黄在线观看91美女| 欧美一区二区私人影院日本| 韩国中文字幕2020精品| 一本色道久久综合亚洲91| 亚洲第一成人在线| 欧美 日韩 成人| 成人免费一区二区三区在线观看| 69xxx免费视频| 2014亚洲片线观看视频免费| 成人av在线资源网| 7777精品伊人久久久大香线蕉经典版下载 | av亚洲精华国产精华| 欧美福利电影网| 久草中文综合在线| 久久久精品视频免费观看| 亚洲福利视频一区| 国产传媒在线看| 一区二区三区在线看| 日韩精品电影一区二区| 18成人在线观看| 黄色正能量网站| 国产精品家庭影院| 亚洲一区二区三区四区五区六区| 欧美激情中文字幕一区二区| 国产精品久久久久久久无码| 中国色在线观看另类| 亚洲乱妇老熟女爽到高潮的片 | 国产做a爰片久久毛片| 欧美三级日韩在线| 国产做a爰片久久毛片| 欧美日韩精品三区| 国产高清不卡一区二区| 7777精品久久久大香线蕉| 国产成人夜色高潮福利影视| 91精品久久久久久久99蜜桃 | 神马久久精品综合| 日本中文字幕不卡| 在线免费视频一区二区| 国产最新精品免费| 欧美一区二区大片| 91香蕉视频黄| 国产欧美在线观看一区| 国产精品无码一区二区三| 中文字幕字幕中文在线中不卡视频| 成年人网站免费看| 亚洲夂夂婷婷色拍ww47| 91久久国产综合| 精品在线视频一区| 91精品国产综合久久久久久漫画 | 风间由美性色一区二区三区| 日韩一区二区视频| 久久久久久久久久影视| |精品福利一区二区三区| 久久久久久成人网| 日本va欧美va瓶| 欧美日韩精品一区二区在线播放| 成人一区二区三区中文字幕| 26uuu久久综合| 国产激情视频网站| 亚洲综合久久av| 色系网站成人免费| 成人一区二区三区中文字幕| 久久精品亚洲精品国产欧美kt∨| 疯狂揉花蒂控制高潮h| 亚洲一区二区三区四区的 | 亚洲人一二三区| 91香蕉一区二区三区在线观看| 国产在线视频精品一区| 欧美tickling网站挠脚心| 水蜜桃av无码| 午夜成人在线视频| 欧美精品 日韩| 91麻豆精品在线观看| 国产精品高潮呻吟久久| 成人信息集中地| 国产另类ts人妖一区二区| 久久一日本道色综合| 久久精品一区二区免费播放| 日韩成人一级大片| 欧美一区二区视频免费观看| 亚洲av成人精品一区二区三区 | 免费在线视频一区| 日韩欧美一级在线播放| 北岛玲一区二区| 日本不卡一区二区| 欧美大片日本大片免费观看| 成人免费av片| 精品一区二区三区欧美| 久久久激情视频| 少妇视频一区二区| 成人永久看片免费视频天堂| 国产日产精品1区| 任我爽在线视频| 风流少妇一区二区| 综合久久久久综合| 欧洲亚洲精品在线| 国模私拍在线观看| 性欧美大战久久久久久久久| 欧美一区二区三区男人的天堂| 菠萝菠萝蜜网站| 久久99精品久久久久久国产越南| 久久久久久免费| 希岛爱理中文字幕| 99视频精品在线| 午夜欧美大尺度福利影院在线看| 91精品国产91综合久久蜜臀| 亚洲精品乱码久久久久久久久久久久| 精品亚洲成a人在线观看| 国产日韩精品一区二区浪潮av| 黄色香蕉视频在线观看| 99精品视频免费在线观看| 亚洲精品视频一区| 欧美一区二区在线不卡| 一区二区精品免费| 福利一区福利二区| 亚洲午夜精品网| 精品人在线二区三区| 永久免费看片视频教学| 91在线免费看| 日韩成人免费在线| 欧美激情一区二区三区蜜桃视频| 一本久久精品一区二区| 手机免费看av片| 国产在线播放一区三区四| 亚洲视频中文字幕| 91精品在线免费| 欧美性猛交xxxx乱大交少妇| 91在线精品一区二区| 日韩电影在线一区| 欧美国产欧美综合| 欧美色图一区二区三区| 一区二区黄色片| www.日韩av| 日本不卡的三区四区五区| 国产精品网站在线观看| 欧美日韩另类一区| 东京热无码av男人的天堂| 99精品黄色片免费大全| 蜜桃av一区二区三区电影| 自拍偷拍亚洲激情| 精品久久一区二区| 日本高清不卡在线观看| 蜜桃精品一区二区| 92精品国产成人观看免费| 美女久久久精品| 亚洲精选免费视频| 亚洲精品一区二区三区四区高清| 欧美亚洲国产bt| 四季av中文字幕| 无码国产69精品久久久久网站| 国产乱国产乱300精品| 亚洲成人av福利| 国产三区在线成人av|