欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品

主頁 > 知識庫 > pytorch顯存一直變大的解決方案

pytorch顯存一直變大的解決方案

熱門標簽:京華圖書館地圖標注 蘇州人工外呼系統軟件 電話機器人貸款詐騙 打印谷歌地圖標注 佛山通用400電話申請 電話外呼系統招商代理 看懂地圖標注方法 廣東旅游地圖標注 淮安呼叫中心外呼系統如何

在代碼中添加以下兩行可以解決:

torch.backends.cudnn.enabled = True
torch.backends.cudnn.benchmark = True

補充:pytorch訓練過程顯存一直增加的問題

之前遇到了爆顯存的問題,卡了很久,試了很多方法,總算解決了。

總結下自己試過的幾種方法:

**1. 使用torch.cuda.empty_cache()

在每一個訓練epoch后都添加這一行代碼,可以讓訓練從較低顯存的地方開始,但并不適用爆顯存的問題,隨著epoch的增加,最大顯存占用仍然會提示out of memory 。

2.使用torch.backends.cudnn.enabled = True 和 torch.backends.cudnn.benchmark = True

原理不太清楚,用法和1一樣。但是幾乎沒有效果,直接pass。

3.最重要的:查看自己的forward函數是否存在泄露。

常需要在forward函數里調用其他子函數,這時候要特別注意:

input盡量不要寫在for循環里面!!!

子函數里如果有append()等函數,一定少用,能不用就不用!!!

子函數list一定少用,能不用就不用!!!

總之,子函數一般也不會太復雜,直接寫出來,別各種for,嵌套,變量。!!!

補充:Pytorch顯存不斷增長問題的解決思路

這個問題,我先后遇到過兩次,每次都異常艱辛的解決了。

在網上,關于這個問題,你可以找到各種看似不同的解決方案,但是都沒能解決我的問題。所以只能自己摸索,在摸索的過程中,有了一個排查問題點的思路。

下面舉個例子說一下我的思路。

大體思路

其實思路很簡單,就是在代碼的運行階段輸出顯存占用量,觀察在哪一塊存在顯存劇烈增加或者顯存異常變化的情況。

但是在這個過程中要分級確認問題點,也即如果存在三個文件main.py、train.py、model.py。

在此種思路下,應該先在main.py中確定問題點,然后,從main.py中進入到train.py中,再次輸出顯存占用量,確定問題點在哪。

隨后,再從train.py中的問題點,進入到model.py中,再次確認。

如果還有更深層次的調用,可以繼續追溯下去。

具體例子

main.py

def train(model,epochs,data):
    for e in range(epochs):
        print("1:{}".format(torch.cuda.memory_allocated(0)))
        train_epoch(model,data)
        print("2:{}".format(torch.cuda.memory_allocated(0)))
        eval(model,data)
        print("3:{}".format(torch.cuda.memory_allocated(0)))

假設1與2之間顯存增加極為劇烈,說明問題出在train_epoch中,進一步進入到train.py中。

train.py

def train_epoch(model,data):
    model.train()
    optim=torch.optimizer()
    for batch_data in data:
        print("1:{}".format(torch.cuda.memory_allocated(0)))
        output=model(batch_data)
        print("2:{}".format(torch.cuda.memory_allocated(0)))
        loss=loss(output,data.target)
        print("3:{}".format(torch.cuda.memory_allocated(0)))
        optim.zero_grad()
        print("4:{}".format(torch.cuda.memory_allocated(0)))
        loss.backward()
        print("5:{}".format(torch.cuda.memory_allocated(0)))
        utils.func(model)
        print("6:{}".format(torch.cuda.memory_allocated(0)))

如果在1,2之間,5,6之間同時出現顯存增加異常的情況。此時需要使用控制變量法,例如我們先讓5,6之間的代碼失效,然后運行,觀察是否仍然存在顯存爆炸。如果沒有,說明問題就出在5,6之間下一級的代碼中。進入到下一級代碼,進行調試:

utils.py

def func(model):
print("1:{}".format(torch.cuda.memory_allocated(0)))
a=f1(model)
print("2:{}".format(torch.cuda.memory_allocated(0)))
b=f2(a)
print("3:{}".format(torch.cuda.memory_allocated(0)))
c=f3(b)
print("4:{}".format(torch.cuda.memory_allocated(0)))
d=f4(c)
print("5:{}".format(torch.cuda.memory_allocated(0)))

此時我們再展示另一種調試思路,先注釋第5行之后的代碼,觀察顯存是否存在先訓爆炸,如果沒有,則注釋掉第7行之后的,直至確定哪一行的代碼出現導致了顯存爆炸。假設第9行起作用后,代碼出現顯存爆炸,說明問題出在第九行,顯存爆炸的問題鎖定。

幾種導致顯存爆炸的情況

pytorch的hook機制可能導致,顯存爆炸,hook函數取出某一層的輸入輸出跟權重后,不可進行存儲,修改等操作,這會造成hook不能回收,進而導致取出的輸入輸出權重都可能不被pytorch回收,所以模型的負擔越來也大,最終導致顯存爆炸。

這種情況是我第二次遇到顯存爆炸查出來的,非常讓人匪夷所思。在如下代碼中,p.sub_(torch.mm(k, torch.t(k)) / (alpha + torch.mm(r, k))),導致了顯存爆炸,這個問題點就是通過上面的方法確定的。

這個P是一個矩陣,在使用p.sub_的方式更新P的時候,導致了顯存爆炸。

將這行代碼修改為p=p-(torch.mm(k, torch.t(k)) / (alpha + torch.mm(r, k))),顯存爆炸的問題解決。

  def pro_weight(p, x, w, alpha=1.0, cnn=True, stride=1):
                if cnn:
                    _, _, H, W = x.shape
                    F, _, HH, WW = w.shape
                    S = stride  # stride
                    Ho = int(1 + (H - HH) / S)
                    Wo = int(1 + (W - WW) / S)
                    for i in range(Ho):
                        for j in range(Wo):
                            # N*C*HH*WW, C*HH*WW = N*C*HH*WW, sum -> N*1
                            r = x[:, :, i * S: i * S + HH, j * S: j * S + WW].contiguous().view(1, -1)
                            # r = r[:, range(r.shape[1] - 1, -1, -1)]
                            k = torch.mm(p, torch.t(r))
                            p.sub_(torch.mm(k, torch.t(k)) / (alpha + torch.mm(r, k)))
                    w.grad.data = torch.mm(w.grad.data.view(F, -1), torch.t(p.data)).view_as(w)
                else:
                    r = x
                    k = torch.mm(p, torch.t(r))
                    p.sub_(torch.mm(k, torch.t(k)) / (alpha + torch.mm(r, k)))
                    w.grad.data = torch.mm(w.grad.data, torch.t(p.data))

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • Python深度學習之使用Pytorch搭建ShuffleNetv2
  • win10系統配置GPU版本Pytorch的詳細教程
  • 淺談pytorch中的nn.Sequential(*net[3: 5])是啥意思
  • pytorch visdom安裝開啟及使用方法
  • PyTorch CUDA環境配置及安裝的步驟(圖文教程)
  • pytorch中的nn.ZeroPad2d()零填充函數實例詳解
  • 使用pytorch實現線性回歸
  • pytorch實現線性回歸以及多元回歸
  • Pytorch 使用tensor特定條件判斷索引
  • 在Windows下安裝配置CPU版的PyTorch的方法
  • PyTorch兩種安裝方法
  • PyTorch的Debug指南

標簽:江蘇 畢節 股票 駐馬店 湖州 衡水 中山 呼和浩特

巨人網絡通訊聲明:本文標題《pytorch顯存一直變大的解決方案》,本文關鍵詞  pytorch,顯存,一直,變,大的,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch顯存一直變大的解決方案》相關的同類信息!
  • 本頁收集關于pytorch顯存一直變大的解決方案的相關信息資訊供網民參考!
  • 推薦文章
    欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品
  • <rt id="w000q"><acronym id="w000q"></acronym></rt>
  • <abbr id="w000q"></abbr>
    <rt id="w000q"></rt>
    国产精品自在在线| 99riav国产精品视频| 538国产视频| 欧美视频在线不卡| 亚洲欧美综合另类在线卡通| 国产在线不卡一卡二卡三卡四卡| 青青草视频成人| 欧美一区二视频| 亚洲18色成人| 女性生殖扒开酷刑vk| 欧美三级视频在线播放| 一区二区三区免费在线观看| 97久久超碰国产精品| 日韩在线中文字幕视频| 国产精品丝袜一区| 成人深夜在线观看| 色综合久久久久综合体 | 欧洲一区在线观看| 日韩欧美国产电影| 蜜桃视频第一区免费观看| 鲁大师私人影院在线观看| 91精品国产高清一区二区三区 | 五月婷婷六月香| 久久综合色鬼综合色| 九一九一国产精品| 精品丰满少妇一区二区三区| 中文在线一区二区| 成人免费黄色大片| 在线观看不卡视频| 午夜视频在线观看一区| 中文人妻一区二区三区| 精品国产凹凸成av人导航| 黑人精品欧美一区二区蜜桃| 肉色超薄丝袜脚交69xx图片| 国产精品理伦片| 99在线精品观看| 欧美日韩国产小视频在线观看| 五月天视频一区| 青青草福利视频| 国产调教视频一区| 成人免费三级在线| 欧美视频三区在线播放| 午夜精品久久久久久久蜜桃app| av无码一区二区三区| 亚洲精品一区二区三区福利| 国产精品一区二区在线观看不卡| 精品国产乱码久久久久久鸭王1| 一区二区三区免费观看| 99久久免费看精品国产一区| 久久这里只有精品首页| 国产成人高清在线| 欧美在线观看你懂的| 日韩成人一级片| 欧美美女性生活视频| 亚洲视频狠狠干| 日本japanese极品少妇| 国产欧美1区2区3区| 色哟哟在线观看视频| 日韩欧美国产三级电影视频| 国产一区二三区| 在线一区二区视频| 强制捆绑调教一区二区| 国产精品一区二区亚洲| 一区二区三区免费| 一级肉体全黄裸片| 亚洲精品国产成人久久av盗摄 | 欧美日韩国产天堂| 经典三级视频一区| 91久久国产综合久久| 蜜桃一区二区三区四区| 老妇女50岁三级| 免费成人小视频| 美女福利视频在线观看| 日韩国产一二三区| 国产av无码专区亚洲av毛网站| 日韩有码一区二区三区| 神马久久精品综合| 日韩国产在线一| 91久久一区二区| 国产在线精品不卡| 欧美老肥妇做.爰bbww| 国产成人三级在线观看| 欧美一区二区三区影视| 成a人片国产精品| 26uuu精品一区二区三区四区在线| 91亚洲精品一区二区乱码| 久久伊99综合婷婷久久伊| 午夜视频在线免费看| 国产欧美一区在线| 搡老熟女老女人一区二区| 自拍偷拍国产精品| 超薄肉色丝袜一二三| 亚洲成av人片在线| www青青草原| 国产在线精品视频| 日韩一区二区免费视频| 91免费版在线看| 国产精品天美传媒沈樵| 中日韩精品一区二区三区| 亚洲一卡二卡三卡四卡| 国产精品白丝喷水在线观看| 另类成人小视频在线| 欧美日韩中字一区| 成人网男人的天堂| 久久久99久久精品欧美| 国产麻豆天美果冻无码视频 | 精品国产不卡一区二区三区| 折磨小男生性器羞耻的故事| 亚洲欧美综合另类在线卡通| 波多野结衣久久久久| 久久精品国产99| 欧美一区二区免费| 在线天堂www在线国语对白| 久久免费午夜影院| 人妻少妇精品视频一区二区三区| 亚洲一区二区三区四区中文字幕| 亚洲av无码一区二区三区在线| 国产一区二区在线视频| 欧美一区二区三区在线观看视频| 久久无码专区国产精品s| 中文字幕日韩欧美一区二区三区| 91动漫免费网站| 九九在线精品视频| 久久99国产精品久久99| 日本中文字幕有码| 亚洲色图都市小说| 91高清免费观看| 国产精品中文字幕一区二区三区| 欧美xxx久久| 香蕉网在线播放| 蜜桃av一区二区| 日韩欧美亚洲一区二区| 特大黑人巨人吊xxxx| 免费成人结看片| 精品国产a毛片| 日本成人免费视频| 国产乱对白刺激视频不卡| 久久久久亚洲综合| 无码人中文字幕| 国产成人亚洲精品青草天美 | 免费观看一区二区三区| 亚洲精品视频在线观看网站| 在线视频你懂得一区| 97精品久久久午夜一区二区三区 | 精品美女在线播放| av小说在线观看| 久久er99热精品一区二区| 精品国产伦一区二区三区观看方式 | 精品国产免费久久久久久婷婷| 一区二区三区电影在线播| 欧美色视频一区| 久久久久国产精品无码免费看| 日日夜夜精品视频免费| 日韩视频123| 中文字幕欧美激情极品| 国产美女精品一区二区三区| 亚洲国产精华液网站w| 欧产日产国产v| 午夜剧场免费看| 蜜桃91丨九色丨蝌蚪91桃色| 久久久久免费观看| 日韩在线观看视频一区二区| 制服下的诱惑暮生| 爽爽淫人综合网网站 | 妖精视频在线观看| 午夜亚洲福利老司机| 精品国免费一区二区三区| 香蕉成人在线视频| 99精品国产99久久久久久白柏| 亚洲成在人线在线播放| 亚洲精品一区二区三区在线观看| 糖心vlog免费在线观看| 91网站在线观看视频| 三级久久三级久久| 日本一区二区视频在线| 在线精品视频小说1| 黄色性生活一级片| 国产成人免费9x9x人网站视频| 亚洲乱码国产乱码精品精可以看 | 一区二区成人在线| 日韩欧美综合在线| 免费成人深夜夜行网站| 国产原创剧情av| 国产精品一二一区| 亚洲综合色视频| 久久久亚洲国产美女国产盗摄| 色婷婷综合久色| 国产精品1000部啪视频| 成人国产精品免费观看| 日韩一区欧美二区| 国产精品理论片在线观看| 91精品国产欧美一区二区18| 久久久久久久久久97| 香蕉视频污视频| 国产+成+人+亚洲欧洲自线| 亚洲成人av电影| 91视频免费观看| 欧美久久久久久久久久| 手机看片国产日韩| 2一3sex性hd|