国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

paddlepaddle圖像分類與visualDL嘗鮮體驗

企業動態
很早之前,有寫過關于TensorFlow, MXNet中如何訓練一個靠譜的圖像分類器,這里我會先使用paddlepaddle官方的例子,來學習下如何使用paddlepaddle構建一個靠譜的分類器。

paddlepaddle圖像分類

很早之前,有寫過關于TensorFlow, MXNet中如何訓練一個靠譜的圖像分類器,這里我會先使用paddlepaddle官方的例子,來學習下如何使用paddlepaddle構建一個靠譜的分類器。

數據介紹

官方文檔上使用的數據是flowers-102,這個數據集早在當初tflearn學習深度學習網絡的時候就有接觸過,還是比較簡單的,paddlepaddle把它寫成數據接口

模型介紹

paddlepaddle的模型介紹model overview。這里我們在實驗當中使用大名鼎鼎的resnet-50:

import paddle.v2 as paddle  __all__ = ['resnet_imagenet', 'resnet_cifar10']   def conv_bn_layer(input,                 ch_out,                 filter_size,                 stride,                 padding,                 active_type=paddle.activation.Relu(),                 ch_in=None):     tmp = paddle.layer.img_conv(         input=input,         filter_size=filter_size,         num_channels=ch_in,         num_filters=ch_out,         stride=stride,         padding=padding,         act=paddle.activation.Linear(),         bias_attr=False)     return paddle.layer.batch_norm(input=tmp, act=active_type)   def shortcut(input, ch_out, stride):     if input.num_filters != ch_out:         return conv_bn_layer(input, ch_out, 1, stride, 0,                             paddle.activation.Linear())     else:         return input   def basicblock(input, ch_out, stride):     short = shortcut(input, ch_out, stride)     conv1 = conv_bn_layer(input, ch_out, 3, stride, 1)     conv2 = conv_bn_layer(conv1, ch_out, 3, 1, 1, paddle.activation.Linear())     return paddle.layer.addto(         input=[short, conv2], act=paddle.activation.Relu())   def bottleneck(input, ch_out, stride):     short = shortcut(input, ch_out * 4, stride)     conv1 = conv_bn_layer(input, ch_out, 1, stride, 0)     conv2 = conv_bn_layer(conv1, ch_out, 3, 1, 1)     conv3 = conv_bn_layer(conv2, ch_out * 4, 1, 1, 0,                         paddle.activation.Linear())     return paddle.layer.addto(         input=[short, conv3], act=paddle.activation.Relu())   def layer_warp(block_func, input, ch_out, count, stride):     conv = block_func(input, ch_out, stride)     for i in range(1, count):         conv = block_func(conv, ch_out, 1)     return conv   def resnet_imagenet(input, class_dim, depth=50):     cfg = {         18: ([2, 2, 2, 1], basicblock),         34: ([3, 4, 6, 3], basicblock),         50: ([3, 4, 6, 3], bottleneck),         101: ([3, 4, 23, 3], bottleneck),         152: ([3, 8, 36, 3], bottleneck)     }     stages, block_func = cfg[depth]     conv1 = conv_bn_layer(         input, ch_in=3, ch_out=64, filter_size=7, stride=2, padding=3)     pool1 = paddle.layer.img_pool(input=conv1, pool_size=3, stride=2)     res1 = layer_warp(block_func, pool1, 64, stages[0], 1)     res2 = layer_warp(block_func, res1, 128, stages[1], 2)     res3 = layer_warp(block_func, res2, 256, stages[2], 2)     res4 = layer_warp(block_func, res3, 512, stages[3], 2)     pool2 = paddle.layer.img_pool(         input=res4, pool_size=7, stride=1, pool_type=paddle.pooling.Avg())     out = paddle.layer.fc(input=pool2,                         size=class_dim,                         act=paddle.activation.Softmax())     return out   def resnet_cifar10(input, class_dim, depth=32):     # depth should be one of 20, 32, 44, 56, 110, 1202     assert (depth - 2) % 6 == 0     n = (depth - 2) / 6     nStages = {16, 64, 128}     conv1 = conv_bn_layer(         input, ch_in=3, ch_out=16, filter_size=3, stride=1, padding=1)     res1 = layer_warp(basicblock, conv1, 16, n, 1)     res2 = layer_warp(basicblock, res1, 32, n, 2)     res3 = layer_warp(basicblock, res2, 64, n, 2)     pool = paddle.layer.img_pool(         input=res3, pool_size=8, stride=1, pool_type=paddle.pooling.Avg())     out = paddle.layer.fc(input=pool,                         size=class_dim,                         act=paddle.activation.Softmax())     return out 

運行

進入對應目錄后

python train.py resnet 

即可完成

但是事實上其實不是這樣的,paddlepaddle安裝whl和tensorflow一樣,gpu版本都會對應不同的cuda和cudnn,經常會出一些配置問題,所以直接在系統中安裝其實是一個不好的選擇,所以***是不要選擇直接安裝,而是使用nvidia-docker,同理在tensorflow,mxnet中,感覺nvidia-docker也是很好的。

nvidia-docker安裝

  1. 安裝cuda、cudnn,***的;
  2. 根據系統選擇對應版本的docker;
  3. 安裝nvidia-docker:
docker volume ls -q -f driver=nvidia-docker | xargs -r -I{} -n1 docker ps -q -a -f volume={} | xargs -r docker rm -f sudo apt-get purge -y nvidia-docker docker volume ls -q -f driver=nvidia-docker | xargs -r -I{} -n1 docker ps -q -a -f volume={} | xargs -r docker rm -f sudo apt-get purge -y nvidia-docker curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey |  sudo apt-key add - curl -s -L https://nvidia.github.io/nvidia-docker/ubuntu16.04/amd64/nvidia-docker.list |  sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update sudo apt-get install -y nvidia-docker2 sudo pkill -SIGHUP dockerd 
  1. 拉paddlepaddle鏡像 docker pull paddlepaddle/paddle:latest-gpu
  2. 進入docker, nvidia-docker run -it -v $PWD:/work -v /data:/data paddlepaddle/paddle:latest-gpu /bin/bash。這里稍微注意下,paddlepaddle的官方鏡像源里面缺少一些必須的包,比如opencv,好像有點問題,還有vim啥的也都沒有裝,這里為了運行***把這些環境一次性都解決,然后docker commit,保存對鏡像的修改。

基本這樣,你就可以在本機上有一個完全干凈的docker環境,你就可以隨便折騰啦。這里如果有運行不起來的問題,可在下方評論,我具體也不記得缺哪些東西,不過都很好解決的

docker中運行

這里我運行過很長時間的一個demo,但是因為沒有保存好信息,被覆蓋了,所以只能暫時演示一下。

使用自己的數據集來訓練模型

實驗完官方的flower-102之后,我們這里使用自己的數據集來訓練模型,數據集是之前收集到的鑒黃數據,數據集主要包括三類:porn\sexy\normal,大概有500w張左右。 首先,我們需要生成如下格式,格式為圖像路徑+"\t"+label,其中label為0表示normal,1表示sexy,2表示porn。 生成腳本如下:

import random import os import codecs import sys  def gen_datalist(data_dir, class_label, data_type="train", shuffle=True, suffix_list=["jpg", "jpeg", "JPEG", "jpg"]):     all_files = []     for root, dirs, files in os.walk(data_dir):         print "processing {0}".format(root)         for file_name in files:             file_name = os.path.join(root, file_name)             suffix = file_name.split(".")[-1]             if suffix in suffix_list:                 all_files.append(file_name)     if shuffle:         print "shuffle now"         random.shuffle(all_files)     print "begin to write to {0}".format(data_type+"_"+class_label+".lst")     with codecs.open(data_type+"_"+class_label+".lst", "w", encoding="utf8") as fwrite:         for each_file in all_files:             fwrite.write(each_file+"\t"+class_label+"\n")    if __name__ == "__main__":     argv = sys.argv     data_dir = argv[1]     class_label = argv[2]     gen_datalist(data_dir, class_label) 

有了腳本運行之后,發現了一些cv2庫中none 沒有shape的問題,調試之后發現,原來收集的數據中,有部分大小為0或者很小的圖像,這部分應該是有問題的數據,寫了個濾除腳本,刪除這些數據之后就妥了

from paddle.v2.image import load_and_transform import paddle.v2 as paddle  def filter_imgs(file_path = "train.lst", write_file = "valid_train.lst"):     fwrite = open(write_file, "w")     with open(file_path, 'r') as fread:         error=0         for line in fread.readlines():             img_path = line.strip().split("\t")[0]             try:                 img = paddle.image.load_image(img_path)                 img = paddle.image.simple_transform(img, 256, 224, True)                 fwrite.write(line)             except:                 error += 1                 print error  filter_imgs() 

從頭開始訓練模型

在paddlepaddle中訓練模型

image = paddle.layer.data(     name="image", type=paddle.data_type.dense_vector(DATA_DIM)) conv, pool, out = resnet.resnet_imagenet(image, class_dim=CLASS_DIM) cost = paddle.layer.classification_cost(input=out, label=lbl) parameters = paddle.parameters.create(cost) optimizer = paddle.optimizer.Momentum(     momentum=0.9,     regularization=paddle.optimizer.L2Regularization(rate=0.0005 *                                                      BATCH_SIZE),     learning_rate=learning_rate / BATCH_SIZE,     learning_rate_decay_a=0.1,     learning_rate_decay_b=128000 * 35,     learning_rate_schedule="discexp", ) train_reader = paddle.batch(     paddle.reader.shuffle(         # flowers.train(),         # To use other data, replace the above line with:         reader.train_reader('valid_train0.lst'),         buf_size=1000),     batch_size=BATCH_SIZE)  def event_handler(event):     if isinstance(event, paddle.event.EndIteration):         if event.batch_id % 1 == 0:             print "\nPass %d, Batch %d, Cost %f, %s" % (                 event.pass_id, event.batch_id, event.cost, event.metrics)     if isinstance(event, paddle.event.EndPass):         with gzip.open('params_pass_%d.tar.gz' % event.pass_id, 'w') as f:             trainer.save_parameter_to_tar(f)         result = trainer.test(reader=test_reader)         print "\nTest with Pass %d, %s" % (event.pass_id, result.metrics) trainer.train(     reader=train_reader, num_passes=200, event_handler=event_handler) 
  1. 需要配置resnet網絡,確定好input和out,配置cost函數,構建parameter;
  2. 構建optimizer,使用momentum的sgd;
  3. 構建reader,設置訓練數據讀取,配置上文提到的圖片路徑\tlabel的文件;
  4. event_handler是用來記錄batch_id\pass的事件處理函數,傳入train函數,訓練過程中會完成相應工作;

pretrain model + finetuning

resnet官方提供一個在imagenet上訓練好的pretrained model,運行model_download.sh。

sh model_download.sh ResNet50 

會下載Paddle_ResNet50.tar.gz, 這個文件是paddlepaddle在ImageNet上訓練的模型文件,我們這里使用這個文件的參數做初始化,我們需要在代碼,參數初始化的時候,使用這里的參數,修改代碼如下:

if args.retrain_file is not None and ''!=args.retrain_file:         print("restore parameters from {0}".format(args.retrain_file))         exclude_params = [param for param in parameters.names() if param.startswith('___fc_layer_0__')]         parameters.init_from_tar(gzip.open(args.retrain_file), exclude_params) 

首先,我們需要指定init_from_tar的參數文件為Paddle_ResNet50.tar.gz, 大家知道ImageNet是在1000類上的一個模型,它的輸出為1000個節點,所以我們這里需要稍作修改,我們增加一個exclud_params,指定***一層___fc_layer_0__的參數,不要從文件當中初始化.

pretrain model + freeze layers + finetuning

查了文檔和代碼知道,只需要在某層增加is_static=True,就可以freeze掉該層的參數,使該層參數不更新,但是我在使用這部分時遇到了bug,提了issue (core dumped with is_static=True)[github.com/PaddlePaddle],出現core的問題,無法正常使用,后面能夠搞定了,再更新這部分內容。

代碼改進

examples里面的代碼reader部分在處理data.lst時,太過粗糙,沒有考慮到數據如果出現一些問題時,訓練代碼會直接掛掉,這部分的代碼至少要保證足夠的魯棒性

def train_reader(train_list, buffered_size=1024):     def reader():         with open(train_list, 'r') as f:             lines = [line.strip() for line in f]             for line in lines:                 try:                     img_path, lab = line.strip().split('\t')                     yield img_path, int(lab)                 except:                     print "record in {0} get error".format(train_list)                     continue      return paddle.reader.xmap_readers(train_mapper, reader,                                     cpu_count(), buffered_size) 

visualDL實踐

可視化acc\loss

之前有在小的demo上體驗過visualDL,在比較大的數據訓練過程上沒試驗過,這次鑒黃數據上測試,打印出loss和acc看看,當小數量的step的時候,看起來是沒有問題的 。

但是但step較大的時候,acc打印不出來了,同樣的代碼,出錯信息也看不出來,各種莫名的報錯,看樣子和使用的代碼沒有什么關系,應該是visualDL本身的容錯做的不夠。

出錯提示:

這部分和之前提過的一個issue很類似: Unexpected error: <type 'exceptions.RuntimeError'> 因為信息量不夠,其實很難自己這邊做問題分析,希望visualDL把這塊容錯做好一些。

這塊時間應該有些問題,我也不知道,我總覺的有點問題 是我用的姿勢不對嗎 ?

可視化graph

使用有問題,使用paddlepaddle保存好的模型指定給model_pb 出現如下問題, 看了repo中的這部分的demo都是直接curl下來一個model.pb的文件,然后可視化,沒有找到能直接導出paddlepaddle保存模型的導入到visualdl中, 可能是我的使用方式有問題, 保存模型方式如下圖:


莫非需要先把paddlepaddle模型轉換為onnx格式?

可視化image

有問題,暫時沒有測試,之后更新后同步

總結

paddlepaddle現在在dl這塊還只是剛開始,example里面的demo和tensorflow最開始一樣,并不能完全hold住實際業務需求,當初tensorflow的時候也有種種的問題,后來經過社區的幫助,到現在很多源碼幾乎都是開箱即用,paddlepaddle現在可能在文檔與demo上還是0.7版本的tensorflow,不過希望能更加努力,畢竟作為同行,在參與了一些分布式dl模型的工作之后,深知其中的艱辛。visualdl相當棒的工具,支持onnx的模型可視化,雖然在測試過程中感覺有些瑕疵,但是十分支持,希望能快速發展,個人也在閱讀這部分源碼學習, histogram的相關功能沒有測試,挺有用的 尤其在訓練跑偏的時候可以快速可視化參數的分布。***,強烈希望visualdl能把文檔弄的更友好一些,加油。

另外,大年三十,祝大家新年快樂,狗年跑模型妥妥的收斂

責任編輯:張燕妮 來源: 小石頭的碼瘋窩
相關推薦

2018-03-26 20:07:25

深度學習

2018-04-09 10:20:32

深度學習

2011-03-23 11:19:37

2018-03-27 22:40:59

深度學習

2013-11-14 10:34:57

Android 4.4特性

2011-03-23 10:23:56

IE9嘗鮮體驗瀏覽器

2014-06-19 15:29:44

RHEL 7.0系統安裝

2013-12-02 11:17:17

Linux MintLinux Mint Cinnamon

2012-04-10 14:45:05

傲游瀏覽器體驗版

2021-02-15 18:19:52

數字人民幣數字貨幣區塊鏈

2014-01-13 17:12:38

IT技術周刊

2018-01-21 14:11:22

人工智能PaddlePaddlTensorflow

2018-01-26 14:29:01

框架

2019-07-06 10:18:07

人工智能

2018-03-27 23:01:32

移動端

2017-05-08 12:30:19

智能化垃圾分類二維碼

2024-09-20 10:02:13

2018-03-27 22:35:35

百度

2022-01-18 09:35:36

GNOME編輯器Linux

2018-01-18 08:48:56

百度工具深度學習
點贊
收藏

51CTO技術棧公眾號

国产suv精品一区| 99精品99| 日韩欧美国产一区二区三区| 深夜福利视频在线观看| 亚洲日本一区二区| 99re热在线观看| 99r精品视频| 天堂…中文在线最新版在线| 欧美aⅴ一区二区三区视频| 精品无码久久久久久久动漫| 欧美国产高清| 97久久人人超碰caoprom欧美| 午夜欧美在线| 91网站免费观看| 黄色成人91| 麻豆av福利av久久av| 亚洲另类自拍| 性欧美精品一区二区三区在线播放 | 欧美变态tickle挠乳网站| 国产黄在线播放| 日韩欧美国产网站| 欧美男男激情freegay| 欧洲精品一区二区三区在线观看| 国产在线日本| 91麻豆精品国产91久久久使用方法| 日本三级在线播放完整版| 精品国产一区二区三区久久久蜜月| sm捆绑调教国产免费网站在线观看| 亚洲图片欧洲图片av| 国产一区影院| 欧美一级大片在线免费观看| 第一sis亚洲原创| 精品亚洲一区二区三区四区五区高| 男女视频一区二区| 日韩中字在线观看| 久久久国产精品不卡| av二区三区| 欧美日韩一区二区在线视频| 色网在线免费观看| 欧美福利视频在线| 99精品小视频| 视频一区二区三区免费观看| 波多野结衣在线aⅴ中文字幕不卡| 18av网站| 91精品国产综合久久精品麻豆| 五月激情久久| 国产91在线视频| 久久av在线| 三年中国国语在线播放免费| 欧美日韩国产专区| 国产在线天堂www网在线观看| 精品国产一区二区三区四区在线观看 | 亚洲风情在线资源| 欧美国产日韩视频| 欧美在线国产| 777久久精品一区二区三区无码 | 精品黑人一区二区三区久久| 久久精品免视看国产成人| 国产在线视频91| 国产在线一区二区综合免费视频| 麻豆三级在线观看| 欧美一区三区四区| 999久久久久久久久6666| 成人av资源网| 91免费看片在线观看| 狠狠v欧美ⅴ日韩v亚洲v大胸| 亚洲欧美精品伊人久久| 精品免费在线| 午夜啪啪福利视频| 一区二区三区高清| 午夜不卡影院| 91美女福利视频高清| 99久久精品国产观看| melody高清在线观看| 欧美成人午夜激情视频| 亚洲色诱最新| av免费看大片| 在线一区二区日韩| 国产1区2区在线| 91九色综合久久| 播五月开心婷婷综合| 国产剧情一区二区三区| 免费av播放| 精品国产乱码久久久久久老虎| 日韩三级av| 日韩精品手机在线观看| 日韩欧美中文第一页| 国产一区二区三区| 亚洲韩国在线| 五月综合激情网| 综合久草视频| 日韩欧美一区二区三区四区| 香蕉成人伊视频在线观看| 成人乱码手机视频| 亚洲精品一区二| 精品久久久视频| 99精品中文字幕在线不卡| 最近中文字幕免费mv| 欧美在线free| 日韩欧美高清| 奇米影视四色在线| 萌白酱国产一区二区| 精品一区二区三区在线播放视频| jizzjizz在线观看| 成人网在线视频| 一区二区三区免费在线观看| 999久久精品| 欧美三级一级片| 亚洲欧美日韩成人| 日韩有码一区二区三区| 国产女主播在线写真| 国产精品免费视频久久久| 日本一二三不卡| 精品中文在线| 黄色av网址在线播放| 亚洲人线精品午夜| 日本一区中文字幕| 国产日产一区二区| 国产亚洲精品自在久久| 日本韩国欧美在线| 欧美激情视频一区二区三区免费| 国产男女爽爽爽| 97国产suv精品一区二区62| av成人动漫在线观看| 不卡亚洲精品| 欧美精品一区二区三区三州| 亚洲欧美中文日韩v在线观看| 久久国产综合精品| 色老头在线一区二区三区| 在线不卡日本| 亚洲色图综合久久| av影院午夜一区| 秋霞一区二区| 国产视频三区| 成人在线精品视频| 日本道色综合久久| 国产亚洲精品v| 羞羞电影在线观看www| 亚洲精品日韩成人| 亚洲天堂网站在线观看视频| 成人听书哪个软件好| 高清在线一区| 国产日韩成人内射视频| 久久久久久久久久国产精品| 国产视频一区在线播放| 欧美久久香蕉| 亚洲国产资源| 国产精品国产三级欧美二区 | 欧美国产不卡| 最新理论片影院| 91pron在线| 欧美一级一区二区| 国产精品影音先锋| 久久视频社区| 污污免费网站| 超碰97在线播放| 日韩精品一区国产麻豆| 成人中文字幕电影| 久久夜色电影| 青青久草在线| 亚洲日本欧美在线| 欧美成人h版在线观看| 亚洲丝袜美腿综合| 欧美全黄视频| 无遮挡在线观看| 999sesese| 久久国产一区| www国产精品视频| 一级女性全黄久久生活片免费| 日韩午夜一区| 中文成人激情娱乐网| 91精品久久久久久9s密挑| 免费电影一区| 久久91亚洲精品中文字幕| 色综合天天综合网天天看片| 精品夜夜嗨av一区二区三区| 国偷自产视频一区二区久| h视频网站在线观看| 日本a视频在线观看| 国产精品亚洲视频在线观看| 欧美一级理论片| 欧美激情在线看| 国产精品乱看| 超碰精品在线观看| 日本三级在线播放完整版| 亚洲熟妇av一区二区三区| 国产精品一区视频| 欧美日韩福利电影| 欧美一区二区精品在线| 国产精品毛片无遮挡高清| 日韩精品午夜视频| 国产不卡一区| 成人网ww555视频免费看| 污网站在线观看视频| 国产免费黄视频| 精品视频一区二区| 日本人成精品视频在线| 亚洲欧美日韩区| 欧美三级午夜理伦三级中视频| 国产精品久久久久影院老司|