《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 設(shè)計應(yīng)用 > 基于生成對抗網(wǎng)絡(luò)的小樣本圖像數(shù)據(jù)增強技術(shù)
基于生成對抗網(wǎng)絡(luò)的小樣本圖像數(shù)據(jù)增強技術(shù)
網(wǎng)絡(luò)安全與數(shù)據(jù)治理 6期
楊鵬坤,李金龍,郝潤來
(中國科學(xué)技術(shù)大學(xué)計算機科學(xué)與技術(shù)學(xué)院,安徽合肥230026)
摘要: 基于生成對抗網(wǎng)絡(luò)(GANs)的圖像數(shù)據(jù)增強方法在近年來展現(xiàn)出了巨大的潛力。然而生成高分辨率、高保真圖像通常需要大量訓(xùn)練數(shù)據(jù),這和缺乏訓(xùn)練數(shù)據(jù)的現(xiàn)狀背道而馳。為解決這一問題,提出了一種能夠在小樣本、高分辨率圖像數(shù)據(jù)集上穩(wěn)定訓(xùn)練的條件生成對抗網(wǎng)絡(luò)模型,并且將該模型用于數(shù)據(jù)增強。實驗結(jié)果表明,在基準(zhǔn)數(shù)據(jù)集上,該模型與當(dāng)前最新模型相比能夠生成更加逼真的圖像并取得了最低的FID值;在圖像分類任務(wù)中使用其進行數(shù)據(jù)增強能夠有效緩解分類器的過擬合問題。
中圖分類號:TP391
文獻標(biāo)識碼:A
DOI:10.19358/j.issn.2097-1788.2023.06.013
引用格式:楊鵬坤,李金龍,郝潤來.基于生成對抗網(wǎng)絡(luò)的小樣本圖像數(shù)據(jù)增強技術(shù)[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2023,42(6):79-84,102.
Few-shot image data augmentation based on generative adversarial networks
Yang Pengkun,Li Jinlong,Hao Runlai
(School of Computer Science and Technology, University of Science and Technology of China, Hefei 230026, China)
Abstract: In recent years, image data augmentation methods based on Generative Adversarial Networks (GANs) have shown great potential. However, generating highresolution, highfidelity images typically requires a large amount of training data, which contradicts the current lack of training data situation. To address this issue, a conditional GAN model that can stably train on fewshot, highresolution image datasets has been proposed for data augmentation. Experimental results on benchmark datasets indicate that this model, compared to the current stateoftheart models, is capable of generating more realistic images and achieving the lowest Fréchet Inception Distance (FID) score. Furthermore, using this model for data augmentation in image classification tasks effectively mitigates overfitting issues in classifiers.
Key words : generative adversarial networks; data augmentation; image classification

0    引言

視覺深度學(xué)習(xí)的成功不僅僅取決于高容量的模型,還依賴于大規(guī)模標(biāo)注數(shù)據(jù)的可用性。許多優(yōu)秀的模型在大規(guī)模數(shù)據(jù)集上取得了良好的性能。然而,對于視覺識別任務(wù),由于數(shù)據(jù)的收集和標(biāo)注耗費巨大,通常在沒有足夠樣本的場景下訓(xùn)練模型,往往會導(dǎo)致模型過擬合,從而降低其泛化性能。

為了解決這些問題,數(shù)據(jù)增強是常用的緩解數(shù)據(jù)匱乏的手段之一。雖然傳統(tǒng)的圖像增強技術(shù)(如旋轉(zhuǎn)和隨機裁剪)的確有效果,但一些轉(zhuǎn)換可能是無意義的,甚至?xí)?dǎo)致圖像語義上的改變。如數(shù)字‘6’旋轉(zhuǎn)180°變成了‘9’,改變了語義,這需要專家經(jīng)驗進行評估。最近的研究表明,使用生成對抗網(wǎng)絡(luò)(GANs)進行數(shù)據(jù)增強具有巨大潛力。生成對抗網(wǎng)絡(luò)是一種隱式生成模型,通過對真實樣本的數(shù)據(jù)分布進行建模,可以根據(jù)已有數(shù)據(jù)集的高維特征組合生成與訓(xùn)練集完全不同的圖像,能夠為深度學(xué)習(xí)模型提供更多的圖像特征,以緩解過擬合問題。Mirza等人提出的條件生成對抗網(wǎng)絡(luò)(cGAN)可以通過控制類別生成對應(yīng)類別的樣本,因此可以得到帶有標(biāo)簽的樣本。



本文詳細(xì)內(nèi)容請下載:http://www.rjjo.cn/resource/share/2000005378




作者信息:

楊鵬坤,李金龍,郝潤來

(中國科學(xué)技術(shù)大學(xué)計算機科學(xué)與技術(shù)學(xué)院,安徽合肥230026)


微信圖片_20210517164139.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: a级片观看 | 国产禁女女网站免费看 | 在线不卡国产 | 俄罗斯一级毛片免费播放 | 在线观看一级毛片 | 俄罗斯特级毛片 | 国产成人精品高清不卡在线 | 成人免费网址在线 | 国产精品视频免费观看调教网 | 国产一区影视 | 亚洲 自拍 另类 欧美 综合 | 国产一区亚洲欧美成人 | 欧美日韩视频一区三区二区 | 亚洲天堂男人天堂 | 国产精品久久久久久一级毛片 | 一级做a爰片性色毛片男 | 中文字幕亚洲精品第一区 | 日韩精品一区二区三区视频 | 久久福利青草狠狠午夜 | 国产成人精品一区二区免费视频 | 乱人伦中文视频在线观看免费 | 亚洲精品m在线观看 | 欧美一级视频高清片 | 日韩有码第一页 | 特黄特级a级黄毛片免费观看多人 | 亚洲精品中文字幕在线 | 精品国产一区二区三区不卡蜜臂 | 又黄又爽又刺激的视频 | 在线播放另类 | 最近手机高清中文字幕大全7 | 免费观看国产精品 | 最新精品亚洲成a人在线观看 | 亚洲成人福利 | 久久精品亚洲乱码伦伦中文 | 亚洲精品成人一区二区 | 欧美怡红院在线 | 亚洲国产精品一区二区三区久久 | 国产午夜精品久久久久免费视 | 男女视频免费 | 久久91亚洲精品久久91综合 | 国产一区二区三区亚洲综合 |