亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用浮世繪人臉圖像的數(shù)據(jù)集來訓(xùn)練StyleGAN模型

LiveVideoStack ? 來源:LiveVideoStack ? 作者:LiveVideoStack ? 2020-12-07 13:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作為我的論文《基于分辨率的GAN插值用于域間的可控圖像合成》的一部分,我使用浮世繪人臉圖像的數(shù)據(jù)集來訓(xùn)練StyleGAN模型,本文包含該數(shù)據(jù)集的鏈接和該數(shù)據(jù)集的詳細信息。

更新

V2 - 刪除了28張質(zhì)量不好的圖像(對準不良或沒有正面)。

V1 - 最初發(fā)行的版本,被使用在與分辨率相關(guān)的GAN插值的論文中,用于域之間的可控圖像合成。

數(shù)據(jù)集 浮世繪人臉數(shù)據(jù)集包含來自浮世繪照片的5209張臉部圖像。圖像像素為1024x1024、jpeg格式,并已根據(jù)FFHQ數(shù)據(jù)集所使用的過程進行對齊。上面是數(shù)據(jù)集中(幾乎)所有圖像的地圖,對圖像進行了繪制,以使相似的面孔看起來靠近在一起[2]。為了便于顯示, 圖像已縮小為256x256。 細節(jié) 圖片是從數(shù)個博物館網(wǎng)站上下載來的,然后我使用Amazon Rekognition嘗試從每個圖片中檢測面部和面部標志。Rekognition在這兩個任務(wù)上都做得很合理,但是顯然并不完美,很多面部都被遺漏了,并且許多圖像中都存在對齊錯誤。同時,許多圖像的分辨率並不是很高,因此為了生成1024x1024分辨率的可用數(shù)據(jù)集,我使用了在Manga109數(shù)據(jù)集上訓(xùn)練的預(yù)訓(xùn)練的ESRGAN [3]模型來按需放大圖像,盡管這些圖像會留下一些瑕疵,但大體上的結(jié)果還是不錯的。 其他數(shù)據(jù)集

KaoKore是浮世繪人臉的另一個數(shù)據(jù)集[4],它具有更多的多樣性和標簽,但是圖像分辨率較低且人臉未對齊。 許可和使用 此數(shù)據(jù)集是根據(jù)``知識共享署名-相同方式共享4.0國際許可證''提供的。 如果使用數(shù)據(jù)集,請引用為“Aligned ukiyo-e faces dataset, Justin Pinkney 2020”或一個bibtex條目:

1. Pinkney, Justin N. M., and Doron Adler. ‘Resolution Dependent GAN Interpolation for Controllable Image Synthesis Between Domains’. ArXiv:2010.05334[Cs, Eess], 20 October 2020.http://arxiv.org/abs/2010.05334. 2. 為了生成此圖像,我首先使用在Imagenet上預(yù)訓(xùn)練的ResNet50從每個圖像中提取CNN的特征。然后使用UMAP將這些高維特征向量投影到二維,最后使用lapjv算法完成網(wǎng)格劃分。 3. Wang, Xintao, Ke Yu, Shixiang Wu, Jinjin Gu, Yihao Liu, Chao Dong, Chen Change Loy, Yu Qiao, and Xiaoou Tang. ‘ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks’. ArXiv:1809.00219[Cs], 1 September 2018.http://arxiv.org/abs/1809.00219. 4. Tian, Yingtao, Chikahiko Suzuki, Tarin Clanuwat, Mikel Bober-Irizar, Alex Lamb, and Asanobu Kitamoto. ‘KaoKore: A Pre-Modern Japanese Art Facial Expression Dataset’. ArXiv:2002.08595[Cs, Stat], 20 February 2020.http://arxiv.org/abs/2002.08595.

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    42111
  • 分辨率
    +關(guān)注

    關(guān)注

    2

    文章

    1105

    瀏覽量

    43215
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    26001

原文標題:Ukiyo-e faces dataset 浮世繪面孔數(shù)據(jù)集

文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于級聯(lián)分類器的人臉檢測基本原理

    基于統(tǒng)計的方法。從高層的輸入輸出角度描述,軟件輸入是一張圖像(可以表示為一個uint8_t或者uint16_t的數(shù)組),輸出是檢測的結(jié)果,如果檢測到人臉會輸出人臉的數(shù)量和對應(yīng)的位置,
    發(fā)表于 10-30 06:14

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型
    發(fā)表于 10-22 07:03

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    圖像的快速鑒別,滿足實時或準實時的應(yīng)用需求。 3. 數(shù)據(jù)采集 AI圖片數(shù)據(jù),本項目使用gemini生成圖片,使用的是gem實現(xiàn)的。 提示
    發(fā)表于 08-21 13:59

    訓(xùn)練平臺數(shù)據(jù)過大無法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺限制了圖片數(shù)量,想要本地訓(xùn)練下載數(shù)據(jù)時發(fā)現(xiàn)只會跳出網(wǎng)絡(luò)異常的錯誤,請問這有什么解決辦法?
    發(fā)表于 07-22 06:03

    瑞芯微模型量化文件構(gòu)建

    模型是一張圖片輸入時,量化文件如上圖所示。但是我現(xiàn)在想量化deepprivacy人臉匿名模型,他的輸入是四個輸入。該模型訓(xùn)練
    發(fā)表于 06-13 09:07

    請問如何在imx8mplus上部署和運行YOLOv5訓(xùn)練模型?

    我正在從事 imx8mplus yocto 項目。我已經(jīng)在自定義數(shù)據(jù)上的 YOLOv5 上訓(xùn)練了對象檢測模型。它在 ubuntu 電腦上運行良好?,F(xiàn)在我想在我的 imx8mplus
    發(fā)表于 03-25 07:23

    用PaddleNLP為GPT-2模型制作FineWeb二進制預(yù)訓(xùn)練數(shù)據(jù)

    ,使用PaddleNLP將FineWeb數(shù)據(jù)集中文本形式的數(shù)據(jù),經(jīng)過分詞化(Tokenize),轉(zhuǎn)換為大語言模型能直接使用的二進制數(shù)據(jù),以便提升訓(xùn)練
    的頭像 發(fā)表于 03-21 18:24 ?3541次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    數(shù)據(jù)標注服務(wù)—奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,
    的頭像 發(fā)表于 03-21 10:30 ?2084次閱讀

    標貝數(shù)據(jù)標注服務(wù):奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,
    的頭像 發(fā)表于 03-21 10:27 ?794次閱讀
    標貝<b class='flag-5'>數(shù)據(jù)</b>標注服務(wù):奠定大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>的<b class='flag-5'>數(shù)據(jù)</b>基石

    是否可以輸入隨機數(shù)據(jù)來生成INT8訓(xùn)練后量化模型

    無法確定是否可以輸入隨機數(shù)據(jù)來生成 INT8 訓(xùn)練后量化模型
    發(fā)表于 03-06 06:45

    AI Cube進行yolov8n模型訓(xùn)練,創(chuàng)建項目目標檢測時顯示數(shù)據(jù)目錄下存在除標注和圖片外的其他目錄如何處理?

    AI Cube進行yolov8n模型訓(xùn)練 創(chuàng)建項目目標檢測時顯示數(shù)據(jù)目錄下存在除標注和圖片外的其他目錄怎么解決
    發(fā)表于 02-08 06:21

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    模型進行進一步訓(xùn)練的過程。 大模型微調(diào)是利用預(yù)訓(xùn)練模型的權(quán)重和特征,通過在新任務(wù)
    發(fā)表于 01-14 16:51

    AI模型部署邊緣設(shè)備的奇妙之旅:目標檢測模型

    模型有更大的能力去記憶訓(xùn)練數(shù)據(jù),從而可能導(dǎo)致過擬合,特別是在小規(guī)模數(shù)據(jù)上。 訓(xùn)練時間延長:因為
    發(fā)表于 12-19 14:33

    FacenetPytorch人臉識別方案--基于米爾全志T527開發(fā)板

    人臉圖像。這些圖像是之前采集并存儲的,用于與新捕捉到的人臉照片進行對比。 3)構(gòu)建神經(jīng)網(wǎng)絡(luò)模型:為了實現(xiàn)對比功能,我們需要一個預(yù)先
    發(fā)表于 11-28 15:57

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)
    的頭像 發(fā)表于 11-08 09:30 ?1913次閱讀