竹科管理局補助✨大師論壇-免費課程✨
快來報名🙋♀️🙋🙋♂️
🌐GaN HEMT電路解析
https://bit.ly/2YqA9ZX
🌐擁抱暗黑~從藍害量化技術到燭光OLED技術
https://bit.ly/3h4EiJw
抗藍害專家😎清大周卓煇教授主講
🌐擴增實境之智慧應用
https://bit.ly/3hpJB6L
🐦🐦早鳥方案🐦🐦享$500元以上折扣‼️‼️
☀️5G關鍵材料及元件介紹與市場趨勢
https://bit.ly/3BKRviF
2人同行1人免費🆓
☀️顯示器色彩工程與管理
https://bit.ly/3A01fVT
☀️電源轉換與管理控制模擬設計(實作)
https://bit.ly/3yWNANP
☀️電池充電晶片設計
https://bit.ly/2X9ft83
☀️半導體雷射製程及3D感測應用技術 (VCSEL)
https://bit.ly/3E1wRN7
#科管局補助課程
#大師論壇
#免費課程
#GaN HEMT電路
#燭光oled技術
#擴增實境應用
#早鳥方案
#顯示器色彩
#電源轉換
#電池充電晶片
#半導體雷射製程
#3D感測應用技術
「gan實作」的推薦目錄:
- 關於gan實作 在 自強基金會 Facebook 的最讚貼文
- 關於gan實作 在 自強基金會 Facebook 的精選貼文
- 關於gan實作 在 台灣人工智慧學校 Facebook 的精選貼文
- 關於gan實作 在 Re: [問題] GAN 實作以及loss function的問題- 精華區DataScience 的評價
- 關於gan實作 在 GAN實作模型 的評價
- 關於gan實作 在 【機器學習2021】生成式對抗網路(Generative Adversarial ... 的評價
- 關於gan實作 在 GAN系列-00 Generative Adversarial Network 生成對抗網路 的評價
- 關於gan實作 在 Re: [問題] GAN 實作以及loss function的問題- 看板DataScience 的評價
- 關於gan實作 在 Re: [問題] GAN 實作以及loss function的問題- DataScience | PTT Web 的評價
- 關於gan實作 在 gan - cccbook/aijs Wiki 的評價
- 關於gan實作 在 [問題] GAN 實作以及loss function的問題- 看板DataScience - PTT網頁版 的評價
gan實作 在 自強基金會 Facebook 的精選貼文
資通訊領域✔️
半導體領域✔️
自強補助課程全包了💯🉐
👥2人同行還有超多優惠🎁
快來看看這豪華的陣容✨🎊
八月課程大補帖💪💪再來一波🌊🌊
🌎CPI晶片封裝整合協同設計
https://bit.ly/2D852Z3
🌎積體電路製程流程與故障分析技術
https://bit.ly/2XnSi7y
🌎生成對抗網路(GAN)理論與應用(實作)
https://bit.ly/2CIgNoH
園區內🆓
🌎解析區塊鏈與加密貨幣
https://bit.ly/39w5kEQ
園區內🆓
🌎深度學習模型與影像辨識應用
https://bit.ly/3f9DIX1
🌎無線射頻晶片技術設計實務
https://bit.ly/39Vo1ls
園區內🆓
🌎Python與機器學習實務(實作)
https://bit.ly/2ZV8IWr
園區內🆓
#科管局補助
#園區內免費
#免費課程
#資通訊課程
#半導體課程
#自強全包
#CPI晶片
#積體電路製程
#生成對抗網路(GAN)
#區塊鏈
#加密貨幣
#深度學習
#無線射頻晶片
#Python
#機器學習
gan實作 在 台灣人工智慧學校 Facebook 的精選貼文
🎉藝術家遇上AI,會激發出什麼火花?🎉
走進博物館/美術館,你能分辨眼前的藝術品究竟是人還是機器所做?AI是如何創作?利用什麼原理?對藝術家會產生什麼影響?
讓我們跟著台灣人工智慧博物館(小編自己取的)蔡源鴻館長(AIA首席資料科學家)的精彩導覽,一起揭開AI藝術的神秘面紗👥👥
哪個是真的👉https://bit.ly/315tB0q
#AI藝術
#人工智慧小聚
#我們來做
📍 北部醫療專班第三期開課倒數 8/1 報名截止
👉https://bit.ly/30OKuwx
📍 Edge AI 密集實作培訓班, 8/18 前開放報名
👉https://bit.ly/3hCk7jQ
gan實作 在 GAN實作模型 的推薦與評價
... <看更多>
gan實作 在 Re: [問題] GAN 實作以及loss function的問題- 精華區DataScience 的推薦與評價
※ 引述《eggy1018 (羅密歐與豬過夜)》之銘言:
: 各位Data Science 版的大大們好,最近在深入研究GAN時,對於他的loss function的
了
: 解以及實作上仍存有疑惑。
: 問題點
: 最初開始推導的loss function 如下圖
:
: 意思是G, D min max這個function吧?換句話說是同個loss funcion?
: 可是....
: 在實作上G, D的loss function卻不太一樣
: Generator loss function
:
: Discriminator loss function
:
: 在自己以前學習的認知中,D要max上圖的Lisa function, G要min之,,所以我以為可
能
: 是同個loss function但是一個是正的一個是負的,然而實作上的方式卻跟數學意義上
不
: 太一樣...
: 希望各位版友能給我一點意見,真的卡了很久,謝謝大家!
剛好對GAN有些許了解,在這邊分享一下個人看法。
不常在PTT發文,希望排版不會太難看。
首先,GAN的發展非常快速,以下皆基於原始的GAN(Goodfellow et al. in NIPS 2014)討
論。
先回答原Po的問題:為什麼原Po貼的程式碼(應該是PyTorch-GAN)中,generator與discri
minator實作是這樣寫?
參考下圖GAN的objective function V,以gradient decent來說,一般GAN實作的loss fu
nction確實是只差一個負號:discriminator為-V,generator為V。至於程式碼上為什麼
好像不只是差一個負號是因為V的其中一部分generator根本不需要考慮,也就是真實的觀
測資料部分,就算寫進loss function,對generator來說也是屬於常數,偏微分後會消去
,因此在寫code時一般直接省略。
在原Po貼的程式碼中,先不管那個auxiliary_loss,discriminator在adversarial_loss
計算了兩次:一次計算真實資料與正類標籤(code中的valid)的binary cross entropy (
以下簡稱BCE),一次計算生成資料與副類標籤(code中的fake)的BCE。而generator只計算
生成資料與「正類標籤」的BCE。
以實作上來說,generator與discriminator的loss好像是差一個負號的事情。但以理論上
兩者的目標卻不是僅僅是差一個負號這麼單純。要說到generator與discriminator的目標
,那就不得不談一下GAN到底解決的什麼問題。
回顧一下所謂的generative model。在機率統計理論中, 生成模型(generative model)是
指能夠隨機生成觀測數據的模型。所以訓練一個generative model其實就是希望模型輸出
與觀測數據的分布越接近越好,或者說minimize這兩者之間的divergence。
如果說我們的generative model是一個簡單的model,比如說Gaussian mixture model,
那麼算個divergence,比如說JS divergence,就是一件不難的事情。但如果今天generat
ive model是一個neural network,那就有點困難了。
而這就是GAN厲害的地方,GAN很聰明地使用到了經過訓練的分類器其實可以一定程度第代
表資料的divergence這件事,用實質為分類器的discriminator估divergence,並以此訓
練generator。
所以實際上也不能說discriminator在minimize BCE而generator在maximize BCE,而是di
scriminator在minimize BCE,而generator在maximize discriminator可以找到的最小BC
E。
為了盡量逼近這個目標,GAN一般採用交互訓練的方法,先訓練discriminator數次,在訓
練generator一次,如此重複直到訓練結束。
附帶一提,Goodfellow在2014年的論文中discriminator與generator的loss也不只是差一
個負號,不過其實照他的方法或是直接加負號都是可以訓練的。
---
以上拋磚引玉提供一點粗淺見解。
希望有幫助,也歡迎一起討論。
關於一些GAN的細節可以參考這篇文章
https://tinyurl.com/y4l2q5vf
或是李宏毅老師的這段投影片
https://youtu.be/DMA4MrNieWo
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.194.88.184 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1601307471.A.C6F.html
※ 編輯: janus7799 (123.194.88.184 臺灣), 09/29/2020 01:20:57
... <看更多>