02 深度學(xué)習(xí)介紹【動(dòng)手學(xué)深度學(xué)習(xí)v2】

深度學(xué)習(xí)介紹
AI 地圖

X 軸:不同的模式(越往右時(shí)間越新)
- 符號(hào)學(xué)
- 概率模型:統(tǒng)計(jì)學(xué)模型
- 機(jī)器學(xué)習(xí)
Y 軸:?jiǎn)栴}領(lǐng)域(先要了解一個(gè)東西,然后通過(guò)推理形成知識(shí),最后做規(guī)劃)
- 感知:所能看到的物體
- 推理:根據(jù)所看到的東西想象未來(lái)可能會(huì)發(fā)生什么
- 知識(shí):根據(jù)所看到的數(shù)據(jù)或者是現(xiàn)象形成自己的知識(shí)
- 規(guī)劃:在知道所有東西的情況下能夠進(jìn)行一個(gè)比較長(zhǎng)遠(yuǎn)的規(guī)劃
自然語(yǔ)言處理:雖然取得了很大的進(jìn)展,但是還是停留在最簡(jiǎn)單的感知上
- 自然語(yǔ)言處理中機(jī)器翻譯用的比較多
- 人任何幾秒鐘之內(nèi)能夠反映過(guò)來(lái)的行為都可以認(rèn)為是感知的范圍
- 自然語(yǔ)言處理最早是符號(hào)學(xué),因?yàn)檎Z(yǔ)言是一種符號(hào),接下來(lái)才是概率模型和機(jī)器學(xué)習(xí)
計(jì)算機(jī)視覺(jué):能夠在一些圖片中進(jìn)行推理
- 圖片都是由像素組成的,很難用符號(hào)學(xué)來(lái)解釋?zhuān)杂?jì)算機(jī)視覺(jué)大部分使用概率模型和機(jī)器學(xué)習(xí)
深度學(xué)習(xí):機(jī)器學(xué)習(xí)的一種
過(guò)去八年中最熱門(mén)的大方向是自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)三者的結(jié)合
深度學(xué)習(xí)在應(yīng)用上的突破:
圖片分類(lèi)

- ImageNet 數(shù)據(jù)集是一個(gè)比較大的圖片分類(lèi)數(shù)據(jù)集,包含1000類(lèi)的自然物體的圖片,大約有100萬(wàn)張圖片

- 上圖表示了從 2010 年到 2017 年的 ImageNet 分類(lèi)的錯(cuò)誤率
- X軸表示時(shí)間
- Y軸表示錯(cuò)誤率
- 圖中的點(diǎn)表示一些工作的錯(cuò)誤率
- 在2012年的時(shí)候錯(cuò)誤率有一個(gè)比較大的下降,也是深度學(xué)習(xí)的開(kāi)始,在接下來(lái)的5年中,深度學(xué)習(xí)將整個(gè)圖片分類(lèi)的誤差已經(jīng)降到非常低了,2017年的時(shí)候,基本上所有的團(tuán)隊(duì)都能將錯(cuò)誤率達(dá)到 5% 以?xún)?nèi),基本上可以達(dá)到人類(lèi)對(duì)圖片識(shí)別的精度,因此,深度學(xué)習(xí)在圖片分類(lèi)上已經(jīng)做的非常好了
物體檢測(cè)和分割

- 當(dāng)不僅僅希望知道圖片中有什么內(nèi)容,還想要知道是什么、在什么地方,這就需要物體檢測(cè)
- 物體分割是想要知道每一個(gè)像素是屬于哪一個(gè)物體
樣式遷移

- 將樣式圖片和內(nèi)容圖片進(jìn)行合成,也可以認(rèn)為就是濾鏡,這樣的好處是只要找到某一種樣式的圖片就可以把內(nèi)容圖片換成任意所想要的形式
人臉合成

- 圖中所有的人臉都是假的,是通過(guò)算法隨機(jī)合成的照片
文字生成圖片

- 通過(guò)描述性的文字來(lái)生成對(duì)應(yīng)的圖片
文字生成

無(wú)人駕駛

案例研究:廣告點(diǎn)擊

- 問(wèn)題:給定用戶(hù)輸入,如何推送合適的廣告
大致可以分為以下三個(gè)階段:

1、觸發(fā)
- 在輸入關(guān)鍵詞之后,立即找到一些相應(yīng)的廣告
2、點(diǎn)擊率預(yù)估
- 建議一個(gè)預(yù)測(cè)模型,預(yù)測(cè)用戶(hù)在看到廣告之后的點(diǎn)擊情況,p表示用戶(hù)點(diǎn)擊廣告的概率
3、排序
- 跟據(jù)廣告的點(diǎn)擊率和每次用戶(hù)點(diǎn)擊之后廣告主所付的報(bào)酬,利用用戶(hù)點(diǎn)擊率*競(jìng)價(jià)作為廣告排序的依據(jù),數(shù)值越大的排名越靠前,排名較低的可能會(huì)進(jìn)行舍棄
上述三個(gè)階段中最重要的是預(yù)測(cè)用戶(hù)點(diǎn)擊率的機(jī)器學(xué)習(xí)模型,步驟如下圖所示:

1、在看到一個(gè)廣告之后,首先需要進(jìn)行特征提?。?strong>廣告主、產(chǎn)品描述信息、產(chǎn)品圖片
2、將上述特征放入預(yù)測(cè)模型之后就能夠得到點(diǎn)擊率的預(yù)測(cè)
3、另外,可以將過(guò)去所有用戶(hù)的廣告點(diǎn)擊數(shù)據(jù)存下來(lái),然后將其作為用戶(hù)真實(shí)的點(diǎn)擊行為進(jìn)行特征提取,然后對(duì)模型進(jìn)行訓(xùn)練

- 領(lǐng)域?qū)<遥?/strong>對(duì)應(yīng)用領(lǐng)域有非常深的了解,并且了解機(jī)器學(xué)習(xí),關(guān)注點(diǎn)在機(jī)器學(xué)習(xí)的模型對(duì)產(chǎn)品的影響
- 數(shù)據(jù)科學(xué)家:將原始數(shù)據(jù)變成機(jī)器學(xué)習(xí)模型所能理解的數(shù)據(jù),然后進(jìn)行訓(xùn)練
- AI專(zhuān)家:關(guān)注某幾個(gè)點(diǎn)進(jìn)行進(jìn)一步精度和性能提升
Q&A
- 1、在機(jī)器學(xué)習(xí)的可解釋性,也就是機(jī)器學(xué)習(xí)在圖片分割領(lǐng)域?yàn)槭裁从行В壳坝袥](méi)有定論??深度學(xué)習(xí)介紹 QA P2 - 00:16?
- 2、領(lǐng)域?qū)<沂鞘裁匆馑迹?/strong>?深度學(xué)習(xí)介紹 QA P2 - 01:56?
- 3、MXNET安裝GPU版本必須需要卸載CPU版本的MXNET嗎??深度學(xué)習(xí)介紹 QA P2 - 03:05?
- 4、深度學(xué)習(xí)無(wú)法用數(shù)學(xué)規(guī)范表述,只能從直覺(jué)上理解是嗎??深度學(xué)習(xí)介紹 QA P2 - 03:24?
- 5、符號(hào)學(xué)可以和機(jī)器學(xué)習(xí)融合起來(lái)嗎??深度學(xué)習(xí)介紹 QA P2 - 03:51?
- 6、數(shù)據(jù)科學(xué)家和AI專(zhuān)家的主要區(qū)別在哪里? ?深度學(xué)習(xí)介紹 QA P2 - 04:22?
- 7、Mac是不是可以支持pytorch??深度學(xué)習(xí)介紹 QA P2 - 05:34?
- 8、自然語(yǔ)言?xún)H僅在感知層面似乎不太合適,因?yàn)檎Z(yǔ)言的理解和感知不僅僅涉及感知,也涉及到語(yǔ)言知識(shí)和世界的知識(shí),也涉及到規(guī)劃?深度學(xué)習(xí)介紹 QA P2 - 05:52?
- 9、請(qǐng)問(wèn)老師有考慮講一講如何尋找自己領(lǐng)域的paper的經(jīng)驗(yàn)嗎??深度學(xué)習(xí)介紹 QA P2 - 06:44?
- 10、以無(wú)人駕駛的環(huán)境識(shí)別為例,誤判率在不斷下降,但是誤判帶來(lái)的影響可能是很?chē)?yán)重的,有可能從已有的判斷case得到修正從而完全避免這樣的錯(cuò)誤嗎??深度學(xué)習(xí)介紹 QA P2 - 07:56?
----end----
其他參考:
1、《動(dòng)手學(xué)深度學(xué)習(xí)》,課程PPT,https://courses.d2l.ai/zh-v2/assets/pdfs/part-0_2.pdf