Talk預(yù)告 | ICLR'23 Oral德州大學(xué)奧斯汀分校薛子慧:模態(tài)聚焦假說-理解跨模態(tài)知識蒸餾


本期為TechBeat人工智能社區(qū)第494期線上Talk!
北京時間5月5日(周五)20:00,德州大學(xué)奧斯汀分校在讀博士生—薛子慧的Talk將準(zhǔn)時在TechBeat人工智能社區(qū)開播!她與大家分享的主題是:?“模態(tài)聚焦假說-理解跨模態(tài)知識蒸餾”,屆時將對跨模態(tài)知識蒸餾進(jìn)行了深入的理解和探討。
Talk·信息
主題:模態(tài)聚焦假說-理解跨模態(tài)知識蒸餾
嘉賓:德州大學(xué)奧斯汀分校在讀博士生 薛子慧
時間:北京時間?5月5日?(周五) 20:00
地點(diǎn):TechBeat人工智能社區(qū)
http://www.techbeat.net/
?長按識別二維碼,一鍵預(yù)約TALK!

Talk·介紹
知識蒸餾是深度學(xué)習(xí)中一種有效的技術(shù),用于實現(xiàn)模型知識轉(zhuǎn)移。近年來,它在多模態(tài)學(xué)習(xí)領(lǐng)域得到了廣泛應(yīng)用,并實現(xiàn)了顯著成果。然而,我們對跨模態(tài)知識蒸餾的工作機(jī)制仍然理解不足。這使得知識蒸餾的有效性受到質(zhì)疑:跨模態(tài)知識蒸餾是否總是有效?如果不是,那么什么是衡量知識蒸餾性能的好指標(biāo)呢??本次講座主要介紹我們的一篇被ICLR 2023 (top-5%, oral)接收的論文:The Modality Focusing Hypothesis: Towards Understanding Crossmodal Knowledge Distillation。在這篇論文中,我們提出了模態(tài)聚焦假說,對跨模態(tài)知識蒸餾進(jìn)行了深入的理解和探討。
Talk大綱
1、背景介紹:知識蒸餾與多模態(tài)學(xué)習(xí);跨模態(tài)學(xué)習(xí)中知識蒸餾的應(yīng)用
2、案例研究:跨模態(tài)知識蒸餾中的失敗案例分析
3、方法論述:模態(tài)維恩圖與模態(tài)聚焦假說
4、實驗結(jié)果及其分析
5、總結(jié)與未來發(fā)展方向
Talk·預(yù)習(xí)資料

paper鏈接:
https://openreview.net/forum?id=w0QXrZ3N-s
Github:
https://zihuixue.github.io/MFH/index.html
Talk·提問交流
▼
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻(xiàn),我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!

Talk·嘉賓介紹▼

薛子慧
德州大學(xué)奧斯汀分校在讀博士生
薛子慧,德州大學(xué)奧斯汀分校在讀博士,師從Kristen Grauman教授,目前是FAIR, Meta AI的訪問研究員,曾擔(dān)任清華大學(xué)交叉研究院多模態(tài)學(xué)習(xí)實驗室(MARS Lab)的助理研究員,研究方向為多模態(tài)學(xué)習(xí)和以自我為中心的視頻學(xué)習(xí)(egocentric video learning),相關(guān)研究成果發(fā)表在ICCV, CVPR, ICLR等領(lǐng)域頂級會議上。
長按識別二維碼,一鍵預(yù)約TALK!

-The End-
關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學(xué)習(xí)成長。 期待這里可以成為你學(xué)習(xí)AI前沿知識的高地,分享自己最新工作的沃土,在AI進(jìn)階之路上的升級打怪的根據(jù)地!
更多詳細(xì)介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ 作者:TechBeat人工智能社區(qū) https://www.bilibili.com/read/cv23296512?spm_id_from=333.999.0.0 出處:bilibili
