CVPR 2022已經(jīng)放榜,AI科技評(píng)論邀請(qǐng)阿里巴巴的小伙伴來分享他們?cè)贑VPR 2022的收獲,第一場直播將30號(hào)(周三)晚18:30開始,敬請(qǐng)期待。
時(shí)間
3月30日 18:30
活動(dòng)流程
18:30-19:00
分享嘉賓:徐淵鴻
分享主題:Unsupervised Visual Representation Learning by Online Constrained K-Means
19:00-19:30
分享嘉賓:張士偉
分享主題:Learning from Untrimmed Videos: Self-Supervised Video Representation Learning with Hierarchical Consistency
19:30-20:00
分享嘉賓:彭翔宇
分享主題:Crafting Better Contrastive Views for Siamese Representation Learning
20:00-20:20
QA關(guān)環(huán)節(jié)
分享概要
徐淵鴻-達(dá)摩院機(jī)器智能技術(shù)實(shí)驗(yàn)室
論文摘要:
解決基于聚類的無監(jiān)督表征學(xué)習(xí)的性能和效率問題,提出全新的在線學(xué)習(xí)算法CoKe。
首先通過分析有監(jiān)督表征學(xué)習(xí)的優(yōu)化目標(biāo),我們提出一種基于聚類的無監(jiān)督自學(xué)習(xí)的優(yōu)化目標(biāo)。在我們提出的優(yōu)化目標(biāo)中,需要優(yōu)化的變量進(jìn)一步解耦為兩部分: 1. 聚類相關(guān)的聚類標(biāo)簽和聚類中心; 2. 表征相關(guān)的編碼網(wǎng)絡(luò)。前者通過k-means算法進(jìn)行在線更新,后者通過標(biāo)準(zhǔn)的分類任務(wù)進(jìn)行優(yōu)化。其中分類任務(wù)的樣本標(biāo)簽采用上一輪的聚類標(biāo)簽。因此CoKe可以僅使用單一視圖對(duì)表征網(wǎng)絡(luò)進(jìn)行優(yōu)化。最后為避免k-means中將所有樣本分配到同一類的聚類結(jié)果,CoKe為每個(gè)類添加所含樣本數(shù)量下界約束,并開發(fā)相應(yīng)的在線優(yōu)化算法。
我們的理論分析表明所提在線分配算法效果可以逼近離線最優(yōu)解。實(shí)驗(yàn)中僅使用單臺(tái)8卡服務(wù)器,便能在ImageNet的評(píng)測上超越了現(xiàn)有的無監(jiān)督學(xué)習(xí)算法。
張士偉-達(dá)摩院城市大腦實(shí)驗(yàn)室
論文標(biāo)題:
Learning from Untrimmed Videos: Self-Supervised Video Representation Learning with Hierarchical Consistency
論文摘要:
互聯(lián)網(wǎng)中海量的無剪切長視頻通常包含更豐富的語義信息,且更容易獲取,在實(shí)際場景中有著非常重要的應(yīng)用價(jià)值。然而現(xiàn)有視頻自監(jiān)督方法在長視頻中卻呈現(xiàn)出明顯的性能下降,主要原因是其太強(qiáng)的時(shí)空一致性假設(shè),這種假設(shè)在長視頻中難以成立。
因此,我們提出了分層一致性的方法—HiCo來直接進(jìn)行長視頻自監(jiān)督,HiCo主要包括視覺一致性學(xué)習(xí)和主題一致性學(xué)習(xí),即時(shí)間距離相近但視覺相似的片段保持視覺一致,時(shí)間相差較遠(yuǎn)但是表達(dá)內(nèi)容語意相同的片段被認(rèn)為主題一致,從兩個(gè)維度進(jìn)行表征學(xué)習(xí)。
實(shí)驗(yàn)表明,在行為識(shí)別任務(wù)上,HiCo比標(biāo)準(zhǔn)的自監(jiān)督學(xué)習(xí)方法SimCLR性能提升12%以上,在行為檢測上,HiCo的AUC比SimCLR提升了4%以上,均說明HiCo能夠從長視頻中學(xué)習(xí)的特征得到顯著提升。
彭翔宇-新加坡國立大學(xué)在讀博士
論文標(biāo)題:
Crafting Better Contrastive Views for Siamese Representation Learning
論文摘要:
本文重新審視了傳統(tǒng)使用的隨機(jī)裁剪,指出了其在對(duì)比學(xué)習(xí)中的缺陷,并進(jìn)一步為對(duì)比學(xué)習(xí)設(shè)計(jì)了新的裁剪策略,命名為“對(duì)比裁剪(ContrastiveCrop)”。ContrastiveCrop旨在確保大部分正樣本對(duì)語義一致的前提下,加大樣本之間的差異性,從而通過最小化對(duì)比損失學(xué)習(xí)到更泛化的特征。
具體來說,ContrastiveCrop首先需要對(duì)物體輪廓進(jìn)行大致的定位,并由此來指導(dǎo)crops的選取,這樣確保了大部分情況crop不會(huì)錯(cuò)失前景物體而造成錯(cuò)誤的正樣本對(duì)。在定位的基礎(chǔ)上,ContrastiveCrop采用了中心壓制的非均勻分布進(jìn)行采樣,從而增加了不同crops之間的差異性。ContrastiveCrop完全即插即用,且理論上適用于任何對(duì)比學(xué)習(xí)的孿生網(wǎng)絡(luò)架構(gòu)。廣泛的實(shí)驗(yàn)表明,在幾乎不增加訓(xùn)練內(nèi)存和計(jì)算代價(jià)的前提下,ContrastiveCrop能夠在若干常用數(shù)據(jù)集上穩(wěn)定提升當(dāng)前主流對(duì)比學(xué)習(xí)方法的性能。
掃碼進(jìn)入直播間
掃碼進(jìn)入CVPR2022交流群
關(guān)鍵詞: 直播預(yù)告丨阿里巴巴CVPR 2022分享會(huì) 今晚630不見不散