近日,中國人民大學(xué)高瓴人工智能學(xué)院師生共有一篇論文被IEEE TIT錄用,IEEE Transactions on Information Theory(IEEE TIT)期刊是中國計算機學(xué)會(CCF)推薦的A類期刊,是國際公認(rèn)的理論計算機科學(xué)與信息論領(lǐng)域的頂級期刊,享有卓越的學(xué)術(shù)聲譽。這是人大高瓴人工智能學(xué)院師生首次在該期刊發(fā)表論文。
論文介紹
論文題目:Optimal Rates for Agnostic Distributed Learning
作者:李健,劉勇,王偉平
通訊作者:劉勇
論文概述:現(xiàn)有的分布式核嶺回歸(DKRR)的最優(yōu)泛化理論通常需要一個嚴(yán)苛的假設(shè),即目標(biāo)函數(shù)屬于假設(shè)空間中。然而,在實際的復(fù)雜任務(wù)中,目標(biāo)函數(shù)往往在假設(shè)空間之外(學(xué)習(xí)任務(wù)是不可知的)。針對該問題,本文移除了“目標(biāo)函數(shù)屬于假設(shè)空間”的強假設(shè),通過細(xì)化DKRR的泛化理論分析證明DKRR在不可知情況下仍能達(dá)到最優(yōu)泛化誤差收斂率。具體而言,本文首先推導(dǎo)出對經(jīng)驗和期望協(xié)方差算子之間差異更為精細(xì)的估計,從而放松對目標(biāo)函數(shù)的約束;然后利用額外的無標(biāo)簽示例減少標(biāo)簽無關(guān)的誤差項,進一步將最優(yōu)誤差界擴展到更多不可知學(xué)習(xí)的情況。本文不僅推導(dǎo)了DKRR在期望意義下的最優(yōu)泛化誤差界,還證明了高概率意義下的最優(yōu)泛化誤差界。最后,通過理論對比、對比實驗,證明了本文理論具有更好的統(tǒng)計適用性和計算效率。