11月17日,上海人工智能實驗室聯(lián)合商湯科技、香港中文大學、上海交通大學共同發(fā)布新一代通用視覺技術(shù)體系“書生”(INTERN),該技術(shù)體系旨在系統(tǒng)化解決當下人工智能視覺領域中存在的任務通用、場景泛化和數(shù)據(jù)效率等一系列瓶頸問題。目前,相應技術(shù)報告《INTERN:一種通向通用視覺的新學習范式》(《INTERN: A New Learning Paradigm Towards General Vision》)已在arXiv平臺發(fā)布。
書生作為中國古代讀書人的經(jīng)典形象,代表著一個通過不斷學習、不斷成長進而擁有各方面才能的人格化角色。而將全新的通用視覺技術(shù)體系命名為“書生”,據(jù)發(fā)布者介紹,意在體現(xiàn)其如同書生一般的特質(zhì),可通過持續(xù)學習、舉一反三,逐步實現(xiàn)通用視覺領域的融會貫通,最終實現(xiàn)靈活高效的模型部署。
任務通用和數(shù)據(jù)學習效率是制約當前人工智能發(fā)展的瓶頸。“當前發(fā)展通用視覺的核心,是提升模型的通用泛化能力和學習過程中的數(shù)據(jù)效率?!鄙虾H斯ぶ悄軐嶒炇抑魅沃韱逃畋硎荆嫦蛭磥?,“書生”通用視覺技術(shù)將實現(xiàn)以一個模型完成成百上千種任務,體系化解決人工智能發(fā)展中數(shù)據(jù)、泛化、認知和安全等諸多瓶頸問題。
通用視覺技術(shù)體系“書生”(INTERN)由7個模塊組成,包括通用視覺數(shù)據(jù)系統(tǒng)、通用視覺網(wǎng)絡結(jié)構(gòu)、通用視覺評測基準三個基礎設施模塊,以及區(qū)分上下游的四個訓練階段模塊。上述技術(shù)報告顯示,一個“書生”基模型即可全面覆蓋分類、目標檢測、語義分割、深度估計四大視覺核心任務。在ImageNet等26個最具代表性的下游場景中,書生模型展現(xiàn)了極強的通用性,顯著提升了這些視覺場景中長尾小樣本設定下的性能。
通用視覺技術(shù)體系“書生”(INTERN)的7個模塊 商湯科技供圖
同時,相較于OpenAI 今年發(fā)布的CLIP(當前最強開源模型),“書生”在準確率和數(shù)據(jù)使用效率上均有大幅提升。具體而言,基于同樣的下游場景數(shù)據(jù),“書生”在分類、目標檢測、語義分割及深度估計四大任務26個數(shù)據(jù)集上的平均錯誤率分別降低了40.2%、47.3%、34.8%和9.4%。此外,“書生”在數(shù)據(jù)效率方面的提升尤為令人矚目:只需要1/10的下游數(shù)據(jù),就能超過CLIP基于完整下游數(shù)據(jù)的準確度,例如在花卉種類識別FLOWER任務上,每一類只需兩個訓練樣本,就能實現(xiàn)99.7%的準確率。
商湯科技研究院院長王曉剛介紹說,“書生”通用視覺技術(shù)體系是商湯在通用智能技術(shù)發(fā)展趨勢下前瞻性布局的一次嘗試,也是SenseCore商湯AI大裝置背景下的一次新技術(shù)路徑探索。他表示:“‘書生’承載了讓人工智能參與處理多種復雜任務、適用多種場景和模態(tài)、有效進行小數(shù)據(jù)和非監(jiān)督學習并最終具備接近人的通用視覺智能的期盼。希望這套技術(shù)體系能夠幫助業(yè)界更好地探索和應用通用視覺AI技術(shù),促進AI規(guī)模化落地。”
根據(jù)計劃,基于“書生”的通用視覺開源平臺OpenGVLab將在2022年年初正式開源,向?qū)W術(shù)界和產(chǎn)業(yè)界公開預訓練模型及其使用范式、數(shù)據(jù)系統(tǒng)和評測基準等。OpenGVLab將與上海人工智能實驗室此前發(fā)布的OpenMMLab、OpenDILab一道,共同構(gòu)筑開源體系OpenXLab,助力通用人工智能的基礎研究和生態(tài)構(gòu)建。