久久综合九色综合97婷婷-美女视频黄频a免费-精品日本一区二区三区在线观看-日韩中文无码有码免费视频-亚洲中文字幕无码专区-扒开双腿疯狂进出爽爽爽动态照片-国产乱理伦片在线观看夜-高清极品美女毛茸茸-欧美寡妇性猛交XXX-国产亚洲精品99在线播放-日韩美女毛片又爽又大毛片,99久久久无码国产精品9,国产成a人片在线观看视频下载,欧美疯狂xxxx吞精视频

有趣生活

當(dāng)前位置:首頁(yè)>職場(chǎng)>清華大學(xué)aminer(清華AMiner人工智能月報(bào))

清華大學(xué)aminer(清華AMiner人工智能月報(bào))

發(fā)布時(shí)間:2024-01-24閱讀(19)

導(dǎo)讀近日,清華AMiner發(fā)布了最新的人工智能發(fā)展月報(bào),3月份AI業(yè)內(nèi)的重大科研事件數(shù)量有所下降,本月共計(jì)發(fā)生507篇新聞、180個(gè)事件,熱度趨勢(shì)如下圖所示。最....

近日,清華AMiner發(fā)布了最新的人工智能發(fā)展月報(bào),3 月份 AI 業(yè)內(nèi)的重大科研事件數(shù)量有所下降,本月共計(jì)發(fā)生 507 篇新聞、180 個(gè)事件,熱度趨勢(shì)如下圖所示。最受關(guān)注的事件是 2022 世界移動(dòng)通信大會(huì),由于大會(huì)聚焦 5G、云網(wǎng)絡(luò)、人工智能、萬(wàn)物互聯(lián)以及“元宇宙”技術(shù)等主題,成為輿論焦點(diǎn);此外,《2022 年人工智能指數(shù)》與《2021-2022 全球計(jì)算力指數(shù)評(píng)估》兩份重磅報(bào)告的發(fā)布引發(fā)了 AI 業(yè)內(nèi)人士較多關(guān)注;英偉達(dá)在 GTC 2022上推出 Omniverse 平臺(tái)新功能,熱度也較高。

本期的智能內(nèi)參,我們推薦清華AMiner的報(bào)告《人工智能發(fā)展月報(bào)》,跟蹤最新的人工智能發(fā)展動(dòng)態(tài)。

來(lái)源 AMiner

原標(biāo)題:

《人工智能發(fā)展月報(bào)

作者:未注明

一、AI頂會(huì)與獎(jiǎng)項(xiàng)

1、 2022 世界移動(dòng)通信大會(huì)在西班牙召開(kāi)

2 月 28 日至 3 月 3 日,2022 世界移動(dòng)通信大會(huì)在西班牙巴塞羅那召開(kāi)。來(lái)自全球近 200 個(gè)國(guó)家的超過(guò) 6.1 萬(wàn)人參會(huì),超過(guò) 1000 人在大會(huì)上發(fā)表演講。本屆大會(huì)聚焦 5G、云網(wǎng)絡(luò)、人工智能、金融科技、萬(wàn)物互聯(lián)和新興科技 6 大主題,旨在“連接釋放無(wú)限可能”。首次大規(guī)模亮相的“元宇宙”備受矚目,除了對(duì)技術(shù)本身的討論外,元宇宙的盈利模式、相關(guān)倫理問(wèn)題等也成為人們關(guān)注焦點(diǎn)。

中國(guó)移動(dòng)、中國(guó)聯(lián)通、中國(guó)電信中國(guó)三大運(yùn)營(yíng)商負(fù)責(zé)人集體以線(xiàn)上方式亮相大會(huì)主旨演講,中國(guó)移動(dòng)表示計(jì)劃到今年底累計(jì)開(kāi)通 5G 基站超百萬(wàn)個(gè),推動(dòng) 5G 網(wǎng)絡(luò)客戶(hù)規(guī)模超 3.3 億戶(hù),打造 5G 商用案例超萬(wàn)個(gè);中國(guó)電信表示,率先實(shí)現(xiàn)了云、網(wǎng)絡(luò)、IT(信息技術(shù))的統(tǒng)一運(yùn)營(yíng),不斷推進(jìn)云網(wǎng)融合,已經(jīng)取得初步成效;中國(guó)聯(lián)通助力北京打造了“第一屆真正意義上的 5G 冬奧會(huì)”。

2、 CVPR 2022 論文接收量比去年上升 24%

計(jì)算機(jī)視覺(jué)三大頂會(huì)之一 CVPR2022 接收結(jié)果已經(jīng)公布,共有 2067 篇論文被接收,相較于 2021 年的 1663 篇論文,接收率上升了 24%;有效投稿量數(shù)據(jù)還沒(méi)有放出。截至 3 月 24 日,官網(wǎng)已公布 350 篇論文,涉及方向包括:檢測(cè)、分割、視頻處理、估計(jì)、圖像處理、人臉、目標(biāo)跟蹤、圖像&視頻檢索/視頻理解、醫(yī)學(xué)影像、文本檢測(cè)/識(shí)別/理解、遙感圖像、GAN/生成式/對(duì)抗式、圖像生成/圖像合成、三維視覺(jué)、模型壓縮、神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)等。

3、圖靈獎(jiǎng)授予高性能計(jì)算領(lǐng)域先驅(qū) Jack Dongarra

3 月 30 日,美國(guó)計(jì)算機(jī)協(xié)會(huì)(ACM)將 2021 年的圖靈獎(jiǎng)授予美國(guó)田納西大學(xué)電氣工程和計(jì)算機(jī)科學(xué)系特聘教授、現(xiàn)年 71 歲的 Jack J.Dongarra,表彰他在數(shù)值算法和工具庫(kù)方面的開(kāi)創(chuàng)性貢獻(xiàn),使高性能計(jì)算軟件能夠跟上四十多年來(lái)的指數(shù)級(jí)硬件改進(jìn)。據(jù) ACM 介紹,Dongarra 的算法和軟件推動(dòng)了高性能計(jì)算發(fā)展,并對(duì)從人工智能到計(jì)算機(jī)圖形學(xué)的多個(gè)計(jì)算科學(xué)領(lǐng)域產(chǎn)生了重大影響。

清華大學(xué)aminer(清華AMiner人工智能月報(bào))(1)

4、全美計(jì)算機(jī)研究生院排名:MIT、CMU 分別稱(chēng)霸總榜和 AI 分榜

3 月 29 日,2023 U.S.News 全美研究生院排名正式發(fā)布。最佳計(jì)算機(jī)科學(xué)研究生院排名 5 名分別為,第 1 名麻省理工學(xué)院(MIT)、并列第 2 的卡內(nèi)基·梅隆大學(xué)(CMU)、斯坦福大學(xué)和加利福尼亞大學(xué)伯克利分校(UCB),以及第 5名伊利諾伊大學(xué)厄巴納-香檳分校(UIUC)。

在人工智能專(zhuān)業(yè)上,排名第一是卡內(nèi)基·梅隆大學(xué)(CMU)。

清華大學(xué)aminer(清華AMiner人工智能月報(bào))(2)

全美人工智能專(zhuān)業(yè)排名

5、智譜榜單:人工智能全球女性學(xué)者美國(guó)占比超 6 成,中國(guó) 23 人入圍

近日,2022 年“人工智能相關(guān)領(lǐng)域全球女性學(xué)者”名單公布,入圍人數(shù)共262 人,分布在全球 19 個(gè)國(guó)家。從國(guó)別分布看,美國(guó)共入圍 161 人,占比 61.5%;其次是中國(guó)(含港澳臺(tái)地區(qū)),共有 23 人,占 8.8%;第三是英國(guó),共有 14 人;從機(jī)構(gòu)分布看,全球前十強(qiáng)機(jī)構(gòu)中,美國(guó)占 8 家,谷歌排名全球第一,中國(guó)和法國(guó)各占 1 家,清華大學(xué)是我國(guó)唯一一家進(jìn)入前十強(qiáng)的機(jī)構(gòu);從研究領(lǐng)域分布看,排名依次是人機(jī)交互(51 人次)、可視化(24 人次)、知識(shí)工程(22 人次)、機(jī)器學(xué)習(xí)(6 人次)、機(jī)器人(6 人次)和計(jì)算機(jī)系統(tǒng)(7 人次);在 262 人中,共有 71 位華人,占比達(dá) 27.1%,而 71 位華人中,23 位工作單位在中國(guó),48 位工作單位在外國(guó)。

6、華人博士獲 ACM SIGSOFT 杰出博士論文獎(jiǎng)

2022 ACM SIGSOFT Outstanding Doctoral Dissertation Award(杰出博士論文獎(jiǎng))已公布,唯一的名額授予了美國(guó) UIUC 大學(xué)的華人博士生 Wing Lam(林永政),以表彰他在軟件工程方面所做出的杰出貢獻(xiàn)。

清華大學(xué)aminer(清華AMiner人工智能月報(bào))(3)

7、2022 蘋(píng)果博士獎(jiǎng)學(xué)金名單:浙大一博士生入選

近日,蘋(píng)果宣布了 2022 年人工智能/機(jī)器學(xué)習(xí)領(lǐng)域的博士生獎(jiǎng)學(xué)金名單,共有 15 位學(xué)生入選,包括 4 位華人博士生,其中一位是來(lái)自浙江大學(xué)計(jì)算機(jī)科學(xué)專(zhuān)業(yè)的彭思達(dá),師從周曉巍教授。

清華大學(xué)aminer(清華AMiner人工智能月報(bào))(4)

二、AI人才動(dòng)態(tài)

1、 寒武紀(jì)副總經(jīng)理兼首席技術(shù)官梁軍已離職

3 月 14 日,寒武紀(jì)公告稱(chēng):原副總經(jīng)理、首席技術(shù)官梁軍因與公司存在分歧,已于 2 月 10 日通知公司解除勞動(dòng)合同,目前已辦理完離職手續(xù),此后將不再擔(dān)任公司的任何職務(wù)。梁軍自 2017 年加入公司,任職期間曾參與研究并申請(qǐng)發(fā)明專(zhuān)利 138 項(xiàng)、PCT 10 項(xiàng),均為非單一發(fā)明人。其中 14 項(xiàng)發(fā)明專(zhuān)利已授權(quán),其余仍處于審查階段。

2、 英特爾圖形部門(mén)頂級(jí)專(zhuān)家 Mike Burrows 跳槽 AMD

曾擔(dān)任英特爾專(zhuān)注游戲和圖形技術(shù)的 Advanced Technologies Group 的負(fù)責(zé)人、首席技術(shù)官和總監(jiān) Mike Burrows,近日宣布以公司副總裁的身份加入AMD 團(tuán)隊(duì),領(lǐng)導(dǎo)其高級(jí)圖形項(xiàng)目。在 AMD,Burrows 將專(zhuān)注于實(shí)時(shí)光線(xiàn)追蹤和機(jī)器學(xué)習(xí)領(lǐng)域的研究。此外,他還將涉及包括與圖形和計(jì)算解決方案的縮放相關(guān)的技術(shù),以及數(shù)據(jù)壓縮類(lèi)技術(shù)。

3、 滴滴實(shí)驗(yàn)室(洛杉磯)首席科學(xué)家 Kevin Knight 離職

近日,原任滴滴實(shí)驗(yàn)室(洛杉磯)自然語(yǔ)言處理組首席科學(xué)家的 NLP 大神Kevin Knight 宣布將從滴滴實(shí)驗(yàn)室離職。此外,Kevin Knight 還是南加州大學(xué)(USC)計(jì)算機(jī)科學(xué)系院長(zhǎng)教授以及 ACL 2011 的大會(huì)主席,2014 年同年入選ACL Fellow、AAAI Fellow,他的學(xué)術(shù)成果頗多,研究方向涵蓋人工智能、自然語(yǔ)言處理、機(jī)器翻譯、對(duì)話(huà)處理等。

4、前百度 Apollo 平臺(tái)研發(fā)總經(jīng)理王京傲加盟自動(dòng)駕駛初創(chuàng)公司

前百度副總裁、Apollo 平臺(tái)研發(fā)總經(jīng)理王京傲,加盟自動(dòng)駕駛初創(chuàng)公司云驥智行,擔(dān)任聯(lián)合創(chuàng)始人及 CTO。王京傲本科畢業(yè)于北京大學(xué),于美國(guó)辛辛那提大學(xué)獲得計(jì)算機(jī)工程碩士學(xué)位后,又在加州大學(xué)伯克利分校取得 MBA 學(xué)位,目前擁有 60 多項(xiàng)中美專(zhuān)利。他曾負(fù)責(zé)百度的自動(dòng)駕駛 Apollo 開(kāi)放平臺(tái)的整體研發(fā)、規(guī)劃和運(yùn)營(yíng),并主導(dǎo) Apollo 平臺(tái) 1.0 到 7.0 所有版本的開(kāi)發(fā)和迭代;之前,曾任職谷歌,是安卓 1.0 初創(chuàng)團(tuán)隊(duì)成員之一。云驥智行成立于 2021 年 11 月。在今年的 GTC 2022 大會(huì)上,云驥智行宣布將與英偉達(dá)合作,在自動(dòng)駕駛芯片(DRIVE Orin SoC)上搭載云驥智行最新的 L4 級(jí)自動(dòng)駕駛計(jì)算平臺(tái)。

三、各 AI 子領(lǐng)域重要科研進(jìn)展

1、機(jī)器學(xué)習(xí)

牛津大學(xué):研究者提出了受物理啟發(fā)的持續(xù)學(xué)習(xí)模型,從微分幾何、代數(shù)拓?fù)浜臀⒎址匠痰阮I(lǐng)域出發(fā)開(kāi)啟了一系列新工具的研究,可以克服傳統(tǒng) GNN 的局限性。

微軟、斯坦福大學(xué):就過(guò)度參數(shù)化(overparameterization)現(xiàn)象,研究者認(rèn)為比預(yù)期規(guī)模更大的神經(jīng)網(wǎng)絡(luò)是必要的,通過(guò)提出平滑性,來(lái)指出需要多少個(gè)參數(shù)才能用一條具有等同于魯棒性的數(shù)學(xué)特性的曲線(xiàn)來(lái)擬合數(shù)據(jù)點(diǎn)。論文標(biāo)題:A Universal Law of Robustness viaIsoperimetry 論文鏈接:https://www.aminer.cn/pub/60b18ba891e011537459563f

上海交通大學(xué)、Mila 魁北克人工智能研究所、字節(jié)跳動(dòng):提出了一種基于層級(jí)語(yǔ)義結(jié)構(gòu)的選擇性對(duì)比學(xué)習(xí)框架(Hiearchical Contrastive Selective Coding,HCSC),通過(guò)將圖像表征進(jìn)行層級(jí)聚類(lèi),構(gòu)造具有層級(jí)結(jié)構(gòu)的原型向量(hierarchical prototypes),并通過(guò)這些原型向量選擇更加符合語(yǔ)義結(jié)構(gòu)的負(fù)樣本進(jìn)行對(duì)比學(xué)習(xí),由此將層級(jí)化的語(yǔ)義信息融入到圖像表征中,在多個(gè)下游任務(wù)中達(dá)到卷積神經(jīng)網(wǎng)絡(luò)自監(jiān)督預(yù)訓(xùn)練方法的 SOTA 性能。

論文標(biāo)題:HCSC: Hierarchical Contrastive SelectiveCoding 論文鏈接:https://www.aminer.cn/pub/61f9f64a5aee126c0f41f3fb

斯坦福大學(xué):研究了在預(yù)訓(xùn)練文本具有遠(yuǎn)程連貫性的數(shù)學(xué)設(shè)置下,預(yù)訓(xùn)練分布對(duì)上下文學(xué)習(xí)的實(shí)現(xiàn)所起的作用,證明了當(dāng)預(yù)訓(xùn)練分布是混合隱馬爾可夫模型時(shí),上下文學(xué)習(xí)是通過(guò)對(duì)潛在概念進(jìn)行貝葉斯推理隱式地產(chǎn)生的,生成了一系列小規(guī)模合成數(shù)據(jù)集(GINC),在這個(gè)過(guò)程中,Transformer 和LSTM 語(yǔ)言模型都使用了上下文學(xué)習(xí)。論文標(biāo)題:An Explanation of In-Context Learning asImplicit Bayesian Inference

論文鏈接:https://www.aminer.cn/pub/61834f695244ab9dcb55ccf8

阿里巴巴:提出了一個(gè)叫做獵豹(Cheetah)的新型框架,用于深度神經(jīng)網(wǎng)絡(luò)的兩方計(jì)算網(wǎng)絡(luò)推理系統(tǒng),并重新設(shè)計(jì)了基于同態(tài)加密的協(xié)議,可在不需要任何輪調(diào)操作(RotationOperation)的情況下評(píng)估線(xiàn)性層(即卷積、批量歸一化和完全連接);設(shè)計(jì)了幾個(gè)用于非線(xiàn)性函數(shù)(如 ReLU 和Truncation)的更加精簡(jiǎn),通信效率更高的基元。

德國(guó)希爾德斯海姆大學(xué):評(píng)估了特征工程多輸出 GBRT 模型,該研究將一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)方法 GBRT 提升了競(jìng)品 DNN 時(shí)間序列預(yù)測(cè)模型的標(biāo)準(zhǔn);實(shí)證了為什么基于窗口的 GBRT 輸入設(shè)置可以在時(shí)間序列預(yù)測(cè)領(lǐng)域提高 ARIMA 和原版 GBRT 等精心配置的模型所產(chǎn)生的預(yù)測(cè)性能;比較了 GBRT 與各種SOTA 深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)模型的性能,并驗(yàn)證了它在單變量和雙變量時(shí)間序列預(yù)測(cè)任務(wù)中的競(jìng)爭(zhēng)力。

論文標(biāo)題:Do We Really Need Deep Learning Modelsfor Time Series Forecasting? 論文鏈接:https://www.aminer.cn/pub/5ff6e10891e011b497e290a0

中國(guó)科學(xué)技術(shù)大學(xué):針對(duì)移動(dòng)為中心的模型推理場(chǎng)景,提出端到端可學(xué)的輸入過(guò)濾框架 InFi (INput FIlter),對(duì)輸入過(guò)濾問(wèn)題進(jìn)行了形式化建模,并基于推理模型和輸入過(guò)濾器的函數(shù)族復(fù)雜性對(duì)比,在理論層面上對(duì)推理任務(wù)的可過(guò)濾性進(jìn)行分析,InFi框架涵蓋了現(xiàn)有的 SOTA 方法所使用的推理跳過(guò)和推理重用機(jī)制。

論文標(biāo)題:InFi: End-to-end Learnable Input Filter forResource-efficient Mobilecentric Inference

清華大學(xué):針對(duì)無(wú)監(jiān)督時(shí)序異常檢測(cè)問(wèn)題,提出了基于關(guān)聯(lián)差異的異常檢測(cè)模型 Anomaly transformer,并通過(guò)一個(gè)極小極大(Minimax)關(guān)聯(lián)學(xué)習(xí)策略大幅提高了模型的異常檢測(cè)能力。該模型在服務(wù)器監(jiān)測(cè)、地空探索、水流觀(guān)測(cè)等應(yīng)用中均展現(xiàn)出優(yōu)秀的異常檢測(cè)結(jié)果,應(yīng)用落地價(jià)值強(qiáng)。論文標(biāo)題:Anomaly Transformer: Time SeriesAnomaly Detection with Association Discrepancy

論文鏈接:https://www.aminer.cn/pub/615e657b5244ab9dcbf21edf

清華大學(xué):模仿海馬體的神經(jīng)元權(quán)重更新機(jī)制,在 Nature Communications 上提出了一種結(jié)合全局與局部權(quán)重更新規(guī)則的混合模型,并驗(yàn)證了該模型在高噪聲、小數(shù)據(jù)量、持續(xù)學(xué)習(xí)三種任務(wù)場(chǎng)景下的優(yōu)越性,為神經(jīng)形態(tài)算法及其硬件實(shí)現(xiàn)的協(xié)同開(kāi)發(fā)開(kāi)辟了一條新的路徑。論文標(biāo)題:Brain-inspired global-local learningincorporated with neuromorphic computing

論文鏈接:https://www.aminer.cn/pub/6100beb26750f816c6958070

瑞士托埃爾特公司:TOELT LLC 聯(lián)合創(chuàng)始人兼首席 AI 科學(xué)家 Umberto Michelucci 全面介紹了自編碼器的由來(lái)、定義、由編碼器、潛在特征表示和解碼器三部分組成,并詳細(xì)介紹了編碼器和解編碼器。

論文標(biāo)題:An Introduction to Autoencoders 論文鏈接:https://www.aminer.cn/pub/61de47035244ab9dcb3057c2

清華大學(xué)、曠視科技等:通過(guò)一系列探索實(shí)驗(yàn),總結(jié)了在現(xiàn)代 CNN 中應(yīng)用超大卷積核的五條準(zhǔn)則,并基于以上準(zhǔn)則,借鑒 Swin Transformer 宏觀(guān)架構(gòu),提出了一種 RepLKNet 架構(gòu)。

論文標(biāo)題:Scaling Up Your Kernels to 31×31:Revisiting Large Kernel Design in CNNs 論文鏈接:https://www.aminer.cn/pub/623004305aee126c0f9b3828

布朗大學(xué):該論文提出了強(qiáng)化學(xué)習(xí)中蘊(yùn)含的抽象理論,指出執(zhí)行抽象過(guò)程的函數(shù)所必備的三要素:維護(hù)近似最優(yōu)行為的表示、它們應(yīng)該被有效地學(xué)習(xí)和構(gòu)建;計(jì)劃或?qū)W習(xí)時(shí)間不應(yīng)該太長(zhǎng)。然后提出了一套新的算法和分析方案,闡明智能體如何根據(jù)這些要素學(xué)會(huì)抽象。論文標(biāo)題:A Theory of Abstraction in ReinforcementLearning 論文鏈接:https://www.aminer.cn/pub/621ee1895aee126c0f26ae12

微軟、OpenAI:首次提出了基礎(chǔ)研究如何調(diào)優(yōu)大型神經(jīng)網(wǎng)絡(luò)(這些神經(jīng)網(wǎng)絡(luò)過(guò)于龐大而無(wú)法多次訓(xùn)練),通過(guò)展示特定參數(shù)化保留不同模型大小的最佳超參數(shù)來(lái)實(shí)現(xiàn),利用 μP 將 HP 從小型模型遷移到大型模型。并在 Transformer 和 ResNet上驗(yàn)證 μTransfer。結(jié)果表明,1)該研究?jī)?yōu)于 BERTlarge (350M 參數(shù)),總調(diào)優(yōu)成本相當(dāng)于一次預(yù)訓(xùn)練BERT-large;2)通過(guò)從 40M 參數(shù)遷移,該研究的性能優(yōu)于已公開(kāi)的 6.7B GPT-3 模型,調(diào)優(yōu)成本僅為總預(yù)訓(xùn)練成本的 7%。

論文標(biāo)題:Tensor Programs V: Tuning Large NeuralNetworks via Zero-Shot Hyperparameter Transfer 論文鏈接:https://www.aminer.cn/pub/6226c93d5aee126c0fd57c5f

北京大學(xué)、清華大學(xué):下游任務(wù)可以從預(yù)訓(xùn)練模型中繼承容易受攻擊的權(quán)重。研究者提出一個(gè)名叫 ReMoS 的方法,有選擇性地篩選出那些對(duì)下游任務(wù)有用且不易受攻擊的權(quán)重,在最多損失 3%精度的前提下,使得微調(diào)后的模型受攻擊率大大減小:CV(ResNet)任務(wù)上受攻擊率減小了 63%到 86%,NLP(BERT、RoBERTa)任務(wù)上則減小了 40%到 61%。

谷歌:提出了一種在有偏見(jiàn)的數(shù)據(jù)上使用 GNN 的解決方案Shift-Robust GNN(SR-GNN)。這個(gè)方法的目的就是要讓問(wèn)題域發(fā)生變化和遷移時(shí),模型依然保持高穩(wěn)健性,降低性能下降。實(shí)驗(yàn)表明,SR-GNN 在準(zhǔn)確性上優(yōu)于其他GNN 基準(zhǔn),將有偏見(jiàn)的訓(xùn)練數(shù)據(jù)的負(fù)面影響減少了 30-40%。

論文標(biāo)題:Shift-Robust GNNs: Overcoming theLimitations of Localized Graph Training data 論文鏈接:https://www.aminer.cn/pub/610a271c5244ab9dcba8a3de

港科大、星云Clustar:香港科大智能網(wǎng)絡(luò)與系統(tǒng)實(shí)驗(yàn)室 iSING Lab 和國(guó)內(nèi)隱私計(jì)算算力提供商星云 Clustar 合作,提出了一種隱私保護(hù)在線(xiàn)機(jī)器學(xué)習(xí)場(chǎng)景下的新框架 Sphinx。Sphinx 結(jié)合同態(tài)加密、差分隱私和秘密共享多種隱私保護(hù)技術(shù),根據(jù)訓(xùn)練和推理的具體任務(wù)特點(diǎn)提出了定制且兼容的訓(xùn)練和推理混合協(xié)議,從而實(shí)現(xiàn)快速的訓(xùn)練和推理計(jì)算。速度提升達(dá) 4-6個(gè)數(shù)量級(jí)。該論文已被 IEEE 安全與隱私研討會(huì)(IEEES&P “Oakland”)收錄。論文題目:Sphinx: Enabling Privacy-Preserving Online Learning over the Cloud

2、計(jì)算機(jī)視覺(jué)

谷歌研究院、哈佛大學(xué):提出了 mip-NeRF 的擴(kuò)展模型,它使用非線(xiàn)性場(chǎng)景參數(shù)化、在線(xiàn)蒸餾和新穎的基于失真的正則化器來(lái)克服無(wú)界場(chǎng)景帶來(lái)的挑戰(zhàn),該模型被稱(chēng)為「mip-NeRF 360」,因?yàn)樵撗芯酷槍?duì)的是相機(jī)圍繞一個(gè)點(diǎn)旋轉(zhuǎn) 360 度的場(chǎng)景,與mip-NeRF 相比,均方誤差降低了 54%,并且能夠生成逼真的合成視圖和詳細(xì)的深度用于高度復(fù)雜、無(wú)界的現(xiàn)實(shí)世界場(chǎng)景的地圖。

論文標(biāo)題:Mip-NeRF 360: Unbounded Anti-AliasedNeural Radiance Fields 論文鏈接:https://www.aminer.cn/pub/619dad545244ab9dcb27bcd4

新加坡國(guó)立大學(xué)、清華大學(xué)、阿里巴巴:對(duì)比學(xué)習(xí)已經(jīng)在視覺(jué)領(lǐng)域引起了極大的關(guān)注和廣泛的研究。研究者指出了傳統(tǒng)使用的 RandomCrop 在對(duì)比學(xué)習(xí)中的缺陷,并進(jìn)一步為對(duì)比學(xué)習(xí)設(shè)計(jì)了新的裁剪策略,命名為“對(duì)比裁剪(ContrastiveCrop)”,可以確保大部分正樣本對(duì)語(yǔ)義一致的前提下,加大樣本之間的差異性,從而通過(guò)最小化對(duì)比損失學(xué)習(xí)到更泛化的特征并且理論上適用于任何孿生網(wǎng)絡(luò)架構(gòu)。

論文標(biāo)題:Crafting Better Contrastive Views forSiamese Representation Learning 論文鏈接:https://www.aminer.cn/pub/6201df4d5aee126c0f64e34b

Adobe、中佛羅里達(dá)大學(xué):開(kāi)發(fā)了在 StyleGAN 生成的圖像中,用于保護(hù)身份的多重面部屬性編輯的學(xué)習(xí)映射器。該研究使用一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)執(zhí)行潛意識(shí)到潛意識(shí)的轉(zhuǎn)換,找到與屬性改變的圖像相對(duì)應(yīng)的潛編碼,通過(guò)在整個(gè)生成 pipeline 上端對(duì)端訓(xùn)練網(wǎng)絡(luò),該系統(tǒng)可以適應(yīng)現(xiàn)有的生成器架構(gòu)的潛空間,并能夠保護(hù)屬性(Conservation properties),一旦 latent-to-latent網(wǎng)絡(luò)訓(xùn)練完,就可以用于任意的圖像輸入,而不需要微調(diào)。論文標(biāo)題:Latent to Latent – A Learned Mapper for Identity Preserving Editing of Multiple Face Attributes in StyleGAN-generated Images

論文鏈接:https://www.aminer.cn/pub/621635c791e011b46d7ce6d3

字節(jié)跳動(dòng)AML 團(tuán)隊(duì):基于 PyTorch 框架,以 Megatron 和 DeepSpeed 為基礎(chǔ),該研究團(tuán)隊(duì)開(kāi)發(fā)了火山引擎大模型訓(xùn)練框架veGiantModel。現(xiàn)已在 GitHub 上開(kāi)源,地址如下:https://github.com/volcengine/veGiantModel

復(fù)旦大學(xué):復(fù)旦大學(xué)數(shù)據(jù)智能與社會(huì)計(jì)算實(shí)驗(yàn)室提出了一種基于多層次語(yǔ)義對(duì)齊的多階段視覺(jué) – 語(yǔ)言預(yù)訓(xùn)練模型 MVPTR。MVPTR 通過(guò)顯式地學(xué)習(xí)表示不同層級(jí)的,來(lái)自圖片和文本信息的語(yǔ)義,并且在不同的階段對(duì)齊不同層次的語(yǔ)義,在大規(guī)模圖片 – 文本對(duì)語(yǔ)料庫(kù)上預(yù)訓(xùn)練的 MVPTR 模型在下游視覺(jué) – 語(yǔ)言任務(wù)上取得了明顯的進(jìn)展,包括圖片-文本檢索、視覺(jué)語(yǔ)言問(wèn)答、視覺(jué)推斷、短語(yǔ)指代表示。

論文標(biāo)題:MVPTR: Multi-Stage Vision-Language PreTraining via Multi-Level Semantic Alignment

中國(guó)人民大學(xué):中國(guó)人民大學(xué) GeWu 實(shí)驗(yàn)室以判別性聲源定位為基礎(chǔ)實(shí)現(xiàn)了構(gòu)建物體類(lèi)別認(rèn)知的目標(biāo),并將其應(yīng)用在其他經(jīng)典視覺(jué)任務(wù)中。該研究提出了判別性多聲源定位任務(wù),以及兩階段的學(xué)習(xí)框架。還通過(guò)解決判別性聲源定位任務(wù)構(gòu)建對(duì)不同類(lèi)別物體視覺(jué)表征的認(rèn)知,并將其遷移到其他經(jīng)典視覺(jué)任務(wù)中,如物體檢測(cè)等。

論文標(biāo)題:Class-aware Sounding Objects Localizationvia Audiovisual Correspondence

論文鏈接:https://www.aminer.cn/pub/61c3e8e85244ab9dcba2123c

Meta AI:宣傳其自監(jiān)督模型 SEER(SElf-supERvised)突破至 100億參數(shù),并取得更優(yōu)秀、更公平的性能表現(xiàn)。該模型不僅在ImageNet 上取得了高達(dá) 85.8% 的準(zhǔn)確率(排名第一),與原先只有 10 億參數(shù)量的 SEER (84.2%)相比性能提升了 1.6%。此外,在性別、膚色、年齡等三個(gè)公平基準(zhǔn)上獲得了更出色的識(shí)別效果,明顯優(yōu)于監(jiān)督模型。

論文標(biāo)題:Vision Models Are More Robust And FairWhen Pretrained On Uncurated Images WithoutSupervision

論文鏈接:https://www.aminer.cn/pub/620f0e725aee126c0fec4580

蘇黎世聯(lián)邦理工學(xué)院:開(kāi)發(fā)了名為 Pix2NeRF 的 AI,可以在沒(méi)有 3D 數(shù)據(jù)、多視角或相機(jī)參數(shù)的情況下學(xué)會(huì)生成新視角。Pix2NeRF 包含生成網(wǎng)絡(luò) G、判別網(wǎng)絡(luò) D 和編碼器 E 三種類(lèi)型的網(wǎng)絡(luò)架構(gòu)。

康奈爾大學(xué)、谷歌大腦:提出了一個(gè)新模型 FLASH(Fast Linear Attention with a Single Head ) , 首次不僅在質(zhì)量上與完全增強(qiáng)的Transformer 相當(dāng),而且在現(xiàn)代加速器的上下文大小上真正享有線(xiàn)性可擴(kuò)展性,并且訓(xùn)練成本只有原來(lái)的 1/2。

論文標(biāo)題:Transformer Quality in Linear Time 論文鏈接:https://www.aminer.cn/pub/621454565aee126c0f20af7b

清華大學(xué)、南開(kāi)大學(xué):研 究 者 提 出 了 一 種 新 型 大 核 注 意 力 ( large kernel attention,LKA)模塊,克服現(xiàn)存問(wèn)題的同時(shí)實(shí)現(xiàn)了自注意力中的自適應(yīng)和長(zhǎng)距離相關(guān)性,還進(jìn)一步提出了一種基于 LKA 的新型神經(jīng)網(wǎng)絡(luò),命名為視覺(jué)注意力網(wǎng)絡(luò)(VAN)。在圖像分類(lèi)、目標(biāo)檢測(cè)、語(yǔ)義分割、實(shí)例分割等廣泛的實(shí)驗(yàn)中,VAN 的性能優(yōu)于 SOTA 視覺(jué) transformer 和卷積神經(jīng)網(wǎng)絡(luò)。

論文標(biāo)題:Visual Attention Network

論文鏈接:https://www.aminer.cn/pub/621454535aee126c0f200ef5

華為諾亞方舟實(shí)驗(yàn)室、北京大學(xué)、悉尼大學(xué):提 出 了 一 種 受 量 子 力 學(xué) 啟 發(fā) 的 視 覺(jué) MLP 架 構(gòu) , 在 ImageNet 分類(lèi)、COCO 檢測(cè)、ADE20K 分割等多個(gè)任務(wù)上取得了 SOTA 性能。論文標(biāo)題: An Image Patch is a Wave: Quantum Inspired Vision MLP 論文鏈接:https://arxiv.org/abs/2111.12294

加州大學(xué)圣圣地亞哥分校、英偉達(dá):通過(guò)對(duì)具有對(duì)比損失的大規(guī)模配對(duì)圖文數(shù)據(jù)進(jìn)行訓(xùn)練,可以讓模型不需要任何進(jìn)一步的注釋或微調(diào)的情況下,能夠零樣本遷移學(xué)習(xí)得到未知圖像的語(yǔ)義分割詞匯。

論文標(biāo)題:GroupViT: Semantic Segmentation Emergesfrom Text Supervision

論文鏈接:https://www.aminer.cn/pub/6215a5fd5aee126c0f33a97f

北大、字節(jié)跳動(dòng):利用域自適應(yīng)思想,提出新框架顯著增強(qiáng)基于圖像級(jí)標(biāo)簽的弱監(jiān)督圖像定位性能。

論文標(biāo)題:Weakly Supervised Object Localization asDomain Adaption

論文鏈接:https://www.aminer.cn/pub/6221834e5aee126c0f23c358

谷歌、MIT、DeepMind、MILA 和劍橋大學(xué)等:基于跨平臺(tái)開(kāi)源物理引擎 PyBullet 和 3D 圖像渲染軟件Blender 打造了一個(gè)名叫 Kubric 的數(shù)據(jù)集生成器,能一鍵生成各種圖像數(shù)據(jù)包括語(yǔ)義分割、深度圖或光流圖這種“特殊數(shù)據(jù)”,還能控制渲染的真實(shí)度,達(dá)到以假亂真的效果。

華東師范大學(xué):該大學(xué)田博博研究員、彭暉教授和段純剛教授團(tuán)隊(duì)實(shí)現(xiàn)了基于光生伏特效應(yīng)的自供電光電傳感器的傳感內(nèi)儲(chǔ)備池計(jì)算。在基于該自供電傳感器陣列的傳感內(nèi)儲(chǔ)備池計(jì)算視覺(jué)系統(tǒng)中成功演示了靜態(tài)人臉圖像分類(lèi)和動(dòng)態(tài)車(chē)流方向判別的視覺(jué)信息處理任務(wù),分別達(dá)到 99.97%和 100%識(shí)別率。

論文標(biāo)題:Ultralow-Power Machine Vision with SelfPowered Sensor Reservoir

論文鏈接:https://www.aminer.cn/pub/62306f1b5aee126c0fdd0e0a

微軟亞研院:利用 BERT 中 MLM(Masked Language Modeling)的思路,把一個(gè)圖像轉(zhuǎn)換成 token 序列,對(duì)圖像 token 進(jìn)行mask,然后預(yù)測(cè)被 mask 掉的圖像 token,實(shí)現(xiàn)圖像領(lǐng)域的無(wú)監(jiān)督預(yù)訓(xùn)練。

論文標(biāo)題: BEIT: BERT Pre-Training of Image Transformers

論文鏈接:https://www.aminer.cn/pub/5ede0553e06a4c1b26a841d6

美圖影像研究院、北京航空航天大學(xué):提出分布感知式單階段模型,用于解決極具挑戰(zhàn)性的多人3D 人體姿態(tài)估計(jì)問(wèn)題。該方法通過(guò)一次網(wǎng)絡(luò)前向推理同時(shí)獲取 3D 空間中人體位置信息以及相對(duì)應(yīng)的關(guān)鍵點(diǎn)信息,從而簡(jiǎn)化了預(yù)測(cè)流程,提高了效率。此外,還有效地學(xué)習(xí)了人體關(guān)鍵點(diǎn)的真實(shí)分布,進(jìn)而提升了基于回歸框架的精度。

論文標(biāo)題:Distribution-Aware Single-Stage Models forMulti-Person 3D Pose Estimation論文鏈接:https://arxiv.org/abs/2203.07697

Adobe研究院、阿卜杜拉國(guó)王科技大學(xué):提出了一種結(jié)合多個(gè)預(yù)訓(xùn)練的 GAN 進(jìn)行圖像生成的新方法——InsetGAN,共分為兩類(lèi):1)全身 GAN (Full-Body GAN),基于中等質(zhì)量的數(shù)據(jù)進(jìn)行訓(xùn)練并生成一個(gè)人體;2)部分 GAN,其中包含了多個(gè)針對(duì)臉部、手、腳等特定部位進(jìn)行訓(xùn)練的 GAN。

論文標(biāo)題:InsetGAN for Full-Body Image Generation

論文鏈接:https://www.aminer.cn/pub/623004385aee126c0f9b5550

北大、字節(jié)跳動(dòng):利用域自適應(yīng)思想,北大、字節(jié)跳動(dòng)提出新型弱監(jiān)督物體定位框架。將基于 CAM 的弱監(jiān)督物體定位過(guò)程看作是一個(gè)特殊的域自適應(yīng)任務(wù),使得僅依據(jù)圖像標(biāo)簽訓(xùn)練的模型可以更為精準(zhǔn)的定位目標(biāo)物體。

論文標(biāo)題:Weakly Supervised Object Localization as Domain Adaption

論文鏈接:https://www.aminer.cn/pub/6221834e5aee126c0f23c358

加州大學(xué)圣圣地亞哥分校、英偉達(dá):利用視覺(jué) Transformer(ViT)中加入新的視覺(jué)分組模塊GroupViT(分組視覺(jué) Transformer)的思想,研究者提出將分組機(jī)制加入深度網(wǎng)絡(luò)。只要通過(guò)文本監(jiān)督學(xué)習(xí),分組機(jī)

制就可以自動(dòng)生成語(yǔ)義片段,通過(guò)對(duì)具有對(duì)比損失的大規(guī)模配對(duì)圖文數(shù)據(jù)進(jìn)行訓(xùn)練,可以讓模型不需要任何進(jìn)一步的注釋或微調(diào)的情況下,能夠零樣本遷移學(xué)習(xí)得到未知圖像的語(yǔ)義分割詞匯。

論文標(biāo)題:GroupViT: Semantic Segmentation Emergesfrom Text Supervision

論文鏈接:https://www.aminer.cn/pub/6215a5fd5aee126c0f33a97f

韓東國(guó)際大學(xué):研究者提出了 單樣本(one-shot)超高分辨率(UHR)圖像合成框架 OUR-GAN,能夠從單個(gè)訓(xùn)練圖像生成具有 4K甚至更高分辨率的非重復(fù)圖像。

論文標(biāo)題:OUR-GAN: One-shot Ultra-high-ResolutionGenerative Adversarial Networks

論文鏈接:https://www.aminer.cn/pub/621d8ece5aee126c0f73b4ac

華南理工:提出了一種即插即用融合模塊:雙跨視角空間注意力機(jī)制(VISTA),以產(chǎn)生融合良好的多視角特征,以提高 3D 目標(biāo)檢測(cè)器的性能,使用 VISTA 卷積算子代替了 MLP,能夠更好地處理注意力建模的局部線(xiàn)索。將 VISTA 中的回歸和分類(lèi)任務(wù)解耦,以利用單獨(dú)的注意力建模來(lái)平衡這兩個(gè)任務(wù)的學(xué)習(xí)。可用于各種先進(jìn)的目標(biāo)分配策略。

論文標(biāo)題:VISTA: Boosting 3D Object Detection viaDual Cross-VIew SpaTial Attention

論文鏈接:https://www.aminer.cn/pub/6237ecc25aee126c0f3befa5

字節(jié)跳動(dòng):開(kāi)發(fā)了最新的 text2image 模型,并且效果比 VQGANCLIP 要真實(shí),尤其是泛化能力還比不少用大量文本-圖像數(shù)據(jù)對(duì)訓(xùn)練出來(lái)的模型要好很多。

論文標(biāo)題:CLIP-GEN: Language-Free Training of a Textto-Image Generator with CLIP

論文鏈接:https://www.aminer.cn/pub/621ee1845aee126c0f26aa9b

谷歌、MetaAI:提出了一種稱(chēng)為“模型湯”(Model Soup)的概念,通過(guò)在大型預(yù)訓(xùn)練模型下使用不同的超參數(shù)配置進(jìn)行微調(diào),然后再把權(quán)重取平均。實(shí)驗(yàn)結(jié)果證明這種方法能夠提升模型的準(zhǔn)確率和穩(wěn)健性。

論文標(biāo)題:Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time

論文鏈接:https://www.aminer.cn/pub/622abdd15aee126c0f56bc65

康奈爾大學(xué)、Meta AI:通過(guò) Prompt 來(lái)調(diào)整基于 Transformer 的視覺(jué)模型,結(jié)果發(fā)現(xiàn):比起全面微調(diào),Prompt 性能提升顯著。無(wú)論模型的規(guī)模和訓(xùn)練數(shù)據(jù)怎么變,24 種情況中有 20 種都完全勝出。

論文標(biāo)題:Visual Prompt Tuning

論文鏈接:https://www.aminer.cn/pub/623be1965aee126c0f37aafc

英偉達(dá):NVIDIA 在自家 GTC 2022 上發(fā)布 Omniverse 平臺(tái)新功能,讓開(kāi)發(fā)者能夠更輕松地開(kāi)展協(xié)作、在全新游戲開(kāi)發(fā)流程中部署 AI、為角色制作面部表情的動(dòng)畫(huà)。

Unity:3D 制作和運(yùn)營(yíng)平臺(tái) Unity 震撼首發(fā)新一代超現(xiàn)實(shí)人類(lèi),以4K 分辨率實(shí)時(shí)渲染,讓數(shù)字人的眼睛、頭發(fā)、皮膚等細(xì)節(jié)看起來(lái)與真人無(wú)異。

3、自然語(yǔ)言處理

清華大學(xué)、達(dá)摩研究院,浙江實(shí)驗(yàn)室,北京人工智能研究院:提出了首個(gè)基于國(guó)產(chǎn)超算的百萬(wàn)億參數(shù)超大預(yù)訓(xùn)練模型訓(xùn)練系統(tǒng) BaGuaLu。該系統(tǒng)擁有可以以超過(guò) 1 EFLOPS 的混合精度性能訓(xùn)練十萬(wàn)億參數(shù)的模型,并且支持訓(xùn)練高達(dá)百萬(wàn)億規(guī)模參數(shù)量模型的訓(xùn)練(174 T),并且在并行策略、參數(shù)存儲(chǔ)、數(shù)據(jù)精度、負(fù)載均衡四個(gè)方面進(jìn)行了創(chuàng)新。

論文標(biāo)題:BaGuaLu: Targeting Brain Scale PretrainedModels with over 37 Million Cores

論文鏈接:https://www.aminer.cn/pub/6228239b6750f804ca0b65f9

哈工大、騰訊 AI Lab:開(kāi)發(fā)了一個(gè)預(yù)訓(xùn)練模型 WordBERT。它包含兩個(gè)組件:詞向量(word embedding)和 Transformer 層,WordBERT 采用多層雙向 Transformer 來(lái)學(xué)習(xí)語(yǔ)境表示,通過(guò)不同的詞匯表規(guī)模、初始化配置和不同語(yǔ)言,研究人員一共訓(xùn)練出四個(gè)版本的 WordBERT。

論文標(biāo)題:Pretraining without Wordpieces: LearningOver a Vocabulary of Millions of Words

論文鏈接:https://www.aminer.cn/pub/621849025aee126c0f5520b2

以色列理工學(xué)院:研究者提出了新架構(gòu) MTTR (Multimodal Tracking Transformer),將 RVOS 任務(wù)建模為序列(sequence)預(yù)測(cè)問(wèn)題,相關(guān)論文已被 CVPR 2022 接收。首先,輸入的文本和視頻幀被傳遞給特征編碼器進(jìn)行特征提取,然后將兩者連接成多模態(tài)序列(每幀一個(gè))。接著,通過(guò)多模態(tài) Transformer 對(duì)兩者之間的特征關(guān)系進(jìn)行編碼,并將實(shí)例級(jí)(instance-level )特征解碼為一組預(yù)測(cè)序列。最后,將預(yù)測(cè)序列與基準(zhǔn)(ground truth,在有監(jiān)督學(xué)習(xí)中通常指代樣本集中的標(biāo)簽)序列進(jìn)行匹配,以供訓(xùn)練過(guò)程中的監(jiān)督或用于在推理過(guò)程中生成最終預(yù)測(cè)。

論文標(biāo)題:End-to-End Referring Video ObjectSegmentation with Multimodal Transformers

論文鏈接:https://www.aminer.cn/pub/61a596655244ab9dcbdfe60b

微軟亞洲研究院:研究者將 Transformer 擴(kuò)展至 1000 層的同時(shí)還保證其穩(wěn)定性。開(kāi)發(fā)者殘差連接處引入了一個(gè)新的歸一化函數(shù)DeepNorm,將 Post-LN 的良好性能和 Pre-LN 的穩(wěn)定訓(xùn)練高效結(jié)合了起來(lái),最終將 Transformer 擴(kuò)展到 2500 個(gè)注意力和前饋網(wǎng)絡(luò)子層(即 1000 層)比以前的模型深度高出一個(gè)數(shù)量級(jí),將 DeepNorm 方法應(yīng)用到Transformer 的每一個(gè)子層中,就得到了一個(gè)全新的DeepNet 模型。

論文標(biāo)題:DeepNet: Scaling Transformers to 1,000Layers

論文鏈接:https://www.aminer.cn/pub/621ee1895aee126c0f26aeef

DeepMind:發(fā)布了新的模型 GopherCite,使用根據(jù)人類(lèi)偏好的強(qiáng)化學(xué)習(xí)(RLHP, reinforcement learning from humanpreferences)訓(xùn)練了一個(gè)可以用于開(kāi)放式問(wèn)答的模型。解決了語(yǔ)言模型幻覺(jué)的問(wèn)題,通過(guò)利用網(wǎng)絡(luò)上的證據(jù)來(lái)支持其所有的事實(shí)描述。訓(xùn)練結(jié)果顯示,該模型在自然問(wèn)題數(shù)據(jù)集、ELI5 數(shù)據(jù)集上的正確率分別可以達(dá)到 90%、80%,接近人類(lèi)水平。

谷歌:為了解決模型在理解表格時(shí)總是通過(guò)行列順序的線(xiàn)索作弊的問(wèn)題,提出了 TableFormer,一種對(duì)表格行列順序擾動(dòng)嚴(yán)格魯棒的架構(gòu),引入了 13 種可學(xué)習(xí)的注意力偏置標(biāo)量。TableFormer 還能夠更好地編碼表格結(jié)構(gòu),以及對(duì)齊表格和相應(yīng)的文本描述(例如自動(dòng)問(wèn)答中的問(wèn)題)。

論文標(biāo)題:TableFormer: Robust TransformerModeling for Table-Text Encoding

論文鏈接:https://www.aminer.cn/pub/621ee1845aee126c0f26aa0e

卡內(nèi)基梅隆大學(xué):研究團(tuán)隊(duì)對(duì) PolyCoder、開(kāi)源模型和 Codex 的訓(xùn)練和測(cè)試設(shè)置進(jìn)行對(duì)比研究。使用 HumanEval 基準(zhǔn)研究各種模型大小、訓(xùn)練步驟,以及不同的溫度對(duì)模型生成代碼質(zhì)量的影響。還創(chuàng)建了一個(gè) 12 種語(yǔ)言的測(cè)試數(shù)據(jù)集,用來(lái)評(píng)估各種模型的性能。

論文標(biāo)題:A Systematic Evaluation of LargeLanguage Models of Code

論文鏈接:https://www.aminer.cn/pub/621d8ec95aee126c0f73b0b0

香港大學(xué)、華為諾亞方舟實(shí)驗(yàn)室:針對(duì)現(xiàn)有大規(guī)模生成式預(yù)訓(xùn)練語(yǔ)言模型的壓縮需求,提出了新的量化壓縮解決方案,分別在 GPT-2 與 BART 上實(shí)現(xiàn)了 14.4 倍與 13.4 倍的壓縮率,并將量化的 GPT模型與 BART 模型分別命名為「QuantGPT」與「QuantBART」。

論文標(biāo)題:Compression of Generative Pre-trainedLanguage Models via Quantization

論文鏈接:https://www.aminer.cn/pub/62393e7f5aee126c0f125f59

4、智能芯片

清華大學(xué):提出了一種基于金屬-絕緣體-半導(dǎo)體結(jié)構(gòu)的二維半導(dǎo)體電致發(fā)光器件結(jié)構(gòu)。該研究是通過(guò)電場(chǎng)去加速材料中的已有載流子,加速載流子獲得足夠動(dòng)能后,會(huì)和半導(dǎo)體價(jià)帶的電子發(fā)生碰撞,這種碰撞帶來(lái)的能量轉(zhuǎn)移,會(huì)產(chǎn)生出發(fā)光所需要的激子。

論文標(biāo)題:Injection-free multiwavelengthelectroluminescence devices based on monolayersemiconductors driven by an alternating field

論文鏈接:https://www.aminer.cn/pub/61fd039a5aee126c0fe8965a

西南交通大學(xué)、電子科技大學(xué)、中國(guó)海洋大學(xué)、北京基礎(chǔ)醫(yī)學(xué)研究所:中國(guó)科學(xué)家研發(fā)柔性腦機(jī)接口,在 10Hz 左右找到 α 波!實(shí)現(xiàn)剛性微電路和柔軟腦組織的無(wú)縫聯(lián)接。研究團(tuán)隊(duì)通過(guò)分子設(shè)計(jì),制備出一款可導(dǎo)電的多功能水凝膠,借此實(shí)現(xiàn)了與腦組織接近的力學(xué)性能和生物學(xué)性能,剛性電子元件和柔軟腦組織之間的機(jī)械和生物學(xué)不匹配的難題得以解決。

論文標(biāo)題:Bioadhesive and conductive hydrogelintegrated brain-machine interfaces for conformal and immune-evasive contact with brain tissue

新加坡國(guó)立大學(xué):研究報(bào)告了一種基于當(dāng)前高速通信基礎(chǔ)設(shè)施的生物識(shí)別保護(hù)技術(shù)。該系統(tǒng)包含一個(gè)協(xié)同摩擦電/光子接口,在接口中,柔性摩擦電器件提供生物識(shí)別掃描儀功能,氮化鋁光芯片提供生物識(shí)別信息-光信息多路復(fù)用功能;在用戶(hù)交互時(shí),接口將生物特征信息加載到光域中,并通過(guò)摩擦電和納米光子學(xué)之間的協(xié)同效應(yīng),以自我可持續(xù)的方式復(fù)用生物特征信息和數(shù)字信息;在云端,可以使用快速傅里葉變換濾波器分離高頻數(shù)字信息和低頻生物特征信息。

論文標(biāo)題:Biometrics-protected optical communication enabled by deep learning–enhanced triboelectric/photonic synergistic interface

格芯、博通、CiscoSystems、Marvell、英偉達(dá)等:合作提出了硅光平臺(tái) GF Fotonix。該平臺(tái)將差異化300mm 光子功能和 300GHz 級(jí)別 RF-CMOS 結(jié)合在單個(gè)硅晶圓上,通過(guò)在單個(gè)硅芯片上組合光子系統(tǒng)、射頻RF 元件、CMOS 邏輯電路,將以前分布在多個(gè)芯片上的復(fù)雜工藝整合到單個(gè)芯片上,實(shí)現(xiàn)了光子集成電路(PIC)上的更高集成度,讓客戶(hù)能夠集成更多的產(chǎn)品功能,從而簡(jiǎn)化物料清單 BOM。

英偉達(dá):開(kāi)發(fā)了全新 GPU——H100,采用全新 Hopper 架構(gòu),集成了 800 億個(gè)晶體管,比上一代 A100 多了 260 億個(gè),內(nèi)核數(shù)量達(dá)到了前所未有的 16896 個(gè),達(dá)到上一代A100 卡的 2.5 倍,浮點(diǎn)計(jì)算和張量核心運(yùn)算能力也隨之翻了至少 3 倍,面向 AI 計(jì)算,針對(duì) Transformer 搭載了優(yōu)化引擎,讓大模型訓(xùn)練速度直接×6,20 張即可承載全球互聯(lián)網(wǎng)流量。

蘋(píng)果:發(fā)布搭載 M1 自研芯片的高端臺(tái)式機(jī),新產(chǎn)品名為 Mac Studio,起售價(jià)為 1999 美元,類(lèi)似于專(zhuān)業(yè)版 MacMini,可以與外部顯示器相連。跟它匹配的,則是內(nèi)置一顆 A13 新品的 Studio Display 顯示器:蘋(píng)果 27 寸顯示器。

5、智能機(jī)器人

華為:華為天才少年稚暉君推出了桌面迷你機(jī)器人ElectronBot,通過(guò)嘗試用 T-Spline 曲面建模,并且機(jī)器人雙臂可動(dòng),機(jī)器人的底座則使用鋁 CNC 進(jìn)行加工,使用了 Cortex-M4 內(nèi)核 MCU,STM32F4,用于驅(qū)動(dòng)屏幕和控制舵機(jī)以及 USB 通信。此外,利用機(jī)器人機(jī)身搭載的攝像頭和紅外手持傳感器,還開(kāi)發(fā)了通過(guò) AI 算法識(shí)別手勢(shì)的程序。

微軟:微軟旗下 Mixed Reality & AI Lab 研究團(tuán)隊(duì)基于頭顯捕獲的頭部和手部追蹤數(shù)據(jù)開(kāi)發(fā)了“FLAG:Flowbased Avatar Generation from SparseObservations”解決方案,通過(guò) VR 頭顯獲得的頭部和手部追蹤數(shù)據(jù),可生成佩戴者的全身 3D 化身。它不僅能學(xué)習(xí) 3D 人體的條件分布,還能從觀(guān)測(cè)數(shù)據(jù)中學(xué)習(xí)潛在空間的概率映射,并由此進(jìn)行關(guān)節(jié)的不確定性估計(jì),生成合理的姿勢(shì)。

國(guó)網(wǎng)上海浦東供電公司:該公司在新片區(qū)開(kāi)展全自主的雙曲臂帶電作業(yè)機(jī)器人作業(yè)。該機(jī)器人全自主作業(yè)成功率可達(dá) 98%,配合了多傳感器融合的定位系統(tǒng),實(shí)現(xiàn)對(duì)導(dǎo)線(xiàn)毫米級(jí)識(shí)別定位。它采用雙臂配合,能像人一樣深度學(xué)習(xí)算法,運(yùn)用人工智能技術(shù),像人的大腦一樣主動(dòng)規(guī)劃作業(yè)路徑,高效完成工作任務(wù)。

北京術(shù)銳技術(shù)有限公司、上海交通大學(xué)醫(yī)學(xué)院:國(guó)產(chǎn)單孔手術(shù)機(jī)器人共含 68 個(gè)高精度伺服電機(jī),用于術(shù)前輔助擺位、術(shù)中操作和主從控制,創(chuàng)造性地設(shè)計(jì)了面向全狀態(tài)安全監(jiān)控的雙環(huán)路獨(dú)立控制硬件拓?fù)洌溌分鲝牟僮餮訒r(shí)小于 50 毫秒,每秒鐘可實(shí)現(xiàn) 1000 次的亞毫米級(jí)手術(shù)精準(zhǔn)控制。

川崎重工:打造了世界首款四足機(jī)器羊 Bex,可以降低機(jī)身,將下肢四腿膝部的輪轂接地,以四驅(qū)機(jī)車(chē)的方式前進(jìn),在有人模式下,羊騎士可以用 Bex 身上的手柄操縱行進(jìn)方向與速度;在無(wú)人模式下,Bex 可以被遙控、可以與其他川崎生產(chǎn)的無(wú)人自動(dòng)送貨機(jī)器人聯(lián)網(wǎng)獲取行動(dòng)信息。

UC 伯克利分校:將以前開(kāi)發(fā)的機(jī)器人 BADGR 演變成 ViKiNG,并將學(xué)習(xí)和規(guī)劃集成起來(lái),利用諸如示意路線(xiàn)圖、衛(wèi)星地圖和 GPS 坐標(biāo)等輔助信息作為規(guī)劃啟發(fā)式,利用基于圖像的學(xué)習(xí)控制器和目標(biāo)導(dǎo)向啟發(fā)式(goaldirected heuristic),在以前沒(méi)見(jiàn)過(guò)的環(huán)境中導(dǎo)航到最遠(yuǎn) 3 公里以外的目標(biāo)。

論文標(biāo)題:ViKiNG: Vision-Based Kilometer-ScaleNavigation with Geographic Hints

論文鏈接:https://www.aminer.cn/pub/6216f7625aee126c0fc60302

中國(guó)人民大學(xué) 、 GeWu實(shí)驗(yàn)室:提出聽(tīng)音識(shí)物 AI 框架。AI 先要在單一聲源場(chǎng)景中學(xué)習(xí)物體的視覺(jué)-音頻表征;然后再將這一框架遷移到多聲源場(chǎng)景下,通過(guò)訓(xùn)練來(lái)辨別更多的聲源。研究人員讓這個(gè)框架先能從視覺(jué)方面定位出畫(huà)面中存在的不同物體,然后再根據(jù)聲音信息過(guò)濾掉不發(fā)聲物體。這種方法還能遷移到物體檢測(cè)任務(wù)中去。

麻省理工學(xué)院(MIT):開(kāi)發(fā)了一種全新的“聲感織物”(預(yù)制件的分層材料塊,由壓電層和響應(yīng)聲波振動(dòng)的增強(qiáng)材料成分制成)。這種織物材料,不僅能夠“聽(tīng)到”聲音,還能“發(fā)出”聲音。

論文標(biāo)題:Single fibre enables acoustic fabrics viananometre-scale vibrations

論文鏈接:https://www.aminer.cn/pub/6234658c5aee126c0feefef5

7、知識(shí)圖譜

魁北克人工智能研究院、加拿大蒙特利爾學(xué)習(xí)算法研究所:研究者在 AAAI-2022 會(huì)議論文中全面介紹知識(shí)圖譜推理的不同方法,包括傳統(tǒng)的基于符號(hào)邏輯規(guī)則的方法、基于神經(jīng)的方法、神經(jīng)符號(hào)方法、邏輯規(guī)則歸納方法和不同的應(yīng)用。

論文標(biāo)題:Reasoning on Knowledge Graphs: Symbolicor Neural?

地址:https://aaai2022kgreasoning.github.io/

北京大學(xué)數(shù)據(jù)管理實(shí)驗(yàn)室:被 TKDE 2022 接收的這篇論文對(duì)知識(shí)圖譜質(zhì)量控制問(wèn)題展開(kāi)了綜述,不僅包括質(zhì)量控制的基本概念如問(wèn)題、維度和指標(biāo),也涵蓋了質(zhì)量控制從評(píng)估、問(wèn)題發(fā)現(xiàn)到質(zhì)量提升的全流程,對(duì)不同工作中提出的方法,按照多個(gè)維度進(jìn)行分類(lèi),最后對(duì)現(xiàn)有工作進(jìn)行討論和總結(jié),并提出了若干有潛力的未來(lái)發(fā)展方向。

論文標(biāo)題:Knowledge Graph Quality Management: a Comprehensive Survey

8、信息檢索與推薦

谷歌研究院:引入了可微搜索索引(Differentiable Search Index,DSI)。這是一種學(xué)習(xí)文本到文本新范式,DSI 模型將字符串查詢(xún)直接映射到相關(guān)文檔。此外,還研究了如何表示文檔及其標(biāo)識(shí)符的變化、訓(xùn)練過(guò)程的變化以及模型和語(yǔ)料庫(kù)大小之間的相互作用。

論文標(biāo)題:Transformer Memory as a Differentiable Search Index

論文鏈接:https://www.aminer.cn/pub/620c6b645aee126c0fe28e8d

上海交通大學(xué):盧策吾團(tuán)隊(duì)提出了一種知識(shí)驅(qū)動(dòng)的人類(lèi)行為知識(shí)引擎HAKE(Human Activity Knowledge Engine)。它將像素映射到由原子活動(dòng)基元跨越的中間空間;用一個(gè)推理引擎將檢測(cè)到的基元編程為具有明確邏輯規(guī)則的語(yǔ)義,并在推理過(guò)程中更新規(guī)則。

論文標(biāo)題:HAKE: A Knowledge Engine Foundation forHuman Activity Understanding

論文鏈接:https://www.aminer.cn/pub/620b19c85aee126c0f7e6da3

9、可視化

CMU 、NUS、復(fù)旦、耶魯大學(xué):聯(lián)合發(fā)布了面向文本數(shù)據(jù)的統(tǒng)一數(shù)據(jù)分析、處理、診斷和可視化平臺(tái) DataLab。具有覆蓋廣、可理解性、統(tǒng)一性、可交互性、啟發(fā)性幾個(gè)特性。

論文標(biāo)題:DataLab: A Platform for Data Analysis andIntervention 論文鏈接:https://www.aminer.cn/pub/621c3d245aee126c0fe7e43e

馬里蘭大學(xué)、萊斯大學(xué)、紐約大學(xué):研究者對(duì)雙下降(Double Descent)現(xiàn)象進(jìn)行了可視化,從 CIFAR-10 訓(xùn)練集中選擇了三幅隨機(jī)圖像,然后使用三次不同的隨機(jī)初始化配置在 7 種不同架構(gòu)上訓(xùn)練,繪制出各自的決策區(qū)域,并設(shè)計(jì)了一種更直觀(guān)的度量方法來(lái)衡量各架構(gòu)的可復(fù)現(xiàn)性得分,發(fā)現(xiàn)更寬的 CNN 模型似乎在其決策區(qū)域具有更高的可復(fù)現(xiàn)性。此外,優(yōu)化器的選擇也會(huì)帶來(lái)影響。

論文標(biāo)題:Can Neural Nets Learn the Same Model Twice? Investigating Reproducibility and Double Descent from the Decision Boundary Perspective

論文鏈接:https://www.aminer.cn/pub/623155bb5aee126c0f2bac44

陳·扎克伯格生物中心、莫納什大學(xué):開(kāi)發(fā)了一個(gè)免費(fèi)、開(kāi)源并且可擴(kuò)展的圖像查看器 napari,適用于任意復(fù)雜(“n 維”)數(shù)據(jù),與 Python 生態(tài)系統(tǒng)緊密結(jié)合,napari 有類(lèi)似于 Adobe Photoshop 的圖層,允許用戶(hù)疊加點(diǎn)、矢量、軌跡、表面、多邊形、注釋或其他圖像。

論文標(biāo)題:Python power-up: new image tool visualizes complex data

論文鏈接:https://www.aminer.cn/pub/61d576f65244ab9dcb3be8ca

10、計(jì)算機(jī)系統(tǒng)

美國(guó) AI 芯片公司Luminous Computing:宣布已在 A 輪融資中籌集了 1.05 億美元,用于建造世界上最強(qiáng)大的 AI 超級(jí)計(jì)算機(jī),并將使用專(zhuān)有的硅光子學(xué)技術(shù)來(lái)消除各種規(guī)模的數(shù)據(jù)移動(dòng)瓶頸。

美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院:美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的研究人員開(kāi)發(fā)出新的可以在細(xì)胞內(nèi)持續(xù)存在的長(zhǎng)壽生物計(jì)算機(jī)。選擇使用RNA 來(lái)構(gòu)建生物計(jì)算機(jī)。結(jié)果表明,RNA 電路與其基于 DNA 的電路一樣可靠和通用。更重要的是,活細(xì)胞能夠連續(xù)創(chuàng)建這些 RNA 電路元件。

摩爾線(xiàn)程:張建中 2020 年 9 月離開(kāi)英偉達(dá),并于次月創(chuàng)辦的摩爾線(xiàn)程發(fā)布國(guó)產(chǎn)第一代全功能 GPU 芯片蘇堤,以及下一代多平臺(tái) GPU 物理仿真系統(tǒng) AlphaCore。該芯片耗時(shí)僅 18個(gè)月、量產(chǎn)上市。采用了統(tǒng)一系統(tǒng)架構(gòu) MUSA(MT Unified System Architecture)。

11、AI 應(yīng)用

清華大學(xué)、華深智藥:清華大學(xué)和華深智藥生物科技有限公司結(jié)合深度學(xué)習(xí)模型,完成了從抗體 AI 優(yōu)化設(shè)計(jì)、抗體合成、功能評(píng)估和再優(yōu)化的閉環(huán)程序,基于大量抗體-抗原復(fù)合物結(jié)構(gòu)及結(jié)合親和力數(shù)據(jù),開(kāi)發(fā)了一種基于注意力的幾何神經(jīng)網(wǎng)絡(luò)架構(gòu),該模型可有效地提取殘基間相互作用特征并預(yù)測(cè)由于抗體單個(gè)或多個(gè)氨基酸變化所引起的結(jié)合親和力變化。

論文標(biāo)題: Deep learning guided optimization ofhuman antibody against SARS-CoV-2 variants with broad neutralization

德國(guó) ALS Voice gGmbH:德國(guó) ALS Voice gGmbH 展示了一種使用計(jì)算機(jī)從腦信號(hào)解碼字母的方法,可以使完全閉鎖患者借助腦機(jī)接口(BCI)進(jìn)行語(yǔ)言交流。目前已經(jīng)可以和一名 34 歲、完全閉鎖狀態(tài)的男性 ALS 患者(已無(wú)法控制隨意肌),以每分鐘一個(gè)詞的速度形成單詞和詞組進(jìn)行交流。

論文標(biāo)題:Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training

中國(guó)科學(xué)院:中國(guó)科學(xué)院微生物研究所結(jié)合 LSTM、Attention 和BERT 等多種自然語(yǔ)言處理神經(jīng)網(wǎng)絡(luò)模型,建立了一個(gè)用于從人類(lèi)腸道微生物組數(shù)據(jù)中識(shí)別候選腺苷-磷酸(AMP)的統(tǒng)一管道,利用現(xiàn)已公開(kāi)的大量宏基因組數(shù)據(jù),進(jìn)行多肽的挖掘及邏輯推導(dǎo),研究合成多肽的機(jī)理、安全性與動(dòng)物實(shí)驗(yàn)等,并得出對(duì)真核細(xì)胞沒(méi)有明顯毒性的肽能夠在動(dòng)物體內(nèi)降低感染菌的載量,并有效治療肺炎克雷伯菌所導(dǎo)致的感染。

論文標(biāo)題: Identification of antimicrobial peptides from the human gut microbiome using deep learning

瑞士 Wyss生物和神經(jīng)工程中心、德國(guó)蒂賓根大學(xué):瑞士 Wyss 生物和神經(jīng)工程中心與德國(guó)蒂賓根大學(xué)科研團(tuán)隊(duì)共同合作,通過(guò)侵入式 BCI 系統(tǒng)“植入式電極 神經(jīng)反饋”的方式獲取患者的意圖,將 3.2mm2 大小的兩個(gè)微電極陣列在該患者的大腦皮層表面植入,每個(gè)電極陣列有 64 個(gè)針狀電極,用來(lái)記錄神經(jīng)信號(hào)。一位漸凍癥患者通過(guò) BCI 系統(tǒng),實(shí)現(xiàn)了其大腦信號(hào)的讀取,并通過(guò)機(jī)器上字母的選擇組合完成了句子的完整表達(dá)。

3 月 22 日,相關(guān)論文以《在通過(guò)聽(tīng)覺(jué)神經(jīng)反饋訓(xùn)練啟用的完全鎖定患者中使用皮質(zhì)內(nèi)信號(hào)的拼寫(xiě)界面》(Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training)為題發(fā)表在 Nature Communications 上。

Google Research:Google Research 提出了一個(gè)機(jī)器學(xué)習(xí)模型 ProtENN,能夠可靠地預(yù)測(cè)蛋白質(zhì)的功能,并且為 Pfam 新增了大約680 萬(wàn)條蛋白質(zhì)功能注釋?zhuān)蠹s相當(dāng)于過(guò)去十年進(jìn)展的總和。

論文標(biāo)題: Using Deep Learning to Annotate theProtein Universe

論文鏈接:https://www.aminer.cn/pub/5ce3af25ced107d4c65f15d4

清華大學(xué)、伊利諾伊大學(xué)厄巴納-香檳分校、麻省理工學(xué)院:清華大學(xué)、伊利諾伊大學(xué)厄巴納-香檳分校和麻省理工學(xué)院利用 DeepMind 開(kāi)發(fā)的第二代深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)AlphaFold 2 增強(qiáng)新冠抗體,可以使抗體寬度以及 sarscov-2 變體 (包括 Delta) 的效力提高 10 到 600 倍」,甚至發(fā)現(xiàn)了該方法可以對(duì)抗奧密克戎(Omicron)變體跡象的希冀。

論文標(biāo)題: Deep learning guided optimization of human antibody against SARS-CoV-2 variants with broad neutralization

論文鏈接:https://www.aminer.cn/pub/6221ee375aee126c0f7bb180

廈門(mén)大學(xué)、新加坡國(guó)立大學(xué):張鵬和陳宇綜等學(xué)者的團(tuán)隊(duì)正在研究如何借助計(jì)算機(jī)算法從蛋白質(zhì)中創(chuàng)作古典音樂(lè)。一條蛋白質(zhì)鏈可以表示為一個(gè)由字母組成的字符串,像一個(gè)以字母表示的音符串。因此,一種合適的“蛋白質(zhì)到音樂(lè)”的算法,就可以將一串氨基酸的結(jié)構(gòu)和物理化學(xué)特征映射到一段音符的音樂(lè)特征上。

論文標(biāo)題:Protein music of enhanced musicality bymusic style guided exploration of diverse amino acid properties

論文鏈接:https://www.aminer.cn/pub/616566875244ab9dcb892cd4

潞晨科技、上海交大:潞晨科技和上海交大提出了一種蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)模型的高效實(shí)現(xiàn) FastFold , FastFold 包 括 一 系 列 基 于 對(duì)AlphaFold 性能全面分析的 GPU 優(yōu)化,同時(shí),通過(guò)動(dòng)態(tài)軸并行和對(duì)偶異步算子,F(xiàn)astFold 提高了模型并行擴(kuò)展的效率,超越了現(xiàn)有的模型并行方法。

論文標(biāo)題:FastFold: Reducing AlphaFold Training Time from 11 Days to 67 Hours

論文鏈接:https://www.aminer.cn/pub/622032395aee126c0fe2f5d5

谷歌 AI:谷歌 AI 發(fā)布了用于蛋白質(zhì)解析的機(jī)器學(xué)習(xí)模型ProtENN,可以幫助在 Pfam 的蛋白質(zhì)功能注釋集中添加大約 680 萬(wàn)個(gè)條目,大約相當(dāng)于過(guò)去十年的新增條目總和,將 Pfam 的覆蓋范圍擴(kuò)大了 9.5%以上。

論文標(biāo)題: Using Deep Learning to Annotate theProtein Universe

論文鏈接:https://www.aminer.cn/pub/5ce3af25ced107d4c65f15d4

麻省理工學(xué)院、哈佛大學(xué):麻省理工學(xué)院、哈佛大學(xué)博德研究所開(kāi)發(fā)了一種新框架來(lái)研究調(diào)控 DNA 的適應(yīng)度地形,該研究利用在數(shù)億次實(shí)驗(yàn)測(cè)量結(jié)果上進(jìn)行訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型,預(yù)測(cè)酵母菌 DNA中非編碼序列的變化及其對(duì)基因表達(dá)的影響。

論文標(biāo)題:The evolution, evolvability and engineering of gene regulatory DNA

論文鏈接:https://www.aminer.cn/pub/622b2bd75aee126c0fb97555

美國(guó)德州農(nóng)工大學(xué):德州農(nóng)工大學(xué)基于機(jī)器學(xué)習(xí)的培養(yǎng)設(shè)計(jì)和合成生物學(xué)的平臺(tái),突破了藻類(lèi)生產(chǎn)中“相互遮蔭” 和 “高收獲成本” 的限制,實(shí)現(xiàn) 43.3 克 / 平方米 / 天的生物質(zhì)產(chǎn)量,使最低生物質(zhì)銷(xiāo)售價(jià)格降至每噸約 281 美元。

論文標(biāo)題:Machine learning-informed and syntheticbiology-enabled semi-continuous algal cultivation tounleash renewable fuel productivity

論文鏈接:https://www.aminer.cn/pub/61f51ab25aee126c0f14ad6e

哥本哈根大學(xué)、米蘭大學(xué)等:丹麥、瑞士、法國(guó)、德國(guó)、挪威和捷克共和國(guó)的 16 名研究人員,首次開(kāi)發(fā)了一款人工智能,可以把豬在各種場(chǎng)景中發(fā)出的聲音“翻譯”出來(lái),讀出豬的真實(shí)情緒,通過(guò)記錄 411頭家豬的 7000 多次豬叫,使用訓(xùn)練算法來(lái)識(shí)別這些聲音,可以以 92%的正確率翻譯出豬叫聲中的情緒。

論文標(biāo)題:Classification of pig calls produced frombirth to slaughter according to their emotional valence and context of production

論文鏈接:https://www.aminer.cn/pub/622887315aee126c0feab0e0

DeepMind、哈佛大學(xué)、谷歌:DeepMind、哈佛大學(xué)和谷歌等聯(lián)合開(kāi)發(fā)了一種基于Transformer 架構(gòu)的方法,單獨(dú)修復(fù)受損文本時(shí),準(zhǔn)確率能達(dá)到 62%,破譯古希臘石碑的準(zhǔn)確率達(dá)到 72%,此外,這一方法在地理歸屬的任務(wù)上也有 71%的準(zhǔn)確率,還能將古文字的書(shū)寫(xiě)日期精確到 30 年以?xún)?nèi)。

西安電子大學(xué)、悉尼科技大學(xué)等:中國(guó)和澳大利亞學(xué)者開(kāi)發(fā)了一款名為 Nos.e 的電子鼻,里面有一小瓶威士忌樣品,威士忌的氣味被注入到一個(gè)氣體傳感器室中,氣體傳感器檢測(cè)各種氣味并將數(shù)據(jù)發(fā)送給計(jì)算機(jī)進(jìn)行分析。然后,通過(guò)機(jī)器學(xué)習(xí)算法提取和分析最重要的氣味特征,以識(shí)別威士忌的品牌、地區(qū)和風(fēng)格。

央視:兩會(huì)期間,“央視頻”平臺(tái)以總臺(tái)財(cái)經(jīng)評(píng)論員王冠為原型,1:1 復(fù)刻打造推出總臺(tái)首個(gè)擁有超自然語(yǔ)音、超自然表情的超仿真主播“AI 王冠”,同時(shí)推出全新 AI 節(jié)目《“冠”察兩會(huì)》,結(jié)合兩會(huì)熱點(diǎn)話(huà)題,以科技感和新鮮感,為總臺(tái)兩會(huì)報(bào)道內(nèi)容提供更多維度和視角。

科大訊飛:科大訊飛為兩會(huì)打造了“訊飛聽(tīng)見(jiàn)智慧簡(jiǎn)報(bào)系統(tǒng)”。通過(guò)智能語(yǔ)音轉(zhuǎn)寫(xiě)、自然語(yǔ)言處理等多項(xiàng)核心技術(shù),該系統(tǒng)實(shí)現(xiàn)了在全程離線(xiàn)環(huán)境下將會(huì)議發(fā)言實(shí)時(shí)轉(zhuǎn)寫(xiě)成文字,一方面輔助記錄人員進(jìn)行簡(jiǎn)報(bào)材料整理,既保證簡(jiǎn)報(bào)記錄原汁原味,又保證內(nèi)容準(zhǔn)確詳實(shí),另一方面所有算法均在設(shè)備本機(jī)離線(xiàn)運(yùn)行,確保會(huì)議信息安全。

卡內(nèi)基梅隆大學(xué):卡內(nèi)基梅隆大學(xué)開(kāi)發(fā)了一個(gè)名為 MolCLR(Molecular Contrastive Learning of Representations with GNN)的自我監(jiān)督學(xué)習(xí)框架,通過(guò)利用大約 1000 萬(wàn)個(gè)未標(biāo)記的分子數(shù)據(jù),顯著提高了 ML 模型的性能,繼而進(jìn)行化學(xué)研究。

論文標(biāo)題:Molecular contrastive learning of representations via graph neural networks

論文鏈接:https://www.aminer.cn/pub/60338c9891e011e54d039c5a

布朗大學(xué)、MIT 、南洋理工大學(xué):布朗大學(xué)、MIT 和南洋理工大學(xué)提出了一種基于 PINN的方法,用于解決連續(xù)體固體力學(xué)中的幾何識(shí)別問(wèn)題,該方法將固體力學(xué)中重要的已知偏微分方程(PDE)與 NN相結(jié)合,構(gòu)成了一個(gè)統(tǒng)一的計(jì)算框架,包括正向求解器和逆向算法,通過(guò)使用神經(jīng)網(wǎng)絡(luò)的工作流程,該方法可以通過(guò)深度學(xué)習(xí)過(guò)程自動(dòng)更新幾何估計(jì)。

論文標(biāo)題:Analyses of internal structures and defects in materials using physics-informed neural networks

論文鏈接:https://www.aminer.cn/pub/620f7b895aee126c0f30d328

斯坦福大學(xué)、天津大學(xué):斯坦福大學(xué)、天津大學(xué)設(shè)計(jì)了一種極富彈性的可穿戴顯示器——可拉伸全聚合物發(fā)光二極管(APLED),APLED具有很好的明亮度和耐用性,這一設(shè)計(jì)或標(biāo)志著高性能可拉伸顯示器的重要進(jìn)展,為電子皮膚和人-電子應(yīng)用奠定基礎(chǔ)。

論文標(biāo)題:High-brightness all-polymer stretchable LED with charge-trapping dilution

論文鏈接:https://www.nature.com/articles/s41586-022-04400-1

清華 AIR、計(jì)算機(jī)系與騰訊 AI Lab:清華 AIR、計(jì)算機(jī)系與騰訊 AI Lab 共同提出了圖力學(xué)網(wǎng)絡(luò)(Graph Mechanics Network, GMN)。借助廣義坐標(biāo),GMN 能有效刻畫(huà)幾何約束;借助等變神經(jīng)網(wǎng)絡(luò),GMN 能滿(mǎn)足物理對(duì)稱(chēng)性。在多剛體仿真系統(tǒng)Constrained N-body、人體骨架預(yù)測(cè) CMU Motion Capture、分子動(dòng)力學(xué)模擬 MD-17 等任務(wù)上都驗(yàn)證了GMN 的有效性。

論文標(biāo)題:Equivariant Graph Mechanics Networks with Constraints

論文鏈接:https://www.aminer.cn/pub/623004305aee126c0f9b358b

RIKEN 、東京大學(xué):RIKEN 高級(jí)智能項(xiàng)目研究中心和東京大學(xué)使用從頭分子生成器(DNMG)與量子化學(xué)計(jì)算(QC)相結(jié)合來(lái)開(kāi)發(fā)熒光分子,使用大規(guī)模并行計(jì)算(1024 核,5 天),DNMG產(chǎn)生了 3643 個(gè)候選分子。光致發(fā)光光譜測(cè)量表明,DNMG 可以以 75% 的準(zhǔn)確度(n = 6/8)成功設(shè)計(jì)熒光分子,并產(chǎn)生一種未報(bào)告的分子,該分子發(fā)出肉眼可檢測(cè)到的熒光。

論文標(biāo)題:De novo creation of a naked eye–detectable fluorescent molecule based on quantum chemical computation and machine learning

論文鏈接:https://www.aminer.cn/pub/622b2bd35aee126c0fb94f0e

薩塞克斯大學(xué)、倫敦大學(xué)學(xué)院:薩塞克斯大學(xué)、倫敦大學(xué)學(xué)院的研究著提出了一種采用機(jī)器學(xué)習(xí)方法,通過(guò)觀(guān)察自動(dòng)發(fā)現(xiàn)實(shí)際物理系統(tǒng)的控制方程和隱藏屬性。該研究分為兩個(gè)階段:第一階段的學(xué)習(xí)模擬器基于圖網(wǎng)絡(luò) (GN),圖網(wǎng)絡(luò)是一種深度神經(jīng)網(wǎng)絡(luò),可以通過(guò)訓(xùn)練來(lái)逼近圖上的復(fù)雜函數(shù);第二階段,該研究分離邊函數(shù)(edge function),并應(yīng)用符號(hào)回歸擬合邊函數(shù)的解析公式,其最好的擬合是對(duì)牛頓萬(wàn)有引力定律的擬

合。

論文標(biāo)題:Rediscovering orbital mechanics with machine learning

論文鏈接:https://www.aminer.cn/pub/62008da15aee126c0fbd19ea

巴西 ABC 聯(lián)邦大學(xué):巴西 ABC 聯(lián)邦大學(xué)提出了一種數(shù)據(jù)驅(qū)動(dòng)策略來(lái)探索二維材料中的磁性。使用創(chuàng)建的二維磁性材料數(shù)據(jù)庫(kù)訓(xùn)練 ML算法,從而獲得能夠?qū)⒉牧戏诸?lèi)為非磁性、FM 或 AFM的描述符。該策略分為兩個(gè)主要步驟,即(i)開(kāi)發(fā)一個(gè)隨機(jī)森林模型,根據(jù)晶體結(jié)構(gòu)和原子組成趨勢(shì)將磁性與非磁性化合物分開(kāi),以及(ii)基于確定的獨(dú)立性通過(guò)篩選和稀疏算子(SISSO)方法尋找一個(gè)數(shù)學(xué)模型(即原子特征的函數(shù)),該模型為 AFM 和 FM 二維材料提供具有定義區(qū)域的材料圖。

論文標(biāo)題:Machine Learning Study of the Magnetic Ordering in 2D Materials

論文鏈接:https://www.aminer.cn/pub/61f8a4c35aee126c0fee028e

蘇黎世聯(lián)邦理工學(xué)院:蘇黎世聯(lián)邦理工學(xué)院提出可使用自學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò),解決動(dòng)力系統(tǒng)的控制問(wèn)題。利用數(shù)值和分析方法的結(jié)合,AI Pontryagin 可通過(guò)自動(dòng)學(xué)習(xí),找出工程上可行的控制系統(tǒng)的方式。該方法可應(yīng)用于智能電網(wǎng)的調(diào)控、供應(yīng)鏈優(yōu)化以及金融系統(tǒng)的穩(wěn)定等眾多場(chǎng)景。

論文標(biāo)題: AI Pontryagin or how artificial neural networks learn to control dynamical systems

論文鏈接:https://www.aminer.cn/pub/604b3bad91e0110eed64c382

AI 自動(dòng)駕駛:清華大學(xué)、麻省理工學(xué)院提出了一種基于自監(jiān)督學(xué)習(xí)的方法,讓自動(dòng)駕駛模型從已有的軌跡預(yù)測(cè)數(shù)據(jù)集中學(xué)會(huì)正確判斷沖突中的禮讓關(guān)系。該研究將預(yù)測(cè)的關(guān)系在充滿(mǎn)復(fù)雜交互的 Waymo Interactive Motion Prediction 數(shù)據(jù)集上進(jìn)行了測(cè)試,并提出了 M2I 框架來(lái)使用預(yù)測(cè)出的關(guān)系進(jìn)行場(chǎng)景級(jí)別的交互軌跡預(yù)測(cè)。

論文標(biāo)題:M2I: From Factored Marginal Trajectory Prediction to Interactive Prediction

論文鏈接:https://www.aminer.cn/pub/621849025aee126c0f551ec8

麻省理工學(xué)院的 Derq 分支機(jī)構(gòu),開(kāi)發(fā)了一個(gè)人工智能應(yīng)用程序,可以融合來(lái)自多個(gè)傳感器的數(shù)據(jù),包括安裝在車(chē)輛和道路兩側(cè)的攝像頭,以監(jiān)測(cè)并最終協(xié)助管理道路,提高安全性。

AI 氣候能源:康奈爾大學(xué)開(kāi)發(fā)了一個(gè)基于機(jī)器學(xué)習(xí)的多時(shí)間尺度的電力系統(tǒng)脫碳過(guò)渡優(yōu)化模型,旨在幫助政府規(guī)劃電力部門(mén)向碳中和過(guò)渡的路徑,以及考量氣候或能源目標(biāo)的可行性。

論文標(biāo)題: Toward Carbon-Neutral Electric Power Systems in the New York State: a Novel Multi-Scale Bottom-Up Optimization Framework Coupled with Machine Learning for Capacity Planning at HourlyResolution

英偉達(dá)、勞倫斯伯克利國(guó)家實(shí)驗(yàn)室、密歇根大學(xué)安娜堡分校、萊斯大學(xué)等機(jī)構(gòu)開(kāi)發(fā)了一種基于傅里葉的神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型 FourCastNet,它能以 0.25° 的分辨率生成關(guān)鍵天氣變量的全球數(shù)據(jù)驅(qū)動(dòng)預(yù)測(cè),相當(dāng)于赤道附近大約 30×30 km 的空間分辨率和 720×1440 像素的全球網(wǎng)格大小。這使得首次能夠與歐洲中期天氣預(yù)報(bào)中心(ECMWF)的高分辨率綜合預(yù)測(cè)系統(tǒng)(IFS)模型進(jìn)行直接比較。

論文標(biāo)題:FourCastNet: A Global Data-driven Highresolution Weather Model using Adaptive Fourier Neural Operators

論文鏈接:https://www.aminer.cn/pub/6216f7625aee126c0fc60248

智東西認(rèn)為,三月的AI領(lǐng)域重大新聞數(shù)量有所下降,但質(zhì)量上一點(diǎn)也沒(méi)縮水。最重磅的,當(dāng)屬NVIDIA Omniverse全新功能,用AI技術(shù)提升游戲畫(huà)面,讓人物表情變得栩栩如生。另外,中國(guó)相關(guān)的AI領(lǐng)域的表現(xiàn)也十分亮眼,浙大博士入選蘋(píng)果獎(jiǎng)學(xué)金,十一大AI細(xì)分領(lǐng)域中都有中國(guó)相關(guān)高校、公司的身影。

清華大學(xué)aminer(清華AMiner人工智能月報(bào))(5)

歡迎分享轉(zhuǎn)載→http://www.avcorse.com/read-244100.html

Copyright ? 2024 有趣生活 All Rights Reserve吉ICP備19000289號(hào)-5 TXT地圖HTML地圖XML地圖