發表文章

目前顯示的是 6月, 2022的文章

AI頂會排行榜,CVPR居首 NIPS、ICML分列二、三位(轉貼)

圖片
 AI頂會排行榜,CVPR居首 NIPS、ICML分列二、三位 2019-09-11 由 AMiner學術 發表于科技 隨著計算機技術的日新月異,尤其是以人工智慧和機器學習為代表的新興技術快速發展,使得以AI為主題的會議層出不窮。那麼了解AI領域的最新科研成果與發展趨勢,就一定要看頂會,頂會,頂會! 除了大家最為熟知的人工智慧領域最核心的四大頂會AAAI、IJCAI、ICML和NIPS,以及作為計算機視覺和自然語言為代表的CVPR和ACL這兩大學術會議,也湧現了許多「後起之秀」,比如僅創立六年卻有深度學習頂會「無冕之王」之稱的ICLR,還有創辦於1996年的大有趕超ACL之勢的自然語言處理領域頂會EMNLP,這些「新星會議」的崛起,使得AI領域的會議呈現出亮點紛呈、多面開花的局面。 目前國外計算機界評價學術水平主要看在頂級學術會議上發表的論文,特別是在機器學習、計算機視覺和人工智慧領域,頂級會議才是王道。 為了便於了解和追蹤AI領域各大頂會/頂刊的發展態勢,通過對AMiner平台中近五年來會議/期刊數據地深入發掘,我們重磅推出AI領域會議TOP40榜單與期刊TOP60榜單。 這份榜單主要根據五年來AI領域會議/期刊的H5-index、引用中位數(cit_med )、10H值(被引最高的10篇論文的被引數量之和)、年均篇數(avg_pub )等指標,期刊還考慮了影響因子(IF)、特徵因子(EF)2個額外指標,同時結合CCF等級進行指標相關性分析,依據這些會議/期刊的H5指數進行了統計和排名,最終評選出會議TOP40榜單與期刊TOP60榜單。 AI領域會議TOP40排行 從這份排名來看,計算機視覺頂會CVPR以H5指數235、10H值78158高居榜首。 機器學習領域頂級會議NIPS,H5指數149,位居第二。 排在第三名的同樣是機器學習領域的頂級會議,ICML,H5指數128。 排名第四、第五的分別是ECCV和ICCV。計算機視覺領域的三大頂會全部上榜,可以看出這一研究方向的火爆與熱度。 自然語言處理是除計算機視覺外另一個非常受關注的研究領域,ACL 和 EMNLP 作為自然語言處理這一領域貢獻非常大的兩大頂會,分別位列第六、第八位。 AAAI作為人工智慧領域的綜合性頂會,H5指數89,位列第七。 作為機器人領域的國際頂級會議ICRA,排在第九位,H5指數81。該會議

人工智慧 | ShowMeAI資訊日報 #2022.06.22 @@@@ 論文:HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video(轉貼)

圖片
  人工智慧 | ShowMeAI資訊日報 #2022.06.22 語言:  CN  /  TW  /  HK 時間 2022-06-23 03:16:08  ShowMeAI 主題:   人工智慧   機器學習   演算法 引用 :  https://www.gushiciku.cn/pl/a1Fu/zh-tw 論文:HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video 論文標題 :HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video 論文時間 :CVPR 2022 所屬領域 :計算機視覺 論文地址 : https://arxiv.org/abs/2201.04127 程式碼實現 : https://github.com/chungyiweng/humannerf 論文作者 :Chung-Yi Weng, Brian Curless, Pratul P. Srinivasan, Jonathan T. Barron, Ira Kemelmacher-Shlizerman 論文簡介 :Our method optimizes for a volumetric representation of the person in a canonical T-pose, in concert with a motion field that maps the estimated canonical representation to every frame of the video via backward warps./我們的方法優化了人在標準 T 姿勢中的體積表示,與運動場相一致,該運動場通過向後扭曲將估計的標準表示對映到影片的每一幀。 論文摘要 :We introduce a free-viewpoint rendering method -- HumanNeRF -- that works on a given monocular video of a human performing complex body motions, e.g. a video from YouTube.

HumanNeRF: AI renders 3D humans from video only ( HumanNeRF:AI僅從視頻中渲染3D人類 )(轉貼)

圖片
HumanNeRF:AI僅從視頻中渲染3D人類 (CPVR 2022 在  USA New Orleans 新奧爾良   June 19-24, 2022 )   引用 : 2022 年 6 月 21 日 Maximilian Schreiner   https://mixed.de/humannerf-ki-rendert-3d-menschen-aus-einem-video/        Image: Weng et al. | University of Washington | Google | YouTube 神經渲染方法有望用人工智能增強甚至取代歷史悠久的 3D 渲染方法。一個例子是所謂的神經輻射場 (NeRFs) ,這是一種小型神經網絡,可以從 2D 照片中學習 3D 表示,然後進行渲染。 自發明以來,該技術一直在產生越來越逼真的圖像。一些變體現在可以在幾秒鐘內學習和渲染複雜的 3D 表示。例如,在今年的 GTC 上,英偉達對 Instant NeRF 提出了見解,這種方法比舊方法快 1000 倍。 根據 Nvidia 圖形研究副總裁 David Luebke 的說法,對於 2D 攝影, NeRF 可與 JPEG 壓縮相媲美。他解釋說,如果像多邊形網格這樣的傳統 3D 表示可以與矢量圖像相媲美,那麼 NeRF 就像位圖圖像。它們捕捉光線如何從物體或場景中輻射出來。 Luebke 說,這可以在捕獲和共享 3D 內容時大大提高速度、簡單性和覆蓋範圍。 谷歌通過谷歌地圖部署 NeRF 以實現沉浸式視圖 NeRF 開發的先驅是谷歌。該公司與加州大學伯克利分校和加州大學聖地亞哥分校的科學家一起開發了 NeRFs 。從那時起,谷歌就展示了人工智能渲染的街區,這些街 區可以通過 Mip-NeRF 360 實現一種街景 3D 和真實世界物體的逼真 3D 渲染。 在今年的 CVPR  I/O 開發者大會上,谷歌展示了 Immersive View ,這是一種合成 3D 視角的主要城市和餐廳等個人內部視圖,同樣基於神經渲染。   Video: Google 現在,華盛頓大學和谷歌的研究人員展示了 NeRFs 如何以 3D 形式呈現人。 NeRFs for