發表文章

劉正芸 (Karen Liu):我的ICM有 Kinect沒有的靈魂(轉貼)

圖片
  劉正芸 ( Karen Liu ) :我的ICM有 Kinect沒有的靈魂 同業只知她是發明家,不知是前院長千金 文 /  林士蕙      「  本文出自 遠見雜誌  2011 / 03 月號  」 劉正芸:我的ICM有 Kinect沒有的靈魂 | 林士蕙 | 遠見雜誌 (gvm.com.tw) 聖誕節橫掃全球票房冠軍的3D科幻片《創.光速戰記》(Tron:Legacy),故事描述的是一個男孩,為了追查曾是電玩天才的父親為何失蹤,而進入他父親所創造的虛擬世界裡。 在那兒,他竟發現他父親有一個栩栩如生的虛擬分身,甚至比他真正的父親還要聰明。 這部電影描述的未來,並不遠。今年初落幕的美國消費性電子展(CES)上,微軟執行長鮑默(Steve Ballmer)驕傲地展示微軟Xbox Live的最新武器Avatar Kinect。它結合了虛擬角色與體感操作,只要連線,你張嘴它就張嘴、你揮手它也揮手,不再需要搖桿當中介。似乎代表著,每個人擁有一個虛擬分身的時代,已將到來。 操縱分身的體感技術剛起步,但已展現無限商機,成為MIT等實驗室裡的第一流科學家都在搶進的研發方向。 值得驕傲的是,已有台灣人投入這個領域並創業有成,在美國打下了知名度。 她,正是前行政院長、現任文化總會會長劉兆玄的次女──劉正芸,2009年創辦Activate 3D公司,擔任首席科學家。 「在微軟還沒研發Kinect時,我就在做這樣的研究了。我開發出的ICM(Intelligent Character Motion,智慧型角色動作技術),擁有Kinect沒有的靈魂!」劉正芸接受《遠見》越洋訪問時驕傲地表示。 現年33歲的劉正芸,台大資訊系畢業、美國華盛頓大學電腦博士,目前任職美國喬治亞理工學院助理教授。在學院網站上,她放上一張很炫的照片:長相甜美的她,秀出手上戴的實驗用感應圓球,彷彿是電影裡強悍又美麗的女超人,可和男人一決高下。 在現實中,她也是在男性占大多數的電腦圖學研究領域中,備受矚目的女性精英。 體感新應用 光榮入列TR35 2007年,甫滿30歲的劉正芸,就因電腦互動研究成果傑出,與當時創辦Facebook兩年多的馬克.查克柏格(Mark Zuckerberg),一同被權威科技雜誌《麻省理工科技評論》(MIT Tech...

HumanNeRF: Free-Viewpoint Rendering of Moving People From Monocular Video CVPR 2022 (Oral) Chung-Yi Weng (轉貼)

圖片
 HumanNeRF: Free-Viewpoint Rendering of Moving People From Monocular Video      CVPR 2022 (Oral)  Chung-Yi Weng    Brian Curless    Pratul P. Srinivasan   Jonathan T. Barron    Ira Kemelmacher-Shlizerman    University of Washington   Google Research        引用 :  https://grail.cs.washington.edu/projects/humannerf/          引用 :  https://www.youtube.com/channel/UCXW4-oHus8ZndDjaXykMlsQ          引用 :  https://youtube.com/channel/UCFownjFqvu4GIr84ZYO9rEw      

UW + Google 剛剛打開 HumanNeRF:在任何幀暫停視頻並從任意視圖渲染主題(轉貼)

圖片
  UW + Google 剛剛打開 HumanNeRF:在任何幀暫停視頻並從任意視圖渲染主題 引 用 : https://christiankromme.com/uw-google-just-opened-humannerf/     走向數字化 發生了什麼? 華盛頓大學和谷歌剛剛宣布推出 HumanNeRF,這是一種新的 3D 渲染系統,能夠合成運動中人體的逼真細節。 這包括精細的細節,例如布料和麵部特徵,以及規範 T 姿勢中的體積表示。 此外,HumanNeRF 可以從單個攝像機視頻片段中分解神經骨骼結構。 這為 3D 內容創建和分析開闢了許多可能性!         保持人性 為什麼這很重要? 通過單角度相機視角,該算法能夠提取: 身體的逼真特徵,例如衣服和麵部等精細細節; 和骨骼剛性/非剛性分解。 這使內容創建者能夠以前所未有的保真度 3D 打印人體模型,或創建用於遊戲和電影的數字人體。 對於研究人員而言,該系統可用於研究人們如何移動或開髮用於虛擬現實和機器人等應用的跟踪人體運動的新方法。 潛力無限 下一步是什麼? 這項技術的潛在應用幾乎是無限的。 3D 打印人體模型、開發跟踪人體運動的新方法以及創建數字人體只是其中的一小部分可能性。 我們迫不及待地想看看有創造力的人用 HumanNeRF 做了什麼!

Google at CVPR 2022 : HumanNeRF: Free-Viewpoint Rendering of Moving People from Monocular Video Chung-Yi Weng(轉貼)

圖片
Google at CVPR 2022 :    HumanNeRF: Free-Viewpoint Rendering of Moving People  from Monocular Video    Chung-Yi Weng  引 用 :; https://ai.googleblog.com/2022/06/google-at-cvpr-2022.html?m=1 The latest from Google Research Google at CVPR 2022 Tuesday, June 21, 2022 Posted by Shaina Mehta and Kristen Borg, Program Managers This week marks the beginning of the premier annual Computer Vision and Pattern Recognition conference (CVPR 2022), held both in-person in New Orleans, LA and virtually. As a leader in computer vision research and a Platinum Sponsor, Google will have a strong presence across CVPR 2022 with over 80 papers being presented at the main conference and active involvement in a number of conference workshops and tutorials. If you are attending CVPR this year, please stop by our booth and chat with our researchers who are actively exploring the latest machine learning techniques for application to various areas of machine perception. Our researchers w...

AI頂會排行榜,CVPR居首 NIPS、ICML分列二、三位(轉貼)

圖片
 AI頂會排行榜,CVPR居首 NIPS、ICML分列二、三位 2019-09-11 由 AMiner學術 發表于科技 隨著計算機技術的日新月異,尤其是以人工智慧和機器學習為代表的新興技術快速發展,使得以AI為主題的會議層出不窮。那麼了解AI領域的最新科研成果與發展趨勢,就一定要看頂會,頂會,頂會! 除了大家最為熟知的人工智慧領域最核心的四大頂會AAAI、IJCAI、ICML和NIPS,以及作為計算機視覺和自然語言為代表的CVPR和ACL這兩大學術會議,也湧現了許多「後起之秀」,比如僅創立六年卻有深度學習頂會「無冕之王」之稱的ICLR,還有創辦於1996年的大有趕超ACL之勢的自然語言處理領域頂會EMNLP,這些「新星會議」的崛起,使得AI領域的會議呈現出亮點紛呈、多面開花的局面。 目前國外計算機界評價學術水平主要看在頂級學術會議上發表的論文,特別是在機器學習、計算機視覺和人工智慧領域,頂級會議才是王道。 為了便於了解和追蹤AI領域各大頂會/頂刊的發展態勢,通過對AMiner平台中近五年來會議/期刊數據地深入發掘,我們重磅推出AI領域會議TOP40榜單與期刊TOP60榜單。 這份榜單主要根據五年來AI領域會議/期刊的H5-index、引用中位數(cit_med )、10H值(被引最高的10篇論文的被引數量之和)、年均篇數(avg_pub )等指標,期刊還考慮了影響因子(IF)、特徵因子(EF)2個額外指標,同時結合CCF等級進行指標相關性分析,依據這些會議/期刊的H5指數進行了統計和排名,最終評選出會議TOP40榜單與期刊TOP60榜單。 AI領域會議TOP40排行 從這份排名來看,計算機視覺頂會CVPR以H5指數235、10H值78158高居榜首。 機器學習領域頂級會議NIPS,H5指數149,位居第二。 排在第三名的同樣是機器學習領域的頂級會議,ICML,H5指數128。 排名第四、第五的分別是ECCV和ICCV。計算機視覺領域的三大頂會全部上榜,可以看出這一研究方向的火爆與熱度。 自然語言處理是除計算機視覺外另一個非常受關注的研究領域,ACL 和 EMNLP 作為自然語言處理這一領域貢獻非常大的兩大頂會,分別位列第六、第八位。 AAAI作為人工智慧領域的綜合性頂會,H5指數89,位列第七。 作為機器人領域的國際頂級會議ICRA,排在第九位,H5指數81...

人工智慧 | ShowMeAI資訊日報 #2022.06.22 @@@@ 論文:HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video(轉貼)

圖片
  人工智慧 | ShowMeAI資訊日報 #2022.06.22 語言:  CN  /  TW  /  HK 時間 2022-06-23 03:16:08  ShowMeAI 主題:   人工智慧   機器學習   演算法 引用 :  https://www.gushiciku.cn/pl/a1Fu/zh-tw 論文:HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video 論文標題 :HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video 論文時間 :CVPR 2022 所屬領域 :計算機視覺 論文地址 : https://arxiv.org/abs/2201.04127 程式碼實現 : https://github.com/chungyiweng/humannerf 論文作者 :Chung-Yi Weng, Brian Curless, Pratul P. Srinivasan, Jonathan T. Barron, Ira Kemelmacher-Shlizerman 論文簡介 :Our method optimizes for a volumetric representation of the person in a canonical T-pose, in concert with a motion field that maps the estimated canonical representation to every frame of the video via backward warps./我們的方法優化了人在標準 T 姿勢中的體積表示,與運動場相一致,該運動場通過向後扭曲將估計的標準表示對映到影片的每一幀。 論文摘要 :We introduce a free-viewpoint rendering method -- HumanNeRF -- that works on a given monocular video of a human p...

HumanNeRF: AI renders 3D humans from video only ( HumanNeRF:AI僅從視頻中渲染3D人類 )(轉貼)

圖片
HumanNeRF:AI僅從視頻中渲染3D人類 (CPVR 2022 在  USA New Orleans 新奧爾良   June 19-24, 2022 )   引用 : 2022 年 6 月 21 日 Maximilian Schreiner   https://mixed.de/humannerf-ki-rendert-3d-menschen-aus-einem-video/        Image: Weng et al. | University of Washington | Google | YouTube 神經渲染方法有望用人工智能增強甚至取代歷史悠久的 3D 渲染方法。一個例子是所謂的神經輻射場 (NeRFs) ,這是一種小型神經網絡,可以從 2D 照片中學習 3D 表示,然後進行渲染。 自發明以來,該技術一直在產生越來越逼真的圖像。一些變體現在可以在幾秒鐘內學習和渲染複雜的 3D 表示。例如,在今年的 GTC 上,英偉達對 Instant NeRF 提出了見解,這種方法比舊方法快 1000 倍。 根據 Nvidia 圖形研究副總裁 David Luebke 的說法,對於 2D 攝影, NeRF 可與 JPEG 壓縮相媲美。他解釋說,如果像多邊形網格這樣的傳統 3D 表示可以與矢量圖像相媲美,那麼 NeRF 就像位圖圖像。它們捕捉光線如何從物體或場景中輻射出來。 Luebke 說,這可以在捕獲和共享 3D 內容時大大提高速度、簡單性和覆蓋範圍。 谷歌通過谷歌地圖部署 NeRF 以實現沉浸式視圖 NeRF 開發的先驅是谷歌。該公司與加州大學伯克利分校和加州大學聖地亞哥分校的科學家一起開發了 NeRFs 。從那時起,谷歌就展示了人工智能渲染的街區,這些街 區可以通過 Mip-NeRF 360 實現一種街景 3D 和真實世界物體的逼真 3D 渲染。 在今年的 CVPR  I/O 開發者大會上,谷歌展示了 Immersive View ,這是一種合成 3D 視角的主要城市和餐廳等個人內部視圖,同樣基於神經渲染。   Video: Google ...