當真是買算法送手機!
這不,谷歌又給“親兒子”Pixel 6塞福利了,讓手機摳圖也能細節到頭發絲。
看這效果,原本模糊的頭發輪廓,咻地一下,就變成了纖毫畢現的樣子!
連發絲之間的縫隙也能精準摳到。
這樣一來,就避免了使用人像模式拍照時人物與虛化背景割裂的情況,讓人物照片的縱深感更加逼真。
四舍五入一下,這不就是手握單反拍照?(手動狗頭)
Alpha遮罩+監督學習
在介紹最新的方法之前,先來了解一下過去手機的人像模式拍照到底是怎么實現的。
傳統方法是使用二進制將圖像分割,然后對分離出的背景進行虛化,在視覺上產生一種縱深感,由此也就能更加突出人物主體了。
雖然帶來的視覺效果非常明顯,但是在細節上的表現還不夠強大。
由此,谷歌將常用于電影制作和攝影修圖的Alpha遮罩搬到了手機上,提出了一個全新的神經網絡,名叫“Portrait matting”。
其中,主干網絡是MobileNetV3。
這是一個輕量級網絡,特點是參數少、計算量小、推理時間短,在OCR、YOLO v3等任務上非常常見,具體結構長這樣:
在推理時,Portrait matting首先將RGB圖像和低分辨率的Alpha遮罩作為輸入,用MobileNetV3來預測分辨率更高的Alpha遮罩。
然后再利用一個淺層網絡和一系列殘差塊,來進一步提升Alpha遮罩的精細度。
其中,這個淺層網絡更加依賴于低層特征,由此可以得到高分辨率的結構特征,從而預測出每個像素的Alpha透明度。
通過這種方式,模型能夠細化初始輸入時的Alpha遮罩,也就實現了如上細節到頭發絲的摳圖效果。谷歌表示,神經網絡Portrait matting可以使用Tensorflow Lite在Pixel 6 上運行。
此外,考慮到使用Alpha遮罩摳圖時,背光太強往往會導致細節處理不好。
谷歌使用了體積視頻捕捉方案The Relightables來生成高質量的數據集。
這是谷歌在2019年提出的一個系統,由一個球形籠子組成,裝有331個可編程LED燈和大約100個用于捕獲體積視頻的攝像機。
相比于一般的數據集,這種方法可以讓人物主體的光照情況與背景相匹配,由此也就能呈現更為逼真的效果。
而且這種方法還能滿足人像被放置在不同場景中時,光線變化的需求。
值得一提的,谷歌還在這一方法中使用了監督學習的策略。
這是因為神經網絡在摳圖上的準確度和泛化能力還有待提升,而純人工標注的工作量又太大了。
所以,研究人員利用標記好的數據集來訓練神經網絡,從而大量數據中來提高模型泛化能力。
One More Thing
用算法來優化攝影效果,其實是谷歌的傳統藝能了。
比如Pixel 4中,就使用算法來拍攝星空。
HDR+算法更不必說,曾經引發過大眾熱議。
這一功能可以在相機啟動時、沒有按快門的情況下連續捕捉圖像,并且會緩存最近保存的9張。這些照片將會與按下快門后的圖像一并處理,最終得到一張最優的圖像。
同時它還能讓Pixel在夜間模式下拍照時,不用像其他手機那樣長時間停留。
由于提升攝影效果不靠硬件,谷歌也將這些功能整合到一個APP上,適用于各種安卓手機。
感興趣的小伙伴,可以去試玩看看or分享自己的體驗~
最新資訊
Copyright (C) 1999-20120 www.xinhualab.com, All Rights Reserved
版權所有 環球快報網 | 豫ICP備17019456號-52聯系我們:52 78 229 @qq.com