ADVERTISEMENT
Google推出下一代Android Q的公開測試版,並在部落格詳細介紹了許多關於隱私、資安、分享、網路等等功能的改進,筆者會先在這篇文章中針對ANGLE、Vulkan等繪圖API,以及影音CODEC、景深照片等與影像與聲音有關的功能進行說明。
將OpenGL ES轉換成Vulkan
Android Q為預計於2019年8月推出的最新版本Android作業系統,目前除了已經有許多消息陸續公開之外,Google也推出了版號為Beta 1的公開測試版,讓有興趣的開發者與使用者能夠搶先試用。
Android Q的一大改變就是導入ANGLE繪圖引擎,它縮寫自Almost Native Graphics Layer Engine(幾乎原生圖型抽象層引擎),最主要的功能是將OpenGL ES API呼叫轉換為其他平台上硬體支援的API。舉例來說,目前ANGLE能將OpenGL ES 2.0、3.0轉換為完整版OpenGL、OpenGL ES以及Direct3D 9、11等等不同API。
在Android Q階段,Google預計導入將OpenGL ES 2.0轉換為Vulkan的實驗性功能,並再未來將支援性擴展到OpenGL ES 3.0,讓使用OpenGL ES開發的遊戲與應用程式可以透過Vulkan運作,不但能夠提升軟體面的效能和穩定性,也能維持Android設備在繪圖API層面的一致性,讓遊戲與圖型開發者能遵循更簡單的API。
此外Google也會持續推廣Vulkan,目標讓具有高效能、低虛耗、跨平台的Vulkan成為Android裝置上普及且一致的繪圖API。Google也與硬體廠商密切合作,促使Vulkan 1.1成為搭載64bit處理器與Android Q作業系統裝置的最低需求,並成為32處理器裝置的推薦需求,以促進Vulkan的普及。
導入更省流量的影音編碼
在影音編碼Codec方面,Android Q導入了開源且完全免權利金的AV1以及Opus,前者是由開放媒體聯盟(Alliance for Open Media)所提出的次世代影像編碼技術,它以Google開發的VP10為基礎,並針對網路串流傳輸最佳化,能夠比VP9、H.265等編碼方式節省20%流量,或是比H.264編碼節省50%流量,有助於在串流相同影片時省下更多流量,或是在消耗相同流量的前提下提升畫質或解析度。
Opus則是為由網際網路工程任務組(Internet Engineering Task Force,IETF)的聲音編碼技術,它使用了源自Skype的SILK和Xiph.Org的CELT等Codec技術,特別針對語音以及串流音樂最佳化,也能夠搭配AV1封裝至WebM容器格式,用於HTML5網路影片和網頁即時通訊等情境。
另一方面考量到搭載多鏡頭的智慧型手機越來越多,有許多使用者喜歡拍攝前景清晰、背景模糊的淺景深照片(但Google推出的Pixel 3手機卻是以單鏡頭搭配人工智慧產生淺景深),不過當照片儲存之後,往往沒辦法將已經模糊化的背景變回清晰的狀態,Google在Android Q導入動態景深來解決這個問題,。
動態景深是由1張傳統的JPEG圖片與XMP參考資料所組成,XMP儲存了圖片中各像素的距離資訊,如此一來App就能保留原始圖片,並在顯示照片的當下即時套用淺景深效果,也給予使用者有更大的後製彈性,能夠調整出更多變的風格與效果。Google也表示會讓動態景深格式成為開放標準,以利各廠商採用。
目前Android Q已開放測試,有興趣的讀者可以前往申請,或是直接下載指定Pixel裝置的映像檔嘗鮮,相信我們能在今年5月初的Google I/O大會上看到更多詳細資訊。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!