Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

每一個新的運算平台都帶來了我們與裝置互動方式的範式轉變。 滑鼠的發明為今天主導PC世界的圖形使用者介面(GUIs)鋪平了道路,而智慧型手機直到觸控式螢幕的出現才開始真正獲得影響力。

同樣的規則也適用於可穿戴裝置和AR,想像一下,在晨跑時只需輕輕一觸指尖就能拍照,或者用幾乎察覺不到的手部動作來導航選單。

AR時代革新人機互動

在先前Connect 2024大會上,Meta展示了EMG腕帶與Orion增強現實眼鏡的產品原型。這兩大神器疊加在一起,科幻電影中才會出現的「隔空打字」場景或許即將實現。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

Orion AR眼鏡

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

meta推出的肌電圖腕帶

戴上這樣一個腕帶,你讓雙手舒適地放在身側,同時進行滑鼠的滑動、點選和滾動等操作,無縫控制數字內容。

未來還將有許多其他應用場景,包括在增強現實中操縱物體,或者像在鍵盤上打字一樣——甚至更快,快速輸入完整資訊,幾乎無需費力。

其實兩年前Meta就初步公開過這款原型產品,現在可以看出來產品更成熟了。

在近日的NeurIPS 2024 的「資料集和基」子會場中,Meta發佈了兩個資料集——emg2qwerty 和 emg2pose,展示在硬體層面僅僅依靠腕帶的情況下,如何產生比細微手勢更豐富的輸入資料集。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

原文地址:https://arxiv.org/abs/2410.20081

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

原文地址:https://arxiv.org/abs/2412.02725v1

用於隔空打字的資料集emg2qwerty

表面肌電圖(sEMG)是在皮膚表面測量由肌肉產生的電勢,它能夠檢測到由單個運動神經元引起的活動,同時是非侵入性的。

具體來說,對於單個的脊髓運動神經元,其細胞體位於脊髓中,向肌纖維中投射一條長軸突,每條肌纖維只被一個運動神經元支配。

脊髓運動神經元放電時,就會觸發它支配的所有肌纖維收縮,同時放大了來自神經元的電脈衝。正是這些來自肌纖維的電訊號,可被皮膚上的sEMG感測器檢測到。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

用於資料收集的表面肌電圖研究裝置(sEMG-RD)及其腕圍電極放置的示意圖

基於腕帶的打字系統旨在解決可穿戴裝置的文字輸入問題,實現無需物理鍵盤的觸摸打字。

僅使用手腕上檢測到的肌肉電訊號,系統將可自動解碼並對應至虛擬現實中投影的電腦鍵盤按鍵。

這意味著,使用者未來可以在沒有物理鍵盤的情況下,無論在桌子上、腿上還是廚房桌子上打字,都能如同在實際鍵盤上一樣輸入。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

一個針對提示「the quick brown fox」的表面肌電圖(sEMG)記錄示例,顯示左右腕帶上32通道的表面肌電圖訊號和按鍵時間;垂直線表示按鍵開始,每個電極通道的訊號經過高通濾波

emg2qwerty資料集包括從兩隻手腕獲取的高解析度sEMG 訊號,與QWERTY 鍵盤的真實按鍵同步。該資料集總計包含108名參與者完成的、涵蓋廣泛單字和句子打字提示的346小時記錄,共計超過520萬次按鍵。

emg2qwerty資料集分割的可視化。每一列代表一個使用者,每一個方塊代表一個會話,方塊的高度表示其持續時間

如何僅通過表面肌電圖資料中檢測到使用者按了哪個鍵呢?為瞭解決這個核心問題,Meta開發了受自動語音識別(ASR)領域啟發的方法。

該方法同樣模擬了給定連續多通道時間序列下,預測離散字元輸出序列的任務。為了給emg2qwerty建構強大的基線,Meta嘗試了新穎的網路架構、不同的訓練損失以及語言模型的使用,始終關注表面肌電圖資料的獨特領域特徵要求。

研究發現,在100個使用者的規模上,儘管生理、解剖、行為、頻寬大小和感測器放置存在差異,使用者間的泛化仍然可出現。

當使用大約半小時的個體使用者打字資料來個性化模型時,性能的進一步提升隨之而來。通過整合語言模型來最佳化結果,可將字元錯誤率降至 10%以下——這個值被認為是一個使文字模型可用的關鍵閾值。

隨著資料集的增加,類似語言模型中的Scaling Law將會生效,從而使得對使用者輸入的預測更加精準。

emg2pose姿態估計:可完全預測使用者的手部組態

另一個名為emg2pose的資料集,旨在解決肌電訊號與手部運動之間的對應問題,這對於人機互動、康復工程和虛擬現實等領域具有重要意義。

該資料集包含來自193名參與者的370小時sEMG和手部姿態資料,從29個不同的行為組中採集,包括拳頭、從一數到五等眾多動作。

資料集包含25253個HDF5檔案,合計達到431GB。每個檔案包含時間對齊的2kHz表面肌電圖資料和單手在單一階段的關節角度。

手部姿態標籤是通過高解析度動作捕捉陣列生成的。完整資料集包含超過8000萬個姿態標籤,其等效規模已經可以與最大的電腦視覺資料集比肩。

Meta AR眼鏡的超神配件:讓你免鍵盤戴上EMG腕帶即可隔空打字、操作空氣滑鼠

emg2pose資料集組成:a)sEMG-RD腕帶和動作捕捉標記(白色圓點)設定 b) 資料集分解;i)使用者被提示執行一系列動作類型(手勢),如上下計數,同時記錄 sEMG 和姿態 ii) 特定手勢類型的組合構成一個階段

emg2pose資料集的主要特點在於其高頻率的表面肌電圖記錄(2kHz)與精確的動作捕捉資料相結合,提供了對手部細微運動的深入洞察。

此外,資料集包含詳細的中繼資料,如使用者ID、會話、階段、手部側向、是否移動等,便於進行多樣化的分析和實驗。資料集還提供了訓練、測試和驗證的劃分,支援多種泛化類型的研究,包括跨使用者、跨階段以及跨使用者和階段的泛化。

在基準測試中,emg2pose還提供了具有競爭力的基線和具有挑戰性的任務,這些任務評估了在排除使用者、感測器放置和手勢姿態方面的物理世界泛化場景。

該研究還介紹了一種新的最先進模型,用於從表面肌電圖進行姿態估計的 vemg2pose模型,通過整合對姿態速度的預測來重建手勢姿態。

研究人員將emg2pose以及另外兩種當代基線用於sEMG的姿態估計,並分析了它們在泛化條件下的性能。結果顯示:emg2pose模型在對不同使用者的資料集進行預測時,僅顯示1釐米誤差,從而在廣泛的運動範圍內實現了高精確度的跟蹤。

emg2pose不僅提升了動作識別的精準性,還為手勢控制、康復治療等有潛在的應用可能。

在醫療康復領域,通過分析患者的sEMG訊號,可以即時監測和評估手部功能的恢復情況,為個性化康複方案的制定提供科學依據;

在人機互動領域,該資料集支援開發更加自然和精準的手勢控制系統,提升使用者體驗;

此外,emg2pose還可應用於虛擬現實和增強現實技術中,實現更加逼真的手部動作捕捉和互動。

參考資料:

https://x.com/perlinwarp/status/1864745303796257236

36Kr
作者

36氪(36Kr.com)累計發表超過10.8萬條包含圖文、音訊、影片在內的優質內容。氪原創內容體系涵蓋新創公司、大公司、投資機構、地方產業與二級市場等內容模組,設置有快訊、深度商業報導

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則