【美國直擊】Google無障礙發展 AI幫大忙

yobe 發表於 2019-5-10 07:44:54 [顯示全部樓層] 回覆獎勵 閱讀模式 0 1992

無障礙是今年Google I/O重點,透過機器學習模型幫助更多障礙者。Google提供

根據世界衛生組織(WHO),全球現在有超過10億人口在身體上有障礙,其中有4.66億人聽覺受損,估計在2050年這個數字將來到9億,因此今年Google I/O再推進無障礙(Accessibility)領域的發展。針對視覺障礙人士,Lookout這個App可助其了解周遭環境,在實體環境移動的同時,透過同Google Lens一樣的AI圖像辨識技術,手機鏡頭能為視覺障礙人士辨識周遭的東西,並能提示其方位、告訴用戶「12點鐘方向有一隻狗」。

除了探索外,它還具有購物、快速閱讀等功能,但Lookout為美國限定、目前僅支援英語。Google外的公司雖有類似功能,但Lookout特別之處在於辨識技術,偵測角度達360度,甚至提供Hands free的使用情境,將手機戴在身上就能為盲胞提示周遭物件,它的on device特性讓它免連線就能使用。

訓練AI模型 為語言障礙者發聲

每天都得面對如何「表達」的語言障礙人士,如罹患帕金森氏症、肌萎縮性脊髓側索硬化症(ALS)或中風的族群,Google的Project Euphonia計畫,則透過AI提高電腦理解各種說話型態的能力。Google語音研究員Dimitri Kanevsky年幼失聰後才開始學習英文,透過即時轉錄(Live Transcribe)App與自訂的語音辨識模型(機器學習),專門辨識他的聲音並轉為聲譜圖,進而幫助他找回聲音、順利表達。

另一例子是13年前被確診為ALS的Steve Saling,在Project Euphonia影片中,即便無法出聲也能操作Google Home,他在觀賞運動賽事時能透過臉部表情引導機器發出歡呼聲響,藉的就是大量語音樣本訓練出的模型。此外,今年I/O發表的即時字幕Live Caption、以輸入文字方式在電話溝通的Live Relay都是Google為實現無障礙所做的努力。
Project Euphonia讓罹患ALS的漸凍人Steve Saling以機器學習模型偵測出他想表達的意思。Google提供

Lookout這個App整合了圖像辨識功能,會將視覺障礙人士周遭的物件「唸」給他聽。Google提供

Google無障礙工程產品經理Patrick Clary因脊椎問題坐輪椅,透過「戴著」開啟Lookout的手機,能更掌握周圍物件。廖家葆攝

Live Caption功能可為影片、音檔或podcast上字幕,幫助聽覺障礙人士。Google提供

暫無任何回文,期待你打破沉寂

你需要登入後才可以回覆 登入 | 註冊會員

本版積分規則

yobe

LV:-2 禁止發言

追蹤
  • 28741

    主題

  • 48008

    回文

  • 14

    粉絲