電腦 comment

Google發表「Google Lens」像機器的眼睛一樣可以理解圖像

person icon Nanako0625 2017-05-18


在台北時間今天凌晨開幕的Google IO上,很多主題都圍繞著AI人工智慧,以及Google Assistant延伸。從去年開始Google的發展從Mobile first轉變為AI First,推出的Google Assistant,開始以語音助理的形式滲入Google的各項服務,進一步的,今年Google IO上,我們看到Google把人工智慧、機器學習運用在圖像、跟視覺有關應用的比重拉高了。

Google首先提出「Google Lens」這個把AI大大發揮在圖像上的工具(技術)。
你可以先初步把Google Lens想成「帶有智慧,能理解眼前畫面、物件的,機器的眼睛/ 鏡頭」,因為能理解看到的東西,所以知道跟什麼應用作連動,執行對的下一步。Google Lens會先整合在Android、Google相簿、Google Assistant。

Google Assistant結合Google Lens的運用,後者就像眼睛,前者則是腦子。
比方,透過Google Lens拍到花的照片,Google Assistant接收到之後,就能辨識出這是什麼花。
不過較神奇的應用是拍攝Wi-Fi路由器的密碼標籤後,就能讓裝置自動連上網路,拍到店家招牌,就能搜尋帶出地點資訊卡...等。



或是辨識出外文之後,可以和Google Assistant用自然對話的方式告訴你這是什麼、搜尋相關的照片、資訊卡...等等。



又比方從照片的招牌裡辨識出這是那個表演場地,進一步帶出訂票、加入行事曆等選項。


和Google相簿整合的Google Lens,可以辨識照片裡的建築物、地點、畫作並秀出相關資訊,甚至辨識到照片上的電話號碼後,可以連接程式直接撥出,Google Lens也可以用來識別截圖或是下載的圖像。

這整個工作流程,不僅牽涉利用更好的機器學習能力提高辨識準確度,還有更快速撈出正確資訊的能力。
在IO的舞台上,Google執行長Sundar Pichai宣布利用第二代的Cloud TPUs(Tensor Processing Unit)晶片,來提高機器學習工作量。



TPU是Google為了應付需要大量計算能力的深度學習而開發的CPU、GPU運算架構,新的TPUs將64個TPU連接在一起,相當於一個超級電腦,可以達到每秒11.5 petaflops的運算能力,新一代TPUs的加入,可以讓Google各種搜尋,以及應用TensorFlow的服務、機器學習的訓練成果更快更準確。
前往