作者 PingWest | 發布日期 2016 年 02 月 26 日 9:20 | 分類 Google , 尖端科技 , 軟體、系統 |
如果從網路上隨便調出一張圖片,你能說出這張圖片是在哪個地方拍攝的嗎?
除非這張圖中包含比較顯眼的地標建築之類的,不然的話大多數人可能都猜不到。所以,現在又到了證明機器比人更「聰明」的時候,因為現在 Google 的人工智慧技術,已經能不依靠照片中的地理位置資訊來辨認圖片的拍攝地點了。個人認為,這個比讓機器認出像貓貓狗狗這類外形基本固定的事物厲害多了。
試想一下,一張陌生的照片擺到你面前,除了地標建築外,你還能依靠那些元素來判斷這張圖的拍攝地點?食物類型、車道走向、車牌顏色、建築風格、衣著樣式這些資訊或許有說明,不過,即使依照上面這些條件,人類頂多也只能猜出來個大概區域,但 Google 訓練出的人工智慧機器卻能猜到準確到街道的程度。
像其他人工智慧技術一樣,想讓機器達到辨認圖片拍攝地點的能力,首先需要有夠多的圖片讓它學習。Google 團隊從網路上爬取了上億張包含地理位置的圖片讓機器學習,在這個過程中,人工智慧機器自然也就了解了這個星球的部分面貌。
(Source:MIT Technology Review)
在完成了這一系列的訓練工作之後,我們當然要看看這個名為 PlaNet 的人工智慧精確度如何。
於是 PlaNet 的設計者們從 Flickr 上找了 230 萬張圖片來測試效果。結果發現,大約 8 萬多張可以定位到街道程度的精準度,23 萬多張可以定位到城市程度的精準度。
不難看出,PlaNet 現在的精準度還不足與替代照片中的地理位置資訊,但這件事的更大意義在於,Google 的圖像識別技術已經不只是對貓、狗、夕陽、落日、大海這些形態比較固定的事物有效了,它的可擴展性其實比我們日常所想的寬泛得多。
再過幾天,Google 的另一個人工智慧產品 AlphaGo 將對戰南韓圍棋九段棋手李世石,雖然現在不少分析覺得 AlphaGo 的水準只在職業六段上下,可能贏不了李世石,但我覺得即便這一次 AlphaGo 沒成功,人工智慧也將在接下來的幾年給我們的生活帶來更大、更多的改變。
没有评论:
发表评论