亚洲熟妇av一区二区三区,亚洲av中文无码乱人伦在线视色,亚洲人成网站色www,亚洲欧美日韩国产综合在线一区 ,亚洲av之男人的天堂网站

分享
Scan me 分享到微信

新技能!谷歌可以光看圖就能定位,信不信由你

試想這樣一種情形,你給朋友展示了一張照片,他立刻將照片的拍攝地點(diǎn)脫口而出,你會(huì)有什么反應(yīng)?

  試想這樣一種情形,你給朋友展示了一張照片,他立刻將照片的拍攝地點(diǎn)脫口而出,你會(huì)有什么反應(yīng)?他真是見多識(shí)廣,但前提也是這張照片帶有顯著的地理特征,例如地標(biāo)性建筑物。如果沒有顯著特征呢?神人也不行,但谷歌可以做到。

  近日,麻省理工科技評(píng)論報(bào)道,谷歌在圖像處理方面實(shí)現(xiàn)新突破——PlaNet項(xiàng)目可對(duì)不含地理信息的圖片實(shí)現(xiàn)精確地理定位。該項(xiàng)目由谷歌計(jì)算機(jī)視覺處理專家托拜斯·韋揚(yáng)德(Tobias Weyand)主導(dǎo)開發(fā),通過(guò)對(duì)圖片進(jìn)行像素級(jí)分析的基礎(chǔ)上,與圖片庫(kù)中的存儲(chǔ)數(shù)據(jù)進(jìn)行像素比對(duì),以實(shí)現(xiàn)二者之間的最佳匹配。

  該項(xiàng)目名為PlaNet,通過(guò)對(duì)圖片進(jìn)行像素級(jí)分析的基礎(chǔ)上,與圖片庫(kù)中的存儲(chǔ)數(shù)據(jù)進(jìn)行像素比對(duì),每一張圖都會(huì)對(duì)應(yīng)一個(gè)區(qū)域方塊,這些信息構(gòu)成了龐大的數(shù)據(jù)庫(kù),機(jī)器人相當(dāng)于掌握了判斷事物的“經(jīng)驗(yàn)和知識(shí)”,可以根據(jù)圖片里的細(xì)節(jié)判斷地理位置了。通俗的講,這種方法如同一個(gè)拼圖游戲,在圖片庫(kù)中對(duì)比找到與其相符的關(guān)鍵模塊。只是這種拼圖游戲的數(shù)據(jù)計(jì)算量要求相當(dāng)之高,預(yù)計(jì)有上億之巨。

  目前,PlaNet所使用的圖片庫(kù)包含9000萬(wàn)張地理信息圖片。通過(guò)對(duì)230萬(wàn)張圖片進(jìn)行測(cè)試分析,PlaNet對(duì)圖片時(shí)間信息的辨識(shí)度為28.4%,對(duì)圖片地理位置的辨識(shí)度為48%。雖然測(cè)試水平還有待進(jìn)一步提高,但相比于人工辨識(shí),該項(xiàng)目的效率顯然更高。隨著項(xiàng)目進(jìn)展,PlaNet有望進(jìn)一步提高辨識(shí)成功率。

  盡管PlaNet 現(xiàn)在識(shí)別出的精度還不足與替代照片中的地理位置信息,但未來(lái)將有望實(shí)現(xiàn)更高的精度??磥?lái),只要有影像存在的地方,人類何時(shí)去了何地的一舉一動(dòng)都逃不掉谷歌的法眼。(文|3sNews 龍薇)

喜歡您正在閱讀的內(nèi)容嗎?歡迎免費(fèi)訂閱泰伯每周精選電郵。 立即訂閱

參與評(píng)論

【登錄后才能評(píng)論哦!點(diǎn)擊

  • {{item.username}}

    {{item.content}}

    {{item.created_at}}
    {{item.support}}
    回復(fù){{item.replynum}}
    {{child.username}} 回復(fù) {{child.to_username}}:{{child.content}}

更多精選文章推薦