AI 視覺能達到怎樣的高度,取決于「前端成像」這塊最短的木板
2018-01-15 17:52:06 來源:搜狐 熱度:
去年 12 月份,一段「BBC 記者挑戰(zhàn)中國天網(wǎng)行人識別系統(tǒng) 潛逃 7 分鐘后被抓獲」的視頻走紅于網(wǎng)絡,在 Facebook 等國外網(wǎng)站上被大量轉(zhuǎn)載。
援引英國廣播公司(BBC)的報道,BBC 記者約翰·蘇德沃斯在我國貴陽,在被手機拍下一張面部照片后,約翰·蘇德沃斯開始了他的「潛逃」之路,但不到七分鐘,就被警方抓獲。
之所以警方能夠在極短的時間內(nèi)就將約翰·蘇德沃斯抓獲,得益于我國的「天網(wǎng)工程」。資料顯示,通過路上為數(shù)眾多的攝像頭,「實時行人檢測識別系統(tǒng)」可以識別行人的年齡、性別、衣著等信息,最終來鎖定目標。
在這個過程中,除了引入人工智能之后,為安防帶來了非常大的效率提升之外,作為前端成像的重要組成部分,攝像頭同樣不可忽略。
根據(jù)相關(guān)數(shù)據(jù)顯示,人類獲取的信息 70%-80% 來自于視覺,在如今 AI 時代,從自動駕駛到智能手機,再到安防,AI 圖像視覺技術(shù)正在被應用到越來越多的行業(yè)。
但目前一個現(xiàn)實的情況是,受深度學習驅(qū)動,云端視覺圖像處理技術(shù)飛速發(fā)展,前端視覺成像技術(shù)卻依舊裹足不前,無法與之相匹配,成為了嚴重的瓶頸。
視覺 AI 對成像技術(shù)提出了更高的要求
每一次革命性技術(shù)的到來,都有著足以讓人為之「瘋狂」的理由。而想要把它從人類大腦的構(gòu)想中帶到現(xiàn)實生活里,顯然并不是一件容易的事情。
對于自動駕駛,特斯拉一直以來走的比較激進,也非常靠前。但在這件事情上,它也「栽過一個很大的跟頭」。2016 年的時候,一輛特斯拉 MODEL S 在自動駕駛時發(fā)生車禍,導致駕駛員死亡,那也是自動駕駛技術(shù)應用以來第一起已知的導致死亡的車禍。
當時,美國高速公路安全管理局(NHTSA)在公告中表示:5 月 7 日,在佛羅里達州 Williston,特斯拉 MODEL S 司機在使用 Autopilot 模式時發(fā)生事故死亡。初步報告顯示,當時在一個十字路口,在這輛特斯拉汽車的前方,一輛重型卡車正在左轉(zhuǎn)。為此,NHTSA 將調(diào)查「事故發(fā)生時駕駛輔助功能的設計和性能」
在隨后特斯拉發(fā)布的調(diào)查報告中這樣寫道,「當時 MODEL S 行駛在一條雙向、有中央隔離帶的公路上,自動駕駛處于開啟模式,此時一輛拖掛車以與 MODEL S 垂直的方向穿越公路。在強烈的日照條件下,駕駛員和自動駕駛都未能注意到拖掛車的白色車身,因此未能及時啟動剎車系統(tǒng)?!?/span>
簡單來講,由于當時 MODEL S 是逆光行駛,強烈的光線條件加之大貨車白色車身造成反光,導致其所搭載的攝像頭無法正確識別前方物體,是這起事故發(fā)生的直接原因。
數(shù)碼時代,成像的品質(zhì)標準是主觀的,往往大家關(guān)注的是照片本身的效果是不是符合我們的喜好。因此各家廠商在相機的調(diào)校上,也不盡相同。而 AI 時代要求的圖像品質(zhì)標準是客觀的,即圖像是否可以應用。
舉例來講,在日常的拍攝過程中,拋開攝影棚等預設好的場景,在室外環(huán)境下,遇到到弱光、逆光、反光等等光線條件較差的情況,是在所難免的事情。此時傳統(tǒng)數(shù)碼成像的效果往往很難令人滿意(比如噪點過高)。
而 AI 時代要求的圖像品質(zhì)標準是客觀的,即圖像是否可以應用。其對于前端成像設備所反饋回來的圖片信息,有著更高的要求,以便后端進行圖形處理時,能夠做出更加精準的判斷。
回過頭來看,如果當時 MODEL S 所配備的攝像頭能夠解決強光、反光的問題,之后的事故也就不會發(fā)生了。
當然,自動駕駛僅僅是其中一個領域,之于安防,也同樣如此。更高的成端成像素質(zhì),無疑將幫助安防系統(tǒng)更加準確的識別罪犯特征,來進一步提升效率。
通過「成像引擎」,讓 AI 圖像視覺更進一步
正如前邊我們講到的,在數(shù)碼成像技術(shù)發(fā)展的 30 余年里,諸如如成本高、噪點多、逆光拍攝效果差等問題,始終沒有一個很好的解決方案。
同時,數(shù)碼成像所輸出的結(jié)果,僅僅是單一的圖像,你無法去控制它的圖像生成過程,這也在很大程度上限制了它的多場景應用需要。
隨著 AI 視覺時代的到來,除了同樣需要得到圖像信號之外,更重要的是需要能夠去獲取圖像生成過程的交互數(shù)據(jù),繼而通過這些數(shù)據(jù)進行智能分析,來提升圖像品質(zhì),從而為后端處理提供更加準確的圖像信號。
成立于 2014 年的 eyemore,一家從事前端成像引擎的技術(shù)公司,就在做這樣的事情。
通過專業(yè)的成像引擎芯片,他們利用自主研發(fā)的成像算法,為各個應用場景下的機器視覺公司提供前端成像的一體化解決方案,來解決目前 AI 視覺由于光線差導致識別準確度低以及從圖像算法到視覺硬件產(chǎn)品落地周期太長的問題。
本質(zhì)上,eyemore 所推出的成像引擎與傳統(tǒng)圖像處理器 ISP(Image Signal Processor)所承擔的角色是一致的。不同的地方在于,其在傳統(tǒng) ISP 之外,加入了 AI 成像算法以及 AI SDK。嚴格來說,它是面向 AI 軟件算法工程師而設計的全新成像體系。
用更為形象化的描述,在整個 AI 視覺處理流程中,成像引擎所扮演的角色,恰恰是連接光學模組和后端 AI 算法的中間節(jié)點,起到承接的作用。
經(jīng)由它進行處理之后,輸入到后端算法的信號將擁有更寬的動態(tài)范圍以及更低的噪點控制,從而來提升整個 AI 視覺的識別準確性。
綜合來講,eyemore 成像引擎的到來,不僅僅填補了國內(nèi)人工智能視覺領域的空白,使國內(nèi)的視覺 AI 產(chǎn)業(yè)鏈更加完整。
從未來整個 AI 的發(fā)展來看,其更重要的意義在于,將為 AI 在對視覺成像有一定要求的領域?qū)崿F(xiàn)落地,提供具有實際可操作意義的解決方案。
在即將到來的極客公園 IF 大會上(19-21 日),眼擎科技也將發(fā)布全球首款面向 AI 視覺應用的 eyemore 成像芯片,屆時眼擎科技朱繼志將會對這顆耗時四年,可以大幅提高 AI 視覺算法識別率的芯片予以更為詳細的解讀,感興趣的朋友不妨關(guān)注下。
責任編輯:吳禮得