劍橋大學教授Peter Robinson日前開發(fā)出一款新型車載GPS導航系統(tǒng),采用攝像機與傳感器感知司機情緒,幫助預測態(tài)勢并輔助駕駛。
普通導航探測設備并未與司機直覺關聯(lián),無法實現(xiàn)交互,因而具有明顯的感知局限。Peter Robinson教授在電腦圖形圖像與人機交互技術基礎上,開發(fā)了名為Charles的導航系統(tǒng)機器人,分別使用攝像機與馬達充當眼球和肌肉,實現(xiàn)視覺與運動功能。
該系統(tǒng)具有人類上半身外形,采用多傳感器布局結合精神狀態(tài)預設算法(Algorithms of Predefined Mental States),對司機面部表情、聲音腔調、肢體語言和軀干姿態(tài)等訊號進行監(jiān)控跟蹤,以70%的準確度閱讀人類表情。該系統(tǒng)還能為司機提出行車路線建議。
雖然該系統(tǒng)尚不足以取代MyFord Touch等智能導航系統(tǒng),但在人機交互和產(chǎn)品人性化方面有明顯進步,為將來技術發(fā)展指明了方向。