AI時代人車交互體驗:從「被動」到「主動」、從車內到車外

7月3日-4日,「Baidu Create 2019」百度AI開發者大會在北京國家會議中心隆重舉行,大會聚焦產業智能化,向業界展示了百度最新的技術進展和落地實踐。在此次大會的百度AI交互設計論壇上,百度人工智能交互設計院院長、百度設計體驗委員會主席關岱松與其設計團隊共同向外界展示了百度人工智能交互設計院基於深度學習的人因工程,以及百度AI交互設計在無人駕駛、智能硬件、百度大腦、機械人、AR、VR等方面協同發展的實踐,併發布多項最新AI交互設計成果,不僅包含全新升級的小度交互設計系統,更有AI交互設計助力產業智能化的最新探索。同時,三款基於百度自然情感交互系統NIRO開發的軟硬一體化創新機械人也在現場首次亮相。

無法進行「沉浸式」交互、駕駛人員的雙手和視線兩個重要的交互通道長期被佔用、交互的距離被限制、交互的精準度會因為駕駛環境改變……諸多人車交互體驗中難以解決的痛點。在論壇上,百度智能駕駛交互設計師都為我們帶來了全新的解決方案。如何將不適合在車內使用的「被動式交互」轉變為機器自主性更強的「主動式交互」,這將是百度探索人車交互領域的重要方向。同時,百度設計團隊重構了基於「主動式交互」的小度車載OS,在駕駛安全和操控效率兩方面進行了體驗的提升。在更加智能的無人駕駛時代,由於交互距離和環境的變化,交互通道和方式也隨之不同,而汽車的主動交互也將從車內擴展到車外。

以下為演講實錄:

大家好,我是來自百度智能駕駛的交互設計師。很高興今天能跟在座的各位一起來聊聊人車交互體驗這個話題。說到人和車的交互,我們最熟悉的一定是開車這件事。我相信台下也有不少的「老司機」,對其中的酸甜苦辣都深有體會。

我們發現,在人車交互體系中,有一個非常重要的特點,就是駕駛員的核心注意力一定是被「開車」這件事佔據的。所以,我們是不允許駕駛人員和車機系統進行「沉浸式」的交互的。除了注意力這種無形的交互限制外,駕駛人員的雙手和視線兩個重要的交互通道也被佔用了。駕駛員可以偶爾單手操作,但可交互的距離被限制在了臂長範圍內,同時,由於路面可能會顛簸、單手操作時的肘部是懸空的,這些都會導致操控的精準度下降。而另一方面,駕駛員的視線無法離開路面超過3秒,尤其是在高速駕駛的場景下,1秒鐘內汽車的移動距離最高可達30多米,眨眼間,可能就會造成慘劇。

但是,人們其實很難在駕駛過程中老老實實的,雙手握好方向盤,視線緊盯路面,別的什麼都不做。通過我們的調研發現,用戶在開車時,會做很多事情,比如看看路況、聽聽音樂、和朋友聊聊天,甚至下班的路上順便定個外賣,到家剛好能吃上。

在這個數字化的智能時代,我們不可能讓駕駛人員一坐進車裡就突然斷掉與外界的一切溝通,不去處理任何生活和工作的相關信息,只做開車這一件事。那麼我們來看一下當下市場上的車機系統是如何解決這些問題的呢?來自汽車銷售市場的數據,預計2020下半年新車的網聯率將超過50%。越來越多的汽車搭載了互聯網車機系統,越來越多的功能被集成到一塊越來越大的屏幕里,人們在互聯網時代已經熟悉的交互方式被直接搬到了車裡面,但是一邊開車一邊要時不時的在屏幕上戳幾下,這種體驗真的是好的嗎?

我們把人們已經非常熟悉的交互方式稱為「被動式交互」。它的邏輯很簡單,由人給機器發號施令,機器執行並輸出結果反饋給人。結合前面說的駕駛場景下的交互特點,就會發現被動式交互是不適合在車內使用的。用戶需要發起和推進每一個節點,這樣會導致視線需要頻繁從路面上移開,不僅帶來不安全的隱患,整個過程也是非常低效的;於是我們設想,人與車的交互可不可以打破這種由人來發起再逐層深入的方式?汽車能不能在我需要的時候主動的把對應的服務放到我面前,而不再需要我在開車時手忙腳亂的去找~這樣美好的體驗設想,我們把它稱為「主動式交互」。那麼什麼是主動式交互呢?不同於被動式交互由人來發起,主動式交互以機器為起點,主動輸出執行結果或建議給使用者。其次,機器可以自己主動的從外界輸入信息然後進行決策判斷,不再需要人來輸入指令。接下來,我們就從輸入和輸出這兩個重要的環節切入,具體分享一下我們是如何打造主動式交互的車機系統。

首先來看主動輸入。主動輸入的體驗目標有兩個,精準度和無感知。如果一開始機器對外界的感知就不精準,判斷出錯,那麼機器的主動輸出很有可能不是用戶需要的,所以我們要確保精準。另一方面,機器的主動輸入過程也不能干擾用戶,那最好的方式就是讓用戶感知不到,也就是無感知交互。

我們把車和人感知世界的方式做比較,人有感官,可以通過看和聽來感知周圍的環境。同樣的,我們通過在車內搭建一套硬件傳感系統作為車的感官,藉助AI的識別技術,讓汽車也具備和人類似的聽、說、看的能力。

說完了主動輸入,我們再來看看主動輸出;輸出是機器主動和人進行溝通的重要環節,在駕駛這個特殊的場景下,機器的主動輸出要尤為注重減少駕駛干擾和提升傳達效率。

在人和人的交流當中,接收對方信息的最主要方式就是通過聽和看,所以我們選取了聽覺和視覺這兩個通道,進行了一輪實驗研究。我們測試了不同駕駛負荷下用戶對輸出通道的接受度,最終我們發現,駕駛場景下對人的聽覺佔用相對較少,所以語音可以作為主要的信息輸出形式,而視覺界面做為輔助,可以幫助提升信息的傳達效率。語音設計我們並不陌生,在很多智能設備上都有應用,但更多的都是在圍繞着如何讓人說的爽。而今天我們來聊聊,如何為聽而設計語音。

有句耳熟能詳的俗話叫「左耳朵進右耳朵出」,就是說與我們看到的東西相比,我們對聽到的東西遺忘得更快。所以,為聽而設計的難點就在於:如何讓用戶聽完后一段語音之後能立即理解並給出相應的答覆。

我們先來看個例子,這兩句話看起來字數差不多,轉化成小度的標準語音,長度都是14秒。我們一起來聽一聽感受一下。好,不知道大家發現問題沒有,第一段聽完其實你是不知道要做出什麼反應的,第二段稍微好一些,聽完至少記住了可以說:小度小度,我要取號。

那我再考大家一個知識點,黑天鵝餐廳現在排位到底需要等待多久呢?大家可能都沒有注意到這個信息。顯然,由於聽到的內容太多,反而讓關鍵信息無法突出。國外曾有個測試短期記憶的實驗,發現被試者在聽到聲音8秒后,對聲音內容的記憶就開始減弱。所以我們把語音播報的長度儘可能的控制到8秒。問句是人和人之間非常自然的開啟對話的方式,所以我們在關鍵點使用詢問的句式。

說完了聽覺,我們再來看看主動輸出的另一個通道——視覺;有句俗話叫「百聞不如一見」,視覺閱讀的文字信息量可以達到聽覺的2-5倍。但是在駕駛場景下,又要儘可能減少圖形界面對用戶視線的佔用,所以我們提出了掃視設計的理念。

什麼是掃視呢?

我們來看這段文字,給大家2秒的時間快速的閱讀一下。好!你看到了什麼呢?大部分人可能是看到了這些文字。其實我們發現人眼看文字,並不是一個字一個字地進行,而是有一個掃視的範圍,一眼大約有3—4個字,跳躍着前進,大腦就會根據我們的語言習慣,在這些沒有看清的」空缺」裡面自動填進內容。這就是掃視。

所以我們在主動輸出的界面設計中,也應用了掃視的原理,將用戶關注的重點信息突出展示,同時嚴格控制信息長度,幫助用戶能夠在1-2秒的時間內掃一眼就能迅速抓住重點。

那麼俗話又來了,叫「一圖勝千言」,所以我們還搭配了簡潔的圖像,提高在短時間內信息傳達的效率。一起來看個案例。

音樂推薦:https://v.qq.com/x/page/j0896z2nnlk.html

最近在追愛奇藝樂隊的夏天,最喜歡的就是刺蝟樂隊了,剛好在車上想聽歌時就主動推給我了,是不是感覺很爽?那在原來被動式交互的車機系統里,我要做哪些操作才能聽刺蝟的歌呢?

可以看到整個過程里,從進入音樂應用到播放歌曲,我的視線至少要從路面轉移3-4次。而在主動式交互方式下,視線至多轉移一次即可。所以說,主動式交互可以有效減少用戶視線的轉移次數,從而提升操作的安全性。

再來看一個例子。

掃臉支付:https://v.qq.com/x/page/x0896yktt4c.html

出停車場繳費不用掏手機、也不用在車機上費勁的找某個停車繳費小程序。所以說,主動式交互省去了記憶和尋找功能入口的麻煩,從而提高了交互的效率。基於車機的中控屏,我們做的一些主動式交互探索。當引入更多輸入和輸出通道時,交互體驗也會更加完善。在接下來這個概念方案中,可以看到,通過追蹤用戶的視線焦點,以及使用HUD這種輸出通道,能夠進一步提升駕駛時的交互體驗。

人工智能技術使得機器的自主性越來越強,機器會變得越來越智能,隨之交互也會變得越來越主動。那麼,在更加智能的無人駕駛時代,汽車又會怎樣的「主動」的和人類交互呢?

事實上,在無人駕駛的時代,車不僅要和車內用戶交流,還要主動的和車外行人、道路上行駛的其他車輛進行交互。而車和外部環境的溝通方式,由於距離和噪聲的影響,也會有很大不同。這是針對行人設計的一套車外主動式交互的方案。

無人車:https://v.qq.com/x/page/t089664ea9i.html

最後,讓我們一起,打開AI交互的大門,預見,更好的未來!

謝謝大家!


想在手機閱讀更多電腦與科技資訊?下載【香港矽谷】Android應用
分享到Facebook
技術平台: Nasthon Systems