国产亲妺妺乱的性视频播放,9797WWW成人影片,99精品国产在热久久无毒不卡 ,西方37大但人文艺术人山踪林

Uploads%2farticles%2f13112%2f    .001
|
2019-04-24

AI 推動硬件變革,第一步是建立成熟的交互模型 | WARE 2019

具體的做法是:優化現有交互模型+建立新的交互模型

互聯網與 AI 的到來,往往伴隨著新的技術以及新的產品。但讓新產品滲透到人們的生活中并不是件簡單的事情,其中,新產品所承載的人機交互體驗是否足夠好,起到至關重要的作用。

對于產品廠商來說,將一個新興的人機交互模式從頭進行研究和打磨,意味著高成本、長周期的投入,但以他們有限的精力來看,卻是力不從心。

但好在有這么一些研究機構愿意全身心投入其中,并積極將研究結果共享出來,推動行業的共同進步。

百度人工智能交互設計院就是這么一個專注研究和探索人機交互應用的機構,于 2017 年 11 月成立,使命是引領與定義最好的人機交互。

在最近由深圳灣主辦的「ON THE GO:隨行 AI 場景的產品創新」峰會上,百度人工智能交互設計院人機探索實驗室負責人李士巖發表主題為《人機交互如何推動硬件周期性變革》的演講。

以下為演講實錄,內容經深圳灣整理和編輯。

新交互、新產品、新應用存在相輔相成的關系

百度人工智能交互設計院研究方向有三個層次,最底層是「輸入」與「輸出」,即聽覺、視覺、觸覺、嗅覺、情感。中層是交互模型,語音、手勢、多模態交互。上層則是基于這些交互模型產生的硬件生態和服務生態。

我今天演講的幾個關鍵詞是新交互、新產品、新應用,這三者存在著內在推動關系與周期性規律,人機交互的本質是:基于軟硬一體化和傳感器的輸入反饋循環,人機交互的進化是計算平臺迭代的基礎,新計算平臺的規模化會促進應用生態的繁榮。

從 PC 到智能手機,回顧人機交互的發展歷程

在介紹百度人工智能交互設計院的一些研究進展之前,我們先用「從 PC 到智能手機」這樣一個典型的發展案例來講解新交互、新產品、新應用這三者的關系,幫助大家更好的理解。

最早的鼠標于 1968 年秋季聯合計算機會議上發布,那時候的鼠標只能移動 XY 軸。

△ 「鼠標之父」格拉斯·恩格爾巴特

而真正形成現代的鼠標交互模型,是由施樂公司在 1981 年發布的 Xerox Star 模型,它具備了目前大家都熟悉的操作:左擊-選擇、雙擊-打開、右擊-更多。

從 1968 年到 1981 年現代鼠標交互模型的形成,這期間經歷了 13 年的時間。而正因為鼠標交互模型形成,從 90 年代到 20 世紀初,PC 硬件生態得到了發展,使得我們產生了基于工作的軟件生態,基于在線教育的軟件生態,以及基于娛樂的游戲生態。

事實上,早在 1965 年,人機交互歷史上就已經有了手指的位置檢測技術,而將這種技術真正轉化為現在的點擊、Pinch、長按的成熟交互模式是在 2007 年。

△ 手指的位置檢測技術形成于 1965 年

這種成熟的交互模型,使得眾多觸摸設備得以被規模化,尤其是智能手機。以手機為主的觸摸設備的規模化,直接促進了各種服務生態的繁榮,比如滴滴、餐飲 O2O 等。

從上帝視角來看人機交互和產品,它的完整歷程是:先有一個技術起點,包括算法、設計、人因工程、硬件,接著將這些技術起點打包成一個成熟的交互模型,應用到新的計算平臺上。計算平臺的發展,進一步促進了衣食住行等服務生態的發展,而服務生態的發展將反過來促進硬件規模化。

我們正處于硬件生態的末端,但 AI 可改變這一切

目前,我們本質上正處于移動硬件生態的末端,不只是因為人口紅利的消失,更是因為觸摸+傳感器所能激發的服務生態走到了盡頭,近幾年不再看到一個新的服務生態被大規模發展。所以說:

整個硬件的周期始于技術的升級,發展于人機交互的成熟,終結于生態枯竭于規模化的終止。

而 AI 的到來將改變這一切。

AI 讓最底層的輸入輸出層擁有了聽、看和思考的能力,基于 AI 這個技術起點,目前已經形成了語音交互、手勢交互、應用各種輸入輸出層結合形成的多模交互。

由于這種交互模型尚未成熟,智能音箱只是其中一種目前看起來比較有前景的計算平臺,但還有更多平臺需要被創造,也更談不上新的計算平臺的規模化,服務生態沒有達到繁榮。所以我們認為:

目前的當務之急是要將待成熟的人機交互推向成熟。

將待成熟的人機交互推向成熟

要改變這一現狀,我認為努力的方向有兩個,第一個是優化現有交互模型,提升產品體驗。第二個是發展新的交互模型,衍生全新品類。

1. 優化現有交互模型,提升產品體驗。

在這方面,百度 AI 人機交互設計院主要把精力花在語音交互的優化上,具體如下:

在語音交互的 5 個節點中:喚醒、響應、輸入、理解、反饋,將每一個維度拆分出來不同的維度,進行深入的研究和探索。

# 1.1 語音交互的響應時間是否就越快越好呢?

經試驗研究發現,語音交互的最佳響應時間是 650ms,底線是 2150s。與觸控交互對反饋的要求是越快越好不同,語音交互的響應時間卻不是越快越好。

經研究發現,智能音箱對語音指令的響應時間在 1250ms 以內是一個較優的區間,其中 650ms 為最佳體驗值,遠好于 200ms,過快的響應時間會給用戶帶來緊迫感。

# 1.2 什么樣的喚醒詞用戶是認為好的呢?

喚醒詞為疊字,或陰平、尾音聲母為零聲母的好。研究表明,用戶最不喜歡「品牌+名字」的命名方式,Z/C/S 的舌尖音最不被歡迎。

# 車機屏幕交互、手勢操作等人機交互的研究:

其次在車機屏幕交互、手勢操作方面,百度 AI 人機交互設計院也進行了大量的研究和探討。比如,在車載駕駛情況下,用頭戴式設備判斷用戶開車時目光集中分布的部分,從而找到最自然手勢操作及對應關系。再比如,從多個手勢模型測試中,找到最適合用在「暫停」、「關閉」的手勢。

2. 發展新的交互模型,衍生全新品類

#2.1 用戶情緒應對模型

在這方面,百度 AI 人機交互設計院研究了用戶情緒應對模型,即用戶的情感交互模型。

情感是人的剛需,但是卻人機交互缺失的一個維度。人機交互發展的幾十年來,機器的 IQ 得到發生,但 EQ 沒有得到提升。而實際表明,兩個 IQ 差不多的產品,EQ 更高的那個產品一定更受歡迎。由此看來,情感交互模型在人機交互中起到重要的作用。

情感交互模型分兩個維度,分別為情感識別以及識別情感之后的應對。

情感識別方面,基于東方人的情緒面部數據并進行訓練,百度 AI 人機交互設計院打造了適合東方人的情感識別系統。

至于識別情感之后的應對,我們將模式場景分為兩種,第一種是附帶情緒的任務,第二種單純負向情緒的化解。

在實驗室中,我們用不同的應對策略看用戶的腦電曲線。比如,在附帶情緒的任務中,當用戶用悲傷的情緒說一個任務,最好的策略是先用幾句話回應情緒再說解決方案,當用戶憤怒的時候,則要直接提供解決的方案。

語音交互還有一些特殊的情況,比如在用戶指責產品的時候,語音應給予禮貌的回應,表明自己的立場,而不是謙卑的「跪舔」。

人類有 27 種情感,通過情感識交互模型,我們能夠將這 27 種豐富的情感一一賦予機器。

#2.2 更自然語音交互模型

在新的人機交互模型方面,我們研究的第二個維度是更自然的自然語音交互模型。

根據用戶的專注度和與設備的距離,可以將人機交互分四個象限:低專注距離遠和距離近、高專注距離遠和距離近。

在我們人和智能音箱交互的過程中,讓音箱播放歌曲是屬于第三、第四象限的交互范疇(遠距離、低專注度),在這個范疇內,也會經常出現為了完成一個連續任務而多次呼喚音箱名字的情況。

其中,第一象限的近場高專注度交互,是目前帶屏音箱可以提供的。但針對這一產品品類,目前還缺乏真正有效的交互模型來解決一些交互上的問題。對此,百度 AI 人機交互研究院在過去一年里,研究了名為 Easytalk 的交互模型。

在 Easytalk 的模型中,依托復雜的算法,能在不用麥克風陣列、不用喚醒詞的情況下,支持不斷打斷的語音交互,并且不受其他環境因素影響(比如噪音、其他用戶)。基于這個交互模型,每 4 輪對話效率能提升 5%,非 ONE SHOT 主觀感受體驗提升了 56.2%,ONE SHOT 主觀感受體驗提升了 31.2%。

我們認為,近場高專注度交互才是未來真正能夠帶來內容和生態爆發的場景,從人機交互的角度看,帶屏智能音箱具備了語音、手勢、視覺等更豐富的輸入輸出能力,既可以滿足遠場非專注的場景,更可以滿足近場、專注的場景,未來有可能真正激發一個繁榮的服務生態。

在未來,這套 Easytalk 模型將被應用在手機、智能音箱、智能機器人上。

尾聲

百度 AI 交互設計院人因工程方向和人機探索實驗室一面腳踏實地,一面仰望星空。并且,我們有著最專業的設備,專業的 AI 人機交互實驗室。

對人類來說,目前的 AI 依然處于非常早期的階段,唯有行業的共同進步才是整個人類歷史的共同進步。因此,我們的研究內容和結論,都會通過公眾號(公眾號 ID:BaiduAIID)開放給整個行業共享。

>>
Back to top btn
主站蜘蛛池模板: 拉孜县| 滨州市| 巩义市| 平昌县| 攀枝花市| 通州区| 绵竹市| 遂川县| 察哈| 英山县| 祥云县| 临泉县| 苏尼特左旗| 南陵县| 周口市| 璧山县| 景德镇市| 朝阳区| 苗栗县| 霸州市| 武川县| 军事| 修文县| 遂川县| 辛集市| 蒙山县| 吴江市| 涪陵区| 通道| 齐河县| 宝应县| 新密市| 大关县| 盐亭县| 忻州市| 甘肃省| 双牌县| 漳州市| 天峻县| 田林县| 开化县|