MIX 2018 [Day2-2] – 從 人機互動 到 人智互動

從 人機互動 到 人智互動

講者:
陳宜秀 / 國立政治大學傳播學院 副教授

講者過去在美國工業界有多年的經驗,也曾擔任 HTC 設計中心的研究部門主管,去年開始回到政大傳播學院擔任教職。由於講者本身的專業領域為溝通心理學,在本次的演講中嘗試以溝通的角度探討 人機互動 到 人智互動 可能面臨到的問題。

人類之間的溝通仰賴我們對彼此意向(intention)的理解,當我們聽到一句話的時候,可以從三個面向去詮釋,同樣的一個訊息可能有著三種不同的 speech act;相似地,當介面作為一種溝通的媒介,也蘊含了三種詮釋面向:

「你知不知道現在幾點?」 介面
字面意義(locution meaning 單純想知道你「知不知道」這現在幾點 介面本身的意義,像是一顆球、一個按鈕
意向意義(illocution meaning 表達出說者的意向,想知道現在幾點 表達出設計者的意向
使役意義(perlocution meaning 說者希望你採取行動,告訴他現在幾點 設計者期待使用者如何使用

 

溝通是一個雙向的歷程,光靠單方面的解讀訊息是不夠的,還要對於對方的回應有一定的預期,在這個架構底下,人類之間的溝通行為可以化約如下:首先,你要了解溝通的對象是誰,知道自己在和誰說話,再來,你需要對情境有一定的了解與期待,你可能會根據溝通情境的抱持不同的預期,當雙方在溝通的過程中會形成共同的認知,不過這個認知是動態的、有彈性的,一旦發現彼此之間的認知差異或出錯,可以針對溝通內容進行澄清和修補。

然而,當人類和介面互動時也是相同的情況嗎?設計者可以知道使用者是誰,可以知道某介面的使用情境,使用者也可以在互動中對系統狀態形成理解(透過前饋或反饋),但是,當人和介面的互動中出現錯誤時是很難進行修補的,一般來說碰到這種情況互動都會被強制中斷。這是因為在傳統上,設計者透過設計界面和使用者互動,系統本身無法超越設計者所賦予的功能,如果沒有經過事先設計,系統是無法動態地根據使用者的行為做調整的,這樣的機器看起來就「笨笨的」。

那麼,什麼樣的機器能稱作「聰明」呢?講者以冰箱和 sienta 為例,當使用者忘了關冰箱門,冰箱會發出聲音警告,但並沒有幫使用者解決問題;相反地,如果使用者是忘了關上 sienta 的車門,車子自己會把門關上。因此,講者認為聰明的機器應該要能夠 follow user’s intention,適應使用者的行為。

今日,複雜的自動化系統已經存在,只是人類對於這類系統的心理模型是過度簡單的,以打電話為例,我們可能認為打電話就是解鎖手機、撥號、通話,但事實上這個過程的背後有著非常複雜的通訊架構。這裡要問的是:人類對於系統的心理模型過於簡化會是一個問題嗎?雖然人機互動的設計就是為了化繁為簡,但當人不解系統在做什麼,要是系統出問題,人是無法及時介入排除的

2017 年的 815 大停電就是一個很好的例子,由於問題發生時沒有人及時介入處理,在這種情況下系統會以電光石火的速度開始失序;同樣的,今年3月發生的特斯拉死亡車禍,駕駛啟動半自動駕駛撞上分隔島導致駕駛傷重不治,特斯拉官方的聲明指出肇事原因可能是駕駛人在行車時不夠專心,後續的評論更拋出一個關鍵的問題:駕駛人對於系統產生過度的信任感會造成什麼危害?抑或,我們該如何決定什麼時候該信任系統?什麼時候不信?

在人機互動的研究領域裡,「信任」不是一個新的議題,但 AI 的出現會使得這個問題變得更加複雜,透過心理學,我們可以試圖找出當人類信任機器時的心理認知,過去研究者將信任的內涵分為三個向度:

  1. Competence(相信機器有能力、做得到)
  2. Continuity(周遭沒有阻礙機器的因素)
  3. Motivation(相信機器是合作的,不會另有目的)

一個有趣的例子是,在三國的影片中,我們可以發現馬這個智慧體與人的互動關係是建立在理解雙方的能力經驗(維持人馬平衡),且兩者皆能藉由感知周遭的環境作反應(自動閃避),也能感知對方的行為進行修正(人可以控制馬的移動速度),甚至是分工(人負責殺敵,馬負責跑),馬的智慧能力減少了人在戰鬥時的心理負擔(mental loading),在這個範例中我們發現一個互動的關鍵:分工。由人與馬分工式的互動型態發想,要是人和AI的互動也是分工式的會不會比較好呢?人不需要完全仰賴 AI 來完成所有事,就像人不會要馬幫忙殺敵,而是讓聰明的系統協助我們完成部分的工作。

人機互動

 

其實光是信任與否本身,就值得深思,而上述問題的答案將會帶出兩條不同的研究路線:

  • 假如要不要信任是一個問題,我們要考慮的是如何「決定」給予信任,目標應是如何減少人與 AI 互動中的不確定性,這個範疇可以借鏡心理學中的 decision making 研究,探討信任的決策歷程。
  • 假如要不要信任不是一個問題,我們看待人與AI的互動時應脫離「人vs.機器」的形式,而是「人+機器」,將兩者視為共同的合作單位,探討人與另一智慧體的互動條件與方式,設計出合適的互動模式。

從人機互動到人智互動會有什麼差異呢?人機互動時,使用者只要清楚知道機器本身的功能即可;當發展到人智互動時,人類開始讓機器分擔複雜的工作,希望機器能減少出錯,有問題的時候提早通知,讓人即時介入或接手;當進入到人智互動的時代,我們會希望機器能聰明一點,知道自己該做的事情,並能配合人類調整行為。

人智互動的社會系統設計是一個巨大的社會議題,在現實場域中,不同於自動化的機器處在一個封閉的環境之中,服務性的 AI 是在一個開放的環境中,這其中有太多不可預知的條件,我們應該要評估這其中存在著多少風險,與受其影響的對象和影響程度。隨著科技的進展,我們可能必須審慎思考,如何將新科技融入當今社會?當 AI 進入人類體系時到底值不值得被信任?我們可以透過社會規範、法律、道德、情境腳本形成信任,當新的科技產品出現,我們可以將他們納入規範,使得他們值得信任。

最後,當 AI 把事情都做完了,身為人,有什麼事情是我們應該做的呢?講者給了其中一個答案:我們可以將焦點更聚焦在人身上,探究人本身的價值,但我想,這並不是唯一的解答,值得所有人深思。

 

延伸閱讀

MIX 2018 Day1:

  1. 序+資訊架構學作者分享
  2. 當東方遇上西方,在設計文化上的衝擊
  3. Line 在設計跨國服務的思維
  4. USPACE 對共享經濟的想像!
  5. 打破照護模式供需市場新亮點!
  6. DBS 數位轉型之路!
  7. gogoro 透過設計改變世界

MIX 2018 Day2:

  1. AI 時代的產品設計
  2. 從人機互動到人智互動
  3. 用戶體驗於人工智慧時代的挑戰 + 座談

 

Edda Yang
正在 UX 新手村練等的挑食系初心者,夢想是每天只要上班6小時🙃

本文章所屬設計大舌頭與作者所有,未經授權,不得轉載!如需轉載,煩請通知

分享此文: