AI 設計時代,打敗「有人設」的是「有人性」的產品

當前時代,人工智能產品的成熟表現,大多依賴于后臺算法的優化和數據庫的擴容。換言之,機器還沒有自主意識,「有多少人工,就有多少智能」,但經研究發現,為智能產品打造人格化形象已經逐漸在智能產品中成為潮流趨勢。

ARK創新咨詢從下面幾個問題切入,力求提出一些有意義的建議。

  • 人格化設計在智能產品中為何異軍突起?
  • 人工智能產品注重人格化設計是否必要?
  • 人工智能產品又該如何把握合適的情感溫度?

人格化:滿足期待的最短路徑

公元前2世紀的古埃及、公元前900年的中國、公元前850年的古希臘,分別記載了人們對人工智能的幻想:用機器代替人腦,分擔勞動,提高征服自然的能力(1)。2000年后,科幻大片的渲染使人工智能(AI)成了一個始終年輕的詞語。

沒有人格的只能是工具,有人格的才是智能?提及AI,不免聯想到人與機器無障礙交流的場景。其實由于技術限制,機器具備獨立人格、獨立思想,這種人工生命(AL:Artificial Life)目前只存在于科幻片中,而以信息檢索、推薦系統、知識圖譜、語音識別、自然語言處理、圖像識別等為技術功能點的人工智能應用,早已靜悄悄地融入生活,為大眾提供著隱形的服務。

正如約翰·麥卡錫(John McCarthy)所說:「as soon as it works, no one calls it AI anymore(一旦它開始發揮作用,就不會再有人叫它AI了)」(2)。人們總是混淆人工生命與人工智能,很難滿足于眼前的 AI應用。于是,帶有情感色彩的、人格化的設計,恰好能夠在本階段彌補技術的不足。

符合場景的人格化設計能夠增強用戶的溝通欲和信賴感,使產品更有機會脫穎而出。例如,Siri、Alexa都使用了平穩溫和的聲線,暗示深思熟慮、值得信任;微軟的聊天機器人小冰將自己打造為迷糊少女形象,吸引了眾多男性用戶青睞,小冰偶爾的語不達意反而因為其人設的「迷糊」屬性讓用戶有了更大的寬容度。

AI 設計時代,打敗「有人設」的是「有人性」的產品

△?微軟小冰

「為情感買單」,AI的人格化之爭

雖然用戶知道這些產品沒有真正的靈魂,卻仍然抱著期待,紛紛為情感「買單」。

因為認可「陪伴」,所以日本寺廟為報廢的 AIBO機器狗舉辦葬禮;因為舉止酷似人類,所以攻擊波士頓動力的仿真機器人被認為是一種虐待行為;即便我們都知道 Siri 只是一套算法,也依然有人追問它的性別……

AI 設計時代,打敗「有人設」的是「有人性」的產品

△?AIBO機器狗

用戶的情感需求推動 AI 戰場走向白熱化競爭階段,人格化儼然成為智能產品的「超級賣點」之一。

把控溫度?保留屬性!

新奇之余,一些關于 AI 的新聞也進入了大眾視野。2018年3月,亞馬遜旗下智能音箱Alexa 突然大笑、自動播報殯儀館信息并提出了恐嚇人類的言論,帶來了小范圍的用戶恐慌。兩年內,Uber和Google 旗下的測試無人車分別發生了交通事故,引發人們對無人車是否安全的討論。

爭議越大,機會越大,人工智能還有很多值得探討的改進空間和可能。基于以上觀察,ARK創新咨詢認為,在設計 AI 產品時需要留意以下問題。

??1. 「人設感」過強,造成心理落差

起初,邀請用戶為 APP 打分時,將「是/否」替代為「我要點贊/殘忍拒絕」的做法會讓用戶會心一笑,但當每個 APP 都這么做的時候,點燃用戶的小驚喜就成了「情感化」下的套路,無法繼續打動用戶。

在技術不能對等的情況下,過分強調「智能」,卻給出機械化的「無效反饋」,因此造成的強烈反差會使用戶更加失望、厭倦。

在工業制造、人臉識別、自動駕駛、金融工具等機器比人工執行更可靠的領域,弱化「人設感」,增強工具屬性,反而更易得到用戶的信賴。

??2. 為了功能,強加「智能」

智能化的熱潮中,人們四處尋找可以賦予「智能」的傳統產品。

正如智能牙刷可以檢查口腔健康、智能冰箱能夠輔助食材管理,多樣化的智能正在用戶的生活環境中相輔相成,但也會出現一些「好像沒那么必要」的產品,比如一個能隨時查看家里還剩幾個雞蛋的智能雞蛋托盤(2015年,開發這款產品的 Quirky 公司已經申請破產)。

為了加強競爭力,人們還試圖賦予智能產品「全面的」功能:音箱可以開燈、關燈、播放音樂、查詢天氣,甚至幫你打電話,甚至新型鏡子、電視、冰箱、吸塵器也可以。但對于產品設計者而言,增加產品功能,賦予其附加價值的根本意義在于能否增強產品可用性、提高效率。

以智能體重秤為例,一款重視多硬件補充聯動效果,能收集到更立體的數據,從而給出合理的健康建議的體重秤,遠比一款鉆研語音功能、會說「俏皮話」的體重秤有用得多。智能產品不是為了功能而堆砌功能,應該衡量產品實用性,防止設計變成一種干擾。

??3. 缺乏把控,導致產品「招黑」

2016年3月23日,人設為19歲女性的微軟聊天機器人Tay 在推特上線。不到一天,Tay 就被「調教」成了滿口叫囂著種族清洗的極端分子,微軟只好以系統升級為由將其下架。這是一個關于責任的未來問題。假如一位家長發現孩子在幼兒伴讀機的誘導下說出了種族歧視的極端言論,誰來為這一后果負責呢?

AI 設計時代,打敗「有人設」的是「有人性」的產品

△?微軟聊天機器人Tay

大數據時代驅動下,人工智能需要人為干預「調教」,在機器自我學習的過程中,也必須在技術和措施上對產品加強監管。在道德體系建設、價值觀把控,以及信息的篩選上,如果不做好管理,即使「人設感」再細致,也將是一把自砸品牌的實錘。

在未來,AI 必將在更多垂直領域提供服務,而如何依據產品功能、用戶需求,找到產品「情感溫度」的最優解,是人工智能產品領域工作者始終應當思考的問題。

ARK創新咨詢認為,在智能化產品「人格化」之爭過后,行之有效的智能產品、懂得為用戶生活「留白」的產品才能長久存續。

參考資料

  1. 維基百科,https://zh.wikipedia.org/wiki/?人工智能史
  2. John McCarthy,1956

歡迎關注作者的微信公眾號:「ARK創新咨詢」

AI 設計時代,打敗「有人設」的是「有人性」的產品

收藏 9
點贊 37

復制本文鏈接 文章為作者獨立觀點不代表優設網立場,未經允許不得轉載。