辱罵語音助手

當你第一次開始玩一個語音助手的時候,你會對 ta 做的最多的一件事情是什麼?

我的一個朋友之前從來沒有用過自己 iPhone 上的 Siri,雖然 Siri 早在三四年前就被引入。直到我抄起他的手機,並用一句話就設定了一個兩小時后的鬧鐘之後,他才決定開始嘗試一下。

在此之前,他都是手動進入「時鐘」界面,並且要點按很多次來設置一個鬧鐘。實際上,設置鬧鐘和啟動搜索引擎、查詞等都是人們使用語音助手最常見的用途。

他接下來很自然的開始和助手聊天,但是他不知道,這個助手只能回答單個句子,暫時不能夠很好地識別上下文,所以到第二句或第三句話的時候,助手就聽不懂了,會回復一些沒有意義的回答。

幾輪對話之後,他開始認為這個助手很不智能,接下來就對 Siri 說了一句髒話:「你是個傻*。」

當然。Siri 的回復也是中規中矩的,她(在朋友機器上設定是女性)說:「我認為你這樣很不文雅。」

朋友並不罷休,接下來又開始用「你媽傻*」,「張三傻*」等詞,變着花樣來測試其他的髒話。在他接下來使用助手的 10 分鐘里一直是這樣。

這就讓我很好奇:如果人們發現了一個工具,不能記錄自己的說話記錄,但卻能對說的話進行回復,那他們的第一反應是什麼?——從這位朋友的反應來看,可能是辱罵這個工具。

這就好像對小貓小狗,人們可能會用「擼」的方式,來進行這隻小動物可能並不情願的身體接觸一樣。甚至有些人會直接通過踩踏、抽打等方式來虐貓虐狗,但這畢竟是一種極端情況,多數人沒有發展到這個程度,是受到了法律和道德的約束。

人們對於自己覺得可愛的小東西有一種控制欲,如果發現並不能控制或者總是達到自己的效果,有時候就會演變成破壞欲。而這種慾望一直都隱藏於人們的潛意識當中,受到法律和道德的規管,不能夠充分的發泄出來。

所以人們先後用扎小人、玩暴力電腦遊戲等方式去發泄心情。像語音助手這種為你保密,又不會記仇的工具,真的是一個很理想的發泄對象——即使 ta 什麼都沒有做錯。

雖然有人統計過針對語音助手的正常的使用方法,例如設置鬧鐘或開關家用電器等等,但我相信目前為止,我所看到的任何一個使用場景的調查,都不會把辱罵包括在內。

有一些語音助手會防止人們這樣做,因為即使是在一個人畜無害的工具上進行練習,也能夠降低人們對這件事情的警戒心理。人們不應該認為辱罵或者是歧視性的言論,在任何一個場合是合理的。即使是私密的場合也不行。

微軟的小冰曾經 發佈過一項更新,就是所謂的「記仇」:如果用戶對小冰不止一次的說過辱罵性的言論,她會記住,並且將這個用戶在自己這裡的好感度減分,還會有一些冷淡的言語表述作為懲罰。

亞馬遜的語音助手 Alexa 也有類似的設置 。原先她還不夠智能的時候,會將用戶的辱罵言論「你是個婊子」或「你是個蕩婦」看作是對自己工作的否定,說「好的,感謝您的反饋」(well, thanks for the feedback),並且將這種反饋提交給亞馬遜。

現在 Alexa 會改口說:「這聽起來像是性騷擾。性騷擾無論何時何地都不可接受,它通常根植於性別歧視」(That sounds like sexual harassment. Sexual harassment is not acceptable under any circumstances, and is often rooted in sexism.),以此來教育用戶。

雖然沒有非常精確的數據統計結果,但國外媒體之前曾經在不同的語音助手上測試過對其進行辱罵的相關回復。因為國外要注意得相對更多一點,同時也會測試包括種族歧視或宗教歧視類的內容。其結果都是類似的,就是助手在幾輪之後就不會表現得那麼像人類了。

而一旦人們能夠準確的分辨出機器與真人之間的區別,這種區別就如鯁在喉,最終會讓人們意識到,這只是一個工具或者玩具,並且將自己的憤怒或調侃加諸於 ta 的身上。

語音助手歸根結底本身只是一種工具,而並不是一個真正的人。但是隨着這個助手能做的事情越來越多,也會有更多人將它接納為一個家庭成員。

而且就像我之前所說過的一樣,技術並不需要真正的進化到和真人毫無區別的程度,機器偶爾賣個萌也能讓一些多愁善感的用戶用腦補去填補它與真人之間的鴻溝。

當這些機器被真正賦予人格的時候,對於他們說不友好的言論,就像對真人一樣,需要承受 ta 向你做出「受傷」回饋時的那種內疚情緒。由此,辱罵語音助手也會變得越來越不受歡迎。

正如我在昨晚查資料時看到的一句話——實在忘記了它的出處,但說得非常有道理:「當人們開始稱呼助手為『她』(而不是『它』)的時候,他們就已經輸掉了這場對機器的戰爭。」



想在手機閱讀更多iPhone 遊戲資訊?下載【香港矽谷】Android應用
分享到Facebook