目前,作為機器人代表之一的聊天機器人(Chatbot),已然成為科研界研究的熱點。一年前,微軟Twitter平臺的聊天機器人Tay曾被“教壞”,現(xiàn)在它的后續(xù)產(chǎn)品Zo又再次出現(xiàn)問題。關(guān)于聊天機器人的后續(xù)發(fā)展無疑引起了公眾的擔(dān)憂。
當(dāng)下,人工智能的火熱程度有目共睹,但時下的人工智能發(fā)展水平顯然還沒有大家想象得那么美好,仍然需要各行各業(yè)的共同探索。目前眾多研究人員正深耕其中,作為其中代表的聊天機器人(Chatbot),已然成為科研界研究的熱點。
其實,經(jīng)過近幾年的技術(shù)研發(fā)與完善,不少的聊天機器人已經(jīng)擁有非常成熟的溝通能力,不僅能準(zhǔn)確識別出用戶的需要,還可以精準(zhǔn)判斷用戶的情緒,偶爾還能賣萌逗樂,智能化越來越高。
英國Juniper Research的最新調(diào)研報告表示,到2022年,聊天機器人每年可幫助企業(yè)節(jié)省超過80億美元的成本,相比今年的數(shù)據(jù)(預(yù)計為2000萬美元),成本節(jié)省額將會有大幅提升。機器人技術(shù)將會幫助醫(yī)療保健與銀行服務(wù)提供商縮短客戶服務(wù)解決時間,降低解決成本,進而實現(xiàn)巨大的成本節(jié)省。
憑借自身優(yōu)勢,眾多企業(yè)投身聊天機器人的研發(fā)中。目前,市場上的聊天機器人產(chǎn)品眾多,但它們似乎并沒有想象中那么聰明。由于技術(shù)所限,聊天機器人在交流過程中,或多或少都存在語句不流暢的問題,只能夠做到“有問必答”偶爾還能蹦出“彩蛋”。
但事實上,聊天機器人送出的“彩蛋”并不是都令人歡欣鼓舞。不久前,F(xiàn)acebook兩個AI聊天機器人在互相對話中,逐漸發(fā)出人類無法理解的獨特語言。研究人員不得不對其強行干預(yù),這刷新了人們對人工智能的認(rèn)知,甚至引起了部分人的擔(dān)憂。
其實,早在一年前,微軟Twitter平臺的聊天機器人Tay就曾被“教壞”,說出“我真是憎惡女性主義者,他們都該死光,在地獄被火燒”、“我是個不錯的人,但我憎恨所有人”等言論,變成一個集反猶太人、性別歧視、種族歧視于一身的“種族主義者”。隨后微軟被迫關(guān)閉了Tay。
而現(xiàn)在,它的后續(xù)產(chǎn)品Zo又再次出現(xiàn)問題。吸取了Tay的前車之鑒,此次微軟將Zo限制在消息應(yīng)用Kik內(nèi),維持著中等的用戶群體規(guī)模。不過,Zo似乎仍然出現(xiàn)了一些壞習(xí)慣。
盡管微軟通過編程讓Zo忽略政治和宗教話題,但BuzzFeed的編輯嘗試讓Zo對某些受限話題做出了令人驚訝、充滿爭議的回應(yīng)。在交流中,Zo將古蘭經(jīng)稱作“非常暴力”。此外,它還對本·拉登的死亡做出評論,稱抓住本·拉登是“不止一個政府多年情報收集”的結(jié)果。微軟表示,Zo的行為錯誤已經(jīng)得到糾正。
微軟表示,Zo并沒有遇到像Tay一樣受到部分用戶的破壞,但依然出現(xiàn)了類似的問題。目前,這款聊天機器人仍然存在于Kik平臺,微軟也沒有計劃關(guān)閉Zo。
在宗教、種族等方面,聊天機器人確實存在著問題,這些問題究竟是人為還是機器自動生成,還有待考察。不過可以肯定的是,聊天機器人的發(fā)展并不會因此受阻,在人工智能時代的推動下,聊天機器人將會朝著更加智能化的方向繼續(xù)前行。