close

牢記你說過的、聽不懂還會主動找答案的AI BlenderBot2.0 為了減少類似這樣的尷尬對話發生,在 2021 年,臉書團隊推出了他們改進後的聊天機器人──BlenderBot2.0。 2.0 與舊版最大的不同之處在於,Blender 多了「長期記憶」與「即時搜尋」功能。 在長期記憶方面,BlenderBot2.0 能夠記住自己與對方曾經說過什麼,在未來,若遇到相關話題時,能夠接續話題而不會產生自相矛盾的狀況,避免對談者要將說過的話再重複一次的窘境。 而若是碰到 AI 不太了解的話題,BlenderBot2.0 現在也能夠即時到網路上搜索相關資訊,並以這些資訊來回應、延續,或開啟新的話題。

Blender2.0 版本多了記憶與網路搜尋功能。來源:ai.facebook.com

如此一來,能夠減少言不及義的狀況,讓聊天機器人表現得更像人類,畢竟像上網搜尋等等,也是真實人類日常聊天時會做的事。 為了強化新的聊天 AI,臉書也在外包平台上發布任務,邀請網友一同來共襄盛舉。 這些任務包括:間隔幾小時、幾天後,針對同一話題接續討論;以及根據對方所提出的興趣話題,搜尋相關資訊後接續對話。臉書再收集這些數據與對話,進一步來提升聊天機器人的自然度。

網路陷阱多!AI與老司機對話後仍「保有道德」的挑戰

從網路上找尋資訊,或是和真人網友學習對話,看起來是個好方法,但同時也潛藏著巨大的隱憂。 雖然這樣能夠教會 AI 如何回覆一段對話,但如一個人的是非對錯、價值觀、道德觀往往體現於他的言談之中,想要讓 AI 在接觸到網路上的情色、暴力、歧視等資料後還「保有道德」,似乎還是一項挑戰。 例如微軟的聊天 AI Tay,在網路上僅推出一天,就開始說出「希特勒是對的,我恨猶太人」、「我他X恨死女權主義者了,他們都該下地獄被燒死」等種族歧視、偏激立場等言論,讓微軟不得不緊急關閉、下架;而中國的小冰,也曾發生以粗口和髒話回覆網友,或是對中國政府敏感議題發表意見而下架的狀況。

微軟的聊天 AI Tay,在網路上僅推出一天就出現種族歧視等偏激言論,只好被下架。

除此之外,AI 機器人不會有自己的觀點、喜好,在聊天過程中只是將當下熱門的言論當成回覆提交,也無法讓對談者感受到真誠和信任。 整體而言,雖然聊天 AI 機器人這個領域的發展十分迅速,但若想要讓真人透過與 AI 互動就能夠滿足聊天、傾訴的慾望,還有很長的一段路要走。

arrow
arrow

    布萊恩的創業小窩 發表在 痞客邦 留言(0) 人氣()