GPT-3 不只會寫文,還可從長篇大論中摘要重點 GPT-3 可高度理解原作者的撰文意圖,並有效處理;完全沒有其他早期開發的人工智慧模型的缺點(例如低精準度、不容易理解使用者的文字意圖⋯⋯等)。因此研究團隊就聚焦在 GPT-3 ,不斷修正與微調,持續提升人工智慧理解問題的精準度,因此 GPT-3 能為原本耗時或難以評估時間的任務,提供除了撰文之外,更多的應用方式。
GPT-3 新功能解鎖:將12萬字《傲慢與偏見》精煉成200字重點
OpenAI 研究人員不斷開發 GPT-3 的新應用方向。這次,他們成功將 GPT-3 微調成「抓重點」神器。原本擁有 12 萬字詞編排的《傲慢與偏見》長篇名著,被 GPT-3 精煉出總結不到 200 個字詞的小說摘要。 雖然被人工智慧精煉成千分之一的字句,但是原著故事內容都完整保留!其他精簡成摘要的著作還有《愛麗絲夢遊仙境》、《羅密歐與茱麗葉》、《自由之心》從生成少許的文字敘述一窺劇情全貌。
GPT-3 如何生成文字?
就技術面來看,進行判斷文章長度,總結一段長文本分解成較短內容,而在這些短內容的段落中擷取重點,持續縮減字數並且串接成通順可讀內容。這樣對文章內容的分解方式,無論是數十、數百或數千頁都能夠做出總結摘要。 OpenAI 在 GPT-3 透過小說種類的書籍進行訓練模型,平均超過 100,000 個字詞數。這樣的訓練模式可更換為不同的語言、採樣方式及訓練數據類型,並且藉由強化學習以對抗生成方式,提供輕鬆閱讀文字結果。同時,在強化學習中採用三種變體抽樣訓練方式,藉此讓GPT-3確實能理解小說內容表達主軸。 在訓練過程中,研究人員選取 Goodreads 2020 榜單最受歡迎的 40 本書籍,包含奇幻、恐怖、愛情、推理等 20 多種類別,並由兩名研究人員閱讀每本書後寫出其摘要,再對比 GPT-3 生成的摘要,進行評分。最後,研究人員與 GPT-3 所寫的大綱有 80% 的相似度,是符合人們預期的結果。 此外,研究人員也藉著 GPT-3 所擷取的重點,是否能用於回答與原始內容相關的問題(類似閱讀測驗),來評估摘要內容是否正確。即使未能完整回答問題,但內容方向至少不能有明顯偏離。 OpenAI 在一篇論文中說明,雖然該 GPT-3 順利生成許多書籍的摘要,但缺乏清晰的上下文脈絡,通常都傾向於書中事件的列表(類似編年史),而非將各個重點連貫起來的大綱。因此,GPT-3 用於摘要書籍的功能,目前仍在研究階段。
GPT-3 未來可預期的應用
秒抓重點,增進工作效率
美國軟體公司「SearchYourCloud」透過調查後發現,員工為了要找到特定的訊息,通常需要經過八次的搜尋,才會找到合適的資訊;麥肯錫報告則顯示,員工每天需花費 1.8 小時搜尋、收集與工作相關的資訊。假如能快速將長篇文章的內容總結為言簡意賅的重點,可加快企業組織的工作效率,特別是需要大量汲取密集文字的研發單位。
最人性化的對話 AI
GPT-3 具備自然語言處理能力、理解語言的結構,可以生成類似人類的語言、解釋複雜的文檔、啟動操作或生成代碼等功能。它不需經特別的培訓,就可以生成對應於各種場合的語言,例如翻譯、回答抽象問題,並為線上搜尋提供準確的答案,可說是理想的對話機器人,適合用在聊天、諮詢等。
未來應用領域
像是運動單位能用 GPT-3 為粉絲製作應用程式來分享比賽亮點和賽事分析等資訊;行銷團隊能用 GPT-3 生成原創內容、生成許多文章並曝光於社群媒體或部落格,與粉絲互動等。未來可望應用在專業技術、客戶服務(如客戶搜尋)、行銷(文案撰寫)以及陌生開發(與潛在客戶溝通)等領域。
留言列表