- 10月 13 週二 202000:38
想知道人工智慧帶給醫院什麼協助嗎?看進來就知道!(下)
- 10月 12 週一 202000:29
想知道人工智慧帶給醫院什麼協助嗎?看進來就知道!(上)

人工智慧在醫院的表現會比人類還出色嗎?繼續往下看它到底提供了哪些協助!
防範給錯藥的意外 台引進人工智慧把關流程
生病吃藥是人一生中無法避免的事情,在健保制度普及的台灣,民眾用藥的頻率極高,「藥物錯誤事件」高居醫療意外事件排行之冠……為了在防止送錯藥的事件再發生,台灣近年積極引進「智慧藥櫃」,用人工智慧精密控管整個給藥流程,為全民健康把關!
藥物錯誤事件(Medication Errors)一直是各種醫療錯誤事件的大宗,原因是病人在服藥治療之前還有多重步驟:如醫囑之開立、處方書寫或轉謄、藥師調劑藥品、給藥、依指示服用藥品等,每個步驟都有發生疏失的風險
只要有任何一關未做好把關,就可能造成遺憾的發生,再加上依病人病情之需可能之多重用藥(polypharmacy),更是提高發生錯誤之機會。
為了確保用藥安全、更好地照顧病人,近年來國內如台大醫院、北醫醫院、台中榮總與中國醫附醫等醫院,積極導入智慧藥櫃,不但減少人力成本,由人工智慧協助把關,亦能降低潛藏的用藥風險。
傳統藥品供應的困境
「一名婦人就醫後,發生藥師交付調劑藥物時,因藥名相似,發生給錯藥的事件,幸運的是此位婦人機警,及時發現該藥名稱、包裝和平常服用的藥物不同,否則發生服錯藥物的後果可不堪設想。此外,衛生局也接到市民反映由醫院帶回的門診藥品,上面的使用者不是自己的烏龍給錯藥案件……」
如此的新聞層出不窮,表示藥物錯誤事件至今在各國醫療不良事件中仍居高不下,如:處方開立錯誤、藥名或藥品外型相似、注射給藥事件等,都屬於藥物錯誤事件的一環。
藥師是傳統給藥過程中最重要的把關者,不但需協助醫師檢視調劑藥物之間是否會造成病患不良反應,更需要遵從「三讀」、「五對」原則:
但在繁忙的臨床作業中,完全依靠人力去核對確認,很難避免百密一疏、完全消除用藥風險。已台大醫院為例,108 年平均一天就有 15,689 筆單一劑量藥車配藥單,護理師要在大量藥品中備藥、找藥,不只耗費大量人流及物流成本,有緊急狀況需催找急藥時,也難以靈機應變,往往造成醫師、藥師、護理師以及其他醫療人員的額外辛勞。
人工智慧藥櫃如何把關用藥風險?
那人工智慧藥櫃具體可以怎麼幫助醫療人員呢?
在領藥取藥方面,利用醫事人員卡或是人臉辨識,與院內值班系統同步比對,對於取藥身分做最嚴格的把關;取藥當下則可以透過秤重的方式、測量藥盒的內容物是否有正確減少。
例如:當醫療人員點選要領取這筆處方,智慧藥櫃會先確認藥師是否已經具有該權限,審核通過後藥櫃才會解鎖,所在的藥盒會亮燈提示,接著 AI 會計算該藥盒內容物的重量減少多寡,秤重判斷取藥的正確性。
如果發生錯誤取用的情況,即刻提醒醫療人員,若時間內未修正,藥櫃將異常情況通知傳送給該處的主管人員,杜絕取藥錯誤的可能。
而在藥品辨識方面,可以利用 AI 影像辨識技術,快速識別從藥櫃中取出的藥物名稱、外型和數量,一併顯示出藥品資料庫裡藥性、藥物副作用等相關資訊;在藥局調劑藥品時,也能更快辨認是否與處方籤相符,減少取藥錯誤。
AI 藥物辨識技術目前大致可分成兩種──1:1 和 1:N。前者多應用在醫療中心藥劑部調劑時,驗證管制藥物或高貴藥物;後者則應用在預防取用多種藥品時的錯誤。
現階段 1:N 的難度較 1:1 要高,因 1:N 的藥物辨識更容易受藥物類型、拍攝角度、拍攝方向、拍攝距離、環境光等因素,影響辨識準確度。
人工智慧藥櫃可以根據不同醫院用藥習慣,彈性組合藥物放置空間;取藥時利用 AI 比對藥名與數量,確保取藥或醫師調劑處方正確無誤;最後連動醫院或診所的藥品系統,時時覆核,確保全院的用藥情形安全無虞。
導入人工智慧的送藥機器人,如何免除人力的送藥風險?請點此接續看「送藥機器人 免除人力運送風險」
延伸閱讀:
重金屬天團Metallica被人工智慧寫歌致敬啦!來看看成果如何~
一起來了解!Pysa這個臉書開源的Python安全與隱私工具!
五部人工智慧電影,也許讓你及早預見AI帶來的好與壞!
人工智慧:貓是液體!NVIDIA 的 AI 創造人臉超逼真,但合成的貓都是液態
人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄
人工智慧幫你寫程式?engineer.ai 公司真人工程師冒充 AI 騙得近 9 億融資
人工智慧從基因預測你的潛在疾病!微軟聯合 PTT 之父打造 AI 基因分析平台
- 10月 08 週四 202019:00
人工智慧也即將取代法官了?讓我來看看愛沙尼亞的新政策!(下)
- 10月 07 週三 202018:41
人工智慧也即將取代法官了?讓我來看看愛沙尼亞的新政策!(上)

說到將被人工智慧取代的人類職業,你會想到哪些?法官一職有出現在你腦中嗎?
掌握原告被告生殺大權 法官也將被人工智慧取代!??
從經典的《王牌大律師》到近期當紅的《Legal V 勝訴女王》;從《無照律師》到律政相關從業者也大推《金權遊戲》,律政司法題材似乎一直是收視率長青樹,犀利的律師為了勝訴據理力爭、言之鑿鑿,而法官必須不徇私情、明察秋毫。雙方在法庭上交鋒的同時,被告的人生也彷彿操之在他們手中。
司法題材會成為備受觀眾喜愛的類型,想必看法官如何審理案情是一大原因。但敲下法槌的,從有血有肉的人突然變成「人工智慧」,你能接受它的判刑嗎?
人工智慧當法官?愛沙尼亞計畫啟用!
愛沙尼亞,是一個對台灣人來說相對陌生的遙遠國度。總人口只有台北市的一半、土地是波羅的海三小國中最小的國家,被英國《經濟學人》雜誌稱為「科技領導者」,除了 IT 產業蓬勃發展,更是常由政府帶頭,將最新科技應用在日常生活中。
如台灣有年輕的「數位政委」唐鳳,以數位化政府聞名的愛沙尼亞也有一位 28 歲的首席資訊長(Chief Data Officer)──Ott Velsberg。
Velsberg 致力將人工智慧技術引入政府機構,為公民們提供更好的服務。該國司法部也請 Velsberg 帶領團隊設計 AI 法官,協助清理積存已久的小型訴訟案。
▲ 愛沙尼亞首席資訊長 Ott Velsberg。圖為其參加 2019 年多倫多大數據年度會議。(圖片來源:CNW Group/Corp Agency)
愛沙尼亞司法部對「AI 法官」的期望是:裁定低於 7,000 歐元(約 24 萬台幣)的小額錢債糾紛案。雙方各自上傳證明文件和其他必要資料,交由 AI 進行分析與做出裁斷。
引入 AI 法官的最終目的是提升人類法官的審理效率、替法官和法院書記人員清除積壓的案件,讓他們能專注在更加棘手的大案件上;另一原因是,目前大約有 22 %的愛沙尼亞人民從事公務員或為政府工作,但愛沙尼亞政府擔憂公務員人數過多,希望導入 AI 至各公部門領域,希望用 AI 取代人力、減輕部分人事負擔。
對此 Velsberg 表示:「有些人擔心未來若國家減少了公務人員人數,大眾得到的服務品質就會受到影響,而 AI 可以幫助我們解決這個問題。」
由 AI 法官做成的任何裁決都具有法律約束力,但當事人若不滿意判決,可以向人類法官提出上訴。此系統尚在實驗建置中,預計完成後,先給法官、律師適用,再依據他們的意見加以調整。
雖然愛沙尼亞不是第一個結合人工智慧與法律的國家,卻是第一個賦予 AI 法律決策權的國家。
本系列文章未完,請點此看下一篇
延伸閱讀:
Google地圖有這麼多新功能,拜人工智慧所賜!(上)
這五部人工智慧電影你都看過了嗎?對於AI我們需要防範什麼?
今天帶你來看人工智慧臉部辨識,目前進展如何!?(上)
人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀
人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜
人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備
不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車
- 10月 06 週二 202018:00
你相信嗎?你常看的雞湯文,有可能是人工智慧的傑作!(下)
- 10月 05 週一 202020:19
你相信嗎?你常看的雞湯文,有可能是人工智慧的傑作!(上)

人工智慧連作家的位置都要搶走啦!又要讓你見識AI的厲害了!
過去討論「哪些工作 人工智慧搶不走?」時,有一說是 AI 無法取代文字創作者,因為機器不可能寫出感動人心的文章,但這個說法或許已被打破了。
日前,一位加州大學柏克萊分校的大學生使用 GPT-3 生成一篇篇文章,不但未被察覺是人工智慧寫的假文,還登上了 Hacker News 熱門榜、吸引大批粉絲追更……
▲ 一個正在寫經卷的機器人(示意圖,與本文無關。)
非營利人工智慧研究組織 OpenAI 於 2020 年 5 月發表自然語言處理語言模型 GPT-3( Generative Pretrained Transformer 3)的研究成果。這個號稱是目前世界最強大的 NLP 模型,由 1750 億個參數組成,可以分析單字、文本和數據序列,並藉以自行擴展,生成與主題相符且連貫的文章或圖像。
簡單而言,只要你給出明確的提示,GPT-3 就可以自動產生一段文字甚至文章。這讓 GPT-3 幾乎可以勝任所有用文字表達的工作:從回答問題、寫文章與詩歌、翻譯語言到編寫代碼,一應俱全。
但如此強大的功能也讓 GPT-3 自釋出以來就令人擔憂,若遭有心人士、極端團體惡意利用 GPT-3 製造散播假消息,後果不堪設想。上一代版本 GPT-2,OpenAI 就為避免濫用問題,拒絕對外公開演算法;GPT-3 則是選擇開放 Beta 版本僅供特定人士私測。
他們的擔心或許不是沒道理的──日前就一名美國大學生,用 GPT-3 產出了一篇篇假文,不只登上了全球知名技術論壇「Hacker News」的熱門文章,騙到了一批讀者,其中更有人成為粉絲、訂閱追更。
妙筆生花的人工智慧
雖然 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,但目前就讀美國加州大學柏克萊分校的 Liam Porr,找到了一位申請過 API 的校內博士生,共同合作進行這項實驗。
Porr 提供了一段有標題和簡介的腳本, GPT-3 便輸出了幾篇完整的文章。Porr 化名「adolos」創建了一個部落格,從 GPT-3 輸出的幾篇文章中挑出一篇,僅僅是調整一下排版、未對內文做任何修改,就複製貼上到 Hacker New,開始他的實驗──這篇文章的標題是:《Feeling unproductive?Maybe you should stop overthinking》(感到效率不佳?也許你應該停止過度思考)。
這篇文章受到熱烈歡迎,在短短幾個小時內就獲得超過兩萬次點擊量,更是衝上了Hacker News 熱門文章的榜首。Porr 表示:「從我想到這個想法並與那個博士生取得聯繫、創了一個部落格、到發出一篇堪稱病毒式行銷的文章——這大概只花了幾個小時。
▲ 這篇由人工智慧 GPT-3 所生成的文章一度被推到榜首。
即使底下的有幾則留言質疑這是用人工智慧生成的,但隨即被一面倒的好評給淹沒。大多數人非但沒有察覺、更有人大讚道:「這篇文章就跟 Ethan Hawke 在 Ted 的演講一樣深刻動人!」
首戰告捷後,Porr 每兩天寫一篇……或說用 GPT-3 生成一篇文章發表在他的部落格,幾乎都是與「樂觀正念」、「自我激勵」、「職場成功方式」等心理勵志的文章,俗稱「心靈雞湯文」。如:《Boldness and creativity trumps intelligence.》(大膽和創造力勝過智慧)、《The reading habits of successful people》(成功人士的閱讀習慣)、《Visual thinking isn't just for artists》(視覺思維並非藝術家的專利)等等。
為什麼人工智慧特別懂心靈雞湯?
為什麼 Porr 挑了心理勵志類的文章讓 GPT-3 生成呢?這要歸因到 GPT-3 的優缺點。
推薦閱讀:只要給幾個字,AI 馬上生出完整文章!有奇幻科普還有..假新聞?
如果說以前的語言模型是專才,那 GPT-3 就是一個通才,樣樣都做得還不錯,只是不擅長處理邏輯性問題。引用 Porr 的話:「它很擅長創造漂亮的語言,但不太擅長邏輯和理性。」因此,他選擇了一個不需要嚴格邏輯,只需要華美詞藻與豐沛情緒、而且一直受部分讀者喜愛的流行文類——「心理勵志」。
▲ (Photo by Aaron Burden on Unsplash)
Porr 有個簡單的方法來決定要餵給 GPT-3 的腳本,他在 Medium 和 Hacker News 上翻來翻去、看看有什麼受歡迎的文章,把一些相似的文章資料放在一起,就可以餵給 GPT-3 了。
Porr 表示,每篇發表的文章他幾乎都沒有編輯或修改過,都是直接複製貼上生成的內容。
即使 GPT-3 缺乏邏輯,但善於渲染情緒、鼓舞人心,倘若是想將文章化為表達特定意識形態、政治傾向的工具時,GPT-3 的強大功能恐怕會成為煽動情緒、掀起對立的武器。
- 9月 30 週三 202020:07
最幼齒的人工智慧專家,還能教你寫程式!
- 9月 29 週二 202020:02
人工智慧臉部辨識還有哪些你該注意的隱憂?快進來看看!(下)

為何人工智慧臉部辨識的這些問題依然還沒解決?這篇文章分析給你聽!
為什麼人工智慧不擅長辨識黑人女性?
▲ 科學期刊《自然》所刊之專文指出,被偏倚資料組訓練出來的演算法,通常僅會將左圖辨識成「新娘」。(圖片來自:Left:iStock/Getty;Right:Prakash Singh/AFP/Getty)
那究竟為什麼 AI 不擅長辨識黑人與女性呢?讓我們從波拉維尼的故事說起:
在 MIT 實驗室的某日,波拉維尼用自己的臉部照片測試了微軟、IBM 等公司的臉部辨識 服務,卻發現這些將自己宣稱的多先進的服務,有的將她誤認為男性、有的對她的照片沒有反應,根本辨識不出東西,錯誤率高得令她吃驚。
一直到她戴上白人面具,AI 彷彿恢復正常般,又可以辨識了。難道是她的臉部長相太特別、剛好是 AI 辨識不出來的特例?還是……這些辨識服務本身就有漏洞?
於是,波拉維尼決定進行更廣泛的測試。她輸入了超過 1000 張照片,包括不同種族、不同性別。結果發現一個明顯的趨勢:膚色愈白,辨識正確率就越高;另一方面男性的正確率遠比女性高。讓她明白為何臉部辨識幾乎無法認出她——因為她是一位具有「雙重弱勢」黑人女性,她這類人的辨識正確度,遠遠低於白人男性。
真相其實很簡單,歸根究柢就是因為在訓練演算法時,開發團隊沒有提供多元的種族和性別資料給 AI 所導致。換句話說,AI 在「成長過程」中,認知到的世界就多由白人、男性所構成。
即使並沒有人刻意將人工智慧訓練成這樣,但它可能引發的後續問題,或許比存有種族偏見的街頭警察更加嚴重……
還沒有完善就直接上陣的演算法
這個問題多花點時間就可以修正,只要提供多元組成的資料給 AI 即可,但這些科技公司依然選擇讓不完全的臉部辨識服務上線。
而臉部辨識服務也不是唯一一個,將存有偏見疑慮的 人工智慧 服務投入實用的案例:
2018 年紐西蘭移民署(Immigration New Zealand)實行一項實驗計畫(pilot programme),藉由國家簽證申請程序蒐集移民的年齡、性別、種族、犯罪紀錄、醫療費用欠繳紀錄等等資料,預測這些居留者如果續留,有無犯罪的可能或是否帶來更多醫療支出。一旦 AI 認為,某些移民有治安或醫療方面的疑慮,他們將無法重新申請簽證,甚至會直接被驅逐出境。
消息一出立刻引發強烈抨擊,不少民眾與人權團體質疑這套演算法帶有偏見、背後隱藏著種族歧視,並且也鬧過荒謬的烏龍──一位印度裔移民的家屬被拒絕居留,只因移民署的 AI 認為他的母親過去曾經患有乳癌,但實際上他母親不曾患過任何關於乳房組織的疾病。
科技巨頭急煞車 將道德倫理納入考量
波拉維尼的研究成果公開後,IBM 於 2018 年投入解決 AI 歧視的問題、2020 年甚至直接宣布「不再開發、提供授權或研究臉部識別技術」;微軟則採納報告以改善誤差,並表示未來開發演算法時會納入道德倫理的考量。
▲ 波拉維尼之研究成果
2018 年微軟在官方網站上公布人工智慧開發應考量的六大倫理原則:公平性、可信賴性與安全性、隱私與安全、包容性、透明以及課責。並透露微軟已成立「人工智慧與工程及研究倫理委員會」,負責研究人工智慧產品研發對人類和社會的影響。
IBM 2020 年 4 月新上任的執行長 Arvind Krishna 撰寫一封公開信致函美國國會:「IBM 堅決反對且不會容許任何技術(包括其他業者的人臉辨識技術)用於大規模監控、種族歧視、違反基本人權與自由,或不符合我們價值觀與《信任與透明度準則》的行為。」
反觀亞馬遜,一開始不斷否認自家臉部識別平台 Rekognition 存有缺陷,甚至指波拉維尼的研究為「詆毀」,直到 2020 年年中因非裔男子喬治‧弗洛伊德之死,讓美國種族膚色衝突白熱化,亞馬遜才宣布將暫停讓美國執法部門使用 Rekognition 一年,以避免更嚴重的爭議。
臉部辨識技術雖然為人們的生活增添許多便利,但同時公共安全與個人隱私之間的取捨、種族性別的偏見爭議,都為這個自發展初期即飽受爭議的 AI 技術,更蒙上一層陰影。
延伸閱讀:
謝謝工程師的人工智慧貓窩,讓貓貓們在冬天有個避風港~(上)
冏了!換臉特效做不出來?讓人工智慧來英雄救美~(上)
這五部經典的人工智慧電影,將人類與AI的矛盾情結嶄露無遺!
愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?
【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?
每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人
暴躁老人唱情歌、憂鬱阿嬤笑了!4個翻轉家庭的人工智慧 讓家更溫暖
- 9月 28 週一 202019:37
人工智慧臉部辨識還有哪些你該注意的隱憂?快進來看看!(上)

人工智慧臉部辨識的這些隱憂你都了解了嗎?快繼續往下看!
為了人工智慧辨識,你願意戴「白面具」嗎?臉部辨識的隱憂
人工智慧臉部辨識技術越加成熟,能辨別出「你是誰」已經是基本款中的基本款了!越來越多 AI 辨識技術宣稱可以「從臉孔辨識出智商、性取向、政治傾向甚至是犯罪可能」。
看上去功能如此強大的 AI,卻遭披露「其實只擅長辨認白人」,讓臉部辨識的隱憂浮出水面。
AI 臉部辨識技術已被廣泛使用,也實際應用於執法:根據紀錄,從 2011 年起美國聯邦調查局(FBI)偵辦案件時就開始使用臉部辨識技術,至今累計了超過 39 萬次的臉部辨識搜索紀錄,是近年美國執法部門應用成長速度最快的系統工具。
但隨之而來的是被大力敲響的警鐘:一位麻省理工媒體實驗室的資料科學家喬伊‧波拉維尼(Joy Buolamwini)指出,臉部辨識技術其實十分容易誤認有色人種。
只擅辨識「中年白人男性」的 人工智慧
▲ (圖片來自:圖片來自:AP Photo/Steven Senne)
AI 臉部辨識技術已經成熟了嗎?或許真的該打上個大問號。
來自 MIT 實驗室的迦納裔資料科學家喬伊‧波拉維尼表示,根據她於 2018 到 2019 年間做的兩項研究,證實眾多科技公司開發的 AI 都無法如辨識白人男性臉孔般、準確的辨識出膚色較深的女性臉孔。
其中,尤以 IBM 系統失誤率最高,竟高達 34 %;而亞馬遜的 Rekognition 會將 19 %的女性誤認為男性,若分析對象為膚色較深的女性,誤判機會更是高達 31 %,同時該系統在分析膚色較白的人種時,錯誤率幾乎為零。
波拉維尼發現,這些由科技巨頭如微軟、亞馬遜與 IBM 等公司研發出的臉部辨識 AI 演算法,對於判讀白人、黑人與女性竟然出現了差別待遇:「判讀白人的正確度比較高,判讀黑人與女性的正確性則較低。」
推薦閱讀:
微軟AI新聞編輯才上線就出包!錯置有色人種配圖,女歌星森77
- 9月 24 週四 202019:21
8個必學SEO技巧(8)KISS原則

正在執行SEO優化卻沒聽過KISS原則?放心其實很簡單,繼續往下看吧!
KISS 原則 的 KISS,其實是「Keep It Simple, Stupid.(讓它簡單、笨拙)」 的縮寫。SEO 應該盡力保持網站文案內容的簡潔、直接。原因如下:
根據調查,大多數美國人的閱讀能力相當於小學 7-8 年級。
台灣人的閱讀能力其實也差不多,畢竟我們平時對話也不會滿口莎士比亞、李白那種文謅謅的撰文模式,再使用搜尋引擎找網站時,也會 key 入白話又直接的敘述。
大多數使用者是用「掃描」而非「閱讀」的方式在瀏覽網頁 ── 除非你的網站是電子書或漫畫內容的網站。若一進站,就看到一脫拉庫很難理解的專有名詞、或是文謅謅的敘述,相信大多數使用者會沒有耐心看下去而秒退網頁。過短的停留時間、過多的跳出率都對 SEO 不利。
這代表網站內容的用字遣詞,也要與搜尋者可能會 key in 的關鍵字相同,才會被搜尋到。所以網站內容的文案也要直接、不拐彎抹角。例如文案描述地點時,說「地點『靠近』火車站」比說「地點『鄰近』火車站」還好閱讀;描述健身運動時,說「拉單槓」比說「引體向上」還容易被理解。
就算是有牽涉到專有名詞的用法,旁邊最好也附加直白的敘述方式。像是醫美業者推冷凍減脂「酷爾塑平」的網頁上,最好加個搜尋者可能會打入的關鍵字,例如「冷凍減脂」、「冷凍溶脂」。如此一來,標題有可能就變成「冷凍減脂-酷爾塑平」、「冷凍溶脂:酷爾塑平」之類。這樣子專業用語與白話並用的說法,可讓專業人士與一般人士都看得懂。
總結以上原則,讓你的網站遵守「KISS "Keep It Simple, Stupid(讓它簡單、笨拙)"」的原則如下:
1. 避免艱深難懂的字詞
2. 句子保持簡短,並有層次分段
3. 避免文言文式的敘述,盡可能直接白話
「2018 後的 SEO 八部曲」系列文章到此告一段落。想要回顧前七集的朋友們,可點擊以下的網址:
1. SEO 八部曲 1 - 秒懂你的使用者
2. SEO 八部曲 2 - 你的網頁夠快嗎?
3. SEO 八部曲 3 - TITLE TAG 還是要做 SEO
4. SEO 八部曲 4 - 原來 URL 也可以做 SEO
5. SEO 八部曲 5 - 圖片的 SEO 優化
6. SEO 八部曲 6 - 結構化資料 SCHEMA 標記
7. SEO 八部曲 7 - 使用主關鍵字的相關詞
延伸閱讀:
GA的工作階段是什麼?讓這SEO課程娓娓道來!(下)
全球首台人工智慧貓砂盆上市!讓我們從貓便便開始把關!(上)
換臉人工智慧目前進程如何?迪士尼的技術到底多厲害?(上)
白帽SEO、黑帽SEO,到底差在哪
想入門程式設計課程,該選Python還是Java?(下)
想不到幫貓貓取什麼名字?讓人工智慧來幫你!
透過人工智慧換完臉,竟如此逼真?來看看迪士尼的新玩意!(下)




