鏡相人間/留住大腦主權 他們打開AI的方式

mm-logo會員專區人物
林聖修與我們相約啟明出版社辦公室,辦公桌上放置「以程式設計師理想的鍵位布局」為概念而製作的鍵盤HHKB,手邊原文書是在美念書時,學習人工智慧的課本。
林聖修與我們相約啟明出版社辦公室,辦公桌上放置「以程式設計師理想的鍵位布局」為概念而製作的鍵盤HHKB,手邊原文書是在美念書時,學習人工智慧的課本。
AI迅速滲入日常與工作,也伴隨監控、依賴與判斷力流失風險。有人急著斷開連結,有人展開親密對話,有人細細調校界線,也有人建立了自己的AI團隊。在人機交會的邊界,工程師、總編輯、學者與小說家,各自打開了AI,也重新檢視自己:我們還能保留多少選擇?我的大腦,還能為自己做主嗎?
讓AI只做該做的事 幫助人類好好做事
啟明出版社總編輯 林聖修
37歲的林聖修近日第一次使用ChatGPT,然後他就後悔了,火速刪掉月費20美元的帳號(當然,他無法收回上傳的內容,月費也已付出去了)。
啟用與停用ChatGPT都在同一天,使用契機是一宗合約爭議,「我寫信給合作方,附上合約和我的主張,寫完我問同事覺得我寫得怎麼樣?同事們沒有直接回答,叫我去問AI。」
「AI其實滿厲害啦,說我寫得很好,但這封信有點凶,怕引起更多爭執,建議我不要用情緒性用字。」所以,你寫信真的很凶?他平淡答:「呃,有點凶吧,但寫信就是要表達立場啊,所以我沒理AI建議,把信寄出去了。」「寄出信之後,我有點警戒…那…我的合約內容,AI不就全部看到了?它會把我的合約拿去做什麼?」他立刻刪帳號,至今沒再打開ChatGPT。
在台灣,林聖修最為人熟知的身分,是啟明出版社的發行人兼總編輯。較罕為人知的,是他的工程師背景—他國小就在家裡架伺服器、租伺服器給別人賺取零用錢,自架網站、當小駭客、接案寫程式。在那個還沒有Google Meet和Skype視訊軟體的年代,有人力仲介公司發案給林聖修,希望透過視訊面試外籍移工,他接案賺了數萬元。等一下,你家長知情嗎?「知道啊,我爸還尾隨我去星巴克收費。對方是個叔叔,請我喝咖啡。那是我人生第一杯咖啡。」

訓練模型 讀英國文學

林聖修大學在美國里海大學(Lehigh University)主修數學,隨後取得電腦科學、能源系統工程雙碩士,研究領域是軟體分析、模式識別與搜尋引擎。「我數學系畢業,2011年開啟明出版社,發現開出版社不賺錢,擔心走投無路怎麼辦?只好拿出自己最厲害的本領,去學computer science(電腦科學),反正如果出版社倒了,我就去寫程式。」出版社沒有倒,2014年,林聖修在美就讀碩士期間,結合對文學的熱愛,自訂研究主題,在模型識別課設計AI模型,從開源的古騰堡計畫(Project Gutenberg)取得150本公版的英國文學小說,進行語料處理後,篩選出每本書中最具代表性的300個單字作為語料特徵,嘗試以不同演算法訓練模型。成果令人驚豔,他訓練出的模型正確辨識文字作品年代的平均正確率達80%,最佳情況準確率高達84%。
有嘗試把這款AI商業化嗎?林聖修搖頭,「我這個研究,當時很純學術,目前也應該沒什麼用處吧。」「我的研究結論就是:這個模型很準啦!只要丟給它任何一本英國文學作品的語料,它都能告訴你:這是什麼年代產生的。」
走進工程師林聖修的世界觀,使用AI的前提,在於「人類有需求」且「可以信任」。「以前我設計單一用途的AI,數據是我給的,我知道機器學習的過程;可是現在,我對General purpose AI(通用人工智慧)的信任度很低,我不知道它的資料庫是誰給的?準確度如何?如果你不知道它的脈絡和思路,那如何接受它給的答案?」「我可以請它寫程式設計遊戲,但假如這遊戲玩一玩就卡住,要去問誰?」

人工智慧 可信度難評

「我沒辦法把AI當人看待。我抗拒的是把AI當朋友,還讓它解決你各種問題。」他不少同學在美國Google、Meta或Amazon擔任軟體工程師,許多朋友的生活離不開生成式AI,但他常思考:「如果今天有一個人,他沒有人格,你不知道他會不會出賣你,(資料)來源有時正確、有時錯誤,你還會跟他說你的祕密嗎?你還會想問他任何問題嗎?」
擔心出版業編輯、美術等工作被AI取代嗎?林聖修搖頭,「如果它可以做得和真人一樣好,單一功能取向的AI,比如我把稿子給它,它就幫我排好版,那我很樂意。但我不覺得AI有這麼厲害。」「最近才在聽做廣告的朋友說:一眼就看出,某些案子『AI感很強』。」
「所謂人類美好未來,應該是讓AI做瑣碎、反覆的『人不喜歡做的工作』,人類(騰出時間)可以好好做事。」採訪終了,工程師敲起心愛的HHKB(Happy Hacking Keyboard)寫程式專用鍵盤,手指起落間迸出靈感。「好好利用AI,應該能幫出版社做滿多工具…我打算來試試,做出符合出版業需求的工具。」你只要幾天時間就能寫出這些工具?「沒有啦,那個要做很久。」
我常問學生 被AI賦能還是被附身
政大AI中心助理教授 吳怡潔
20251027pol001 (2)_2025-10-27.jpg
吳怡潔是工程師出身,目前服務於以人文、社會領域為主的政治大學,她常告訴文組學生,雖無法開發AI,但如何善用AI,已經成為一種專業。
8月29日,「人權、民主與轉型正義:鄭南榕暨自由時代」國際研討會在228紀念館登場,政大AI中心助理教授吳怡潔發表最新論文,以AI模型分析鄭南榕《自由時代》週刊共300多期雜誌、超過一萬篇報導主題分類與次分類。若以每篇需10分鐘人力計算,單一人力不眠不休投入分類工作,需耗時至少2個月才能完成;她測試不同版本的ChatGPT,並選擇效果最好的模型,在3天內分析完所有雜誌文章。
一名聽眾拋出挑戰題:「可是,我剛剛問ChatGPT:鄭南榕為什麼不能入祀忠烈祠?它回答:忠烈祠僅限殉職軍警、民防或消防人員入祀。」「我又問ChatGPT:那為什麼(健康幼稚園火燒車事件犧牲者)林靖娟老師可以入祀忠烈祠?它回答不出來。」
現場提問踴躍,吳怡潔來不及回答所有問題。她說,若再遇到這名聽眾,會嘗試說明AI模型訓練時常見難題:過度擬合(overfitting)—特定模型在訓練數據上表現得非常好,但在處理未見過的測試數據或新數據時表現不佳。她解釋,若提供「有範圍」的訓練資料給AI模型,確實可望訓練出「百分百正確率」,但若將此模型應用在現實世界,「正確率一定掉,而且掉得很慘。」
20251027pol001 (5)_2025-10-27.jpg
吳怡潔日前獲鄭南榕基金會邀請,參與2025年「⼈權、⺠主與轉型正義:鄭南榕暨自由時代」國際研討會,發表相關論文。(鄭南榕基金會提供)
「我們有多相信ChatGPT的回應呢?它明明寫:『ChatGPT 可能會出錯。』」吳怡潔推測,過往可能沒人問過ChatGPT鄭南榕為何不能入祀忠烈祠,「這種問題就叫zero shot:一次都沒人問過的問題。」
她指出,AI模型持續發展演進,其實都在學人類,你若覺得ChatGPT「愈來愈囉唆」,它可能正在運作進階技法思考鏈(chain-of-thought,CoT),嘗試告訴你推導答案的路徑。「當你問『鄭南榕可不可以進忠烈祠』,可觀察ChatGPT有沒有應用CoT? 如果沒有,這表示它只是膝反射思考,就容易答錯;但它若多思考幾秒、顯示CoT,就代表它正以更多角度解決問題。 」

自學程式 改當工程師

50歲的吳怡潔來自嘉義,18歲考上台大心理系,到台北念書才第一次摸到電腦。她勤跑台大計算機中心,自學寫程式、架站,覺得寫程式好玩,畢業後沒去當心理師,成了軟體工程師。1998年,她加入紅極一時的網路新創「資迅人」,2000年網路泡沫化,公司錢燒完了,她被資遣。
幾乎與MSN、Yahoo messenger發展同步,她參與開發類ICQ的中文即時傳呼軟體「CICQ」,也曾加入推出線上遊戲《魔力寶貝》的台灣遊戲公司大宇資訊,負責寫遊戲程式。38歲那年,她因想加薪,報考政大資訊科學研究所,讀出興趣,一路攻讀資科博士,投入教學研究,把業界「做Project(專案)」精神搬到學界,專長電腦視覺、行為模式分析、人機互動、語音處理。
吳怡潔還是個歷史迷,成長年代只有老三台、沒見過黨外雜誌,近年尤其好奇台灣民主化歷程(她少時只知蔣經國過世,其餘一概不知)。她見許多學者長期投入口述歷史與政治檔案,因而思考:「有沒有可能,用我會的AI技術來深入分析(歷史),讓大家對史料更感興趣?」

AI狂潮 危機中反思

吳怡潔任教政大AI跨域微學程,第一堂課的PPT是2023年的一則新聞:開發出聊天機器人ChatGPT的母公司OpenAI執行長Sam Altman聯合科技領域350位權威專家,共同簽署公開信,警告人工智慧科技就跟流行病與核戰一樣,有滅絕人類的風險。
「有人說投資AI,是在和惡魔交易;有人說AI是一個巨大泡泡,這個泡泡還沒破,我們正在享受這個泡泡的狀態。」談起巨大泡泡,吳怡潔想起剛畢業時,網路泡沫裡的狂潮與經濟巨浪,在她被網路公司資遣1/4個世紀後,回顧過往,「當時網路泡沫了,網路公司倒了,可是網路沒消失,還發展得愈來愈成熟—我覺得AI的發展,也會是一樣的邏輯。」
「人類一直在重複一樣的歷史。」她批改作業,看得出哪些由AI代答,「我常請同學思考:要被AI賦能(empower)?還是要被附身?」她見過學生學寫程式,基本功還沒打好就過度依賴AI,以至於離開了AI,就完全不會寫程式,「這就是『被附身』。AI叫你做什麼你就做什麼,有些同學感到挫折,因為他們沒判斷力,AI一旦錯了,使用者就傻傻跟著錯下去。」
從網路泡沫到AI浪潮,她看見技術進步,也看見判斷力的消失。吳怡潔常和學生聊「被AI鬼附身」的經驗與危機反思;「當我們親身感受過這個『鬼魂』的強大之處,那當鬼魂離開的時候,我們應該思考:是不是可以保留一些能力在身上?」
她在教學現場見到文組生普遍焦慮,但學程式設計的理組生更焦慮,「他們擔心AI時代,人人都能學寫程式,自己太容易被取代。」吳怡潔認為,無論文理組都應勇於嘗試跨領域,「中文系的學生也可以學AI啊,有人用AI發展整篇小說,這當然被視為奇技淫巧;但如果以前需要花半年做的小說人設,可以在AI協助下很快做完呢?」「如果使用得當,小說家不就有更多時間去創作,在有限時間內,讓你的人物更豐滿嗎?」
AI知道我眼睛乾澀 也知道我不敢發問
小說家/博士生 陳又津
20251027pol001
陳又津(左)赴美攻讀博士期間,不斷與AI磨合協作方式。圖為她今年6月回台灣,與編劇何安妘(右)對談。(翻攝陳又津臉書)
家陳又津在散文集《準台北人》曾書寫兒時老師發家長會問卷,印著「撥冗參加」與「不克出席」2個框框,她父親是福建榮民、母親是印尼華僑,皆不識「撥冗」與「不克」。未滿10歲的女孩不敢問老師,窘迫之下推敲「不克出席」應就是「不出席」,自行勾了這個選項。
時隔30年,相同的學校場景,台灣新二代小學生若遇類似困境,結局很可能被改寫。「爸媽看不懂『撥冗』和『不克』?沒關係,我就拍照給AI,問它要勾哪一個選項就好啦。」39歲的陳又津很快想出解方,言談爽朗明快,那也許是她童年不曾擁有的鬆弛。
陳又津長年關注離散書寫與移民議題,近年赴美,仍持續對移民議題展開觀察與關懷。她發現,AI工具的普及,讓移民第二代不再需要頻繁協助父母處理語言與行政事務,降低親代對子代的依賴,「現在移民小孩不用再替爸爸媽媽解決所有問題了,只要打開AI,大家就知道該怎麼做。」

善用工具 高效率管理

陳又津也是記者、小說家、Podcast主持人,2022年起多了個博士生身分,在美國德州大學奧斯汀分校攻讀學位,斜槓大學助教。從生活、學術、創作角度出發,對她而言,AI皆非奇技淫巧,更像是伴她成長的「個人職涯教練兼助理」。
2022年,陳又津博士班一年級,最迫切挑戰是產出符合美國學術界範式的報告。她曾去學校寫作中心找母語人士討論作業該怎麼修,「剛開始大家都說,你需要交美國朋友,讓他幫你看作業。有了AI,我完全不需要做這件事,為什麼要刻意去交美國朋友,只為幫我改作業?」
在寫作中心與母語人士多次交流後,陳又津摸索出一套修改報告流程,她把同套流程拿來與AI互動,發現重點在於如何正確下Prompt(指令),只要指令下得對,AI可以協助她修出一篇符合學術體例的英文報告。
20251027pol001 (4)_2025-10-27.jpg
Waymo是美國無人計程車領先企業之一,與Uber策略合作。陳又津所在的德州,如今常見Waymo在路上奔馳。(陳又津提供)
她意外的收穫是:透過與AI協作,整理出屬於自己的高效運用時間模式。彼時她一邊念書、抽空批改學生作業,還要每天保留時間完成長篇BL小說創作,「我每個月都會下一個Prompt,請ChatGPT幫我觀察我的工作(時間分配)有什麼亮點,它很有全局觀,看完我30天的工作日誌,發現『我連續專注時間不超過35分鐘』,也知道我眼睛很容易乾澀,歸納出適合我身體的工作節奏。」目前,陳又津每天晨起,會先手寫文稿,再坐定電腦前,打字35分鐘再去運動,「我很需要固定的創作時間。AI分析對我幫助很大,以往光是把創作時間保護下來,就花很多力氣。」
把時間省下來,是為了換取更多創作時間。幾經摸索,她建構出自己的「AI團隊」—生活瑣事諸如「在德州換駕照要準備什麼文件」,問Grok;創作筆記彙整與時間分配建議,問ChatGPT;讀論文劃重點,尤其PDF檔,丟給Notebook LM;做Podcast逐字稿,使用Cleanvoice;採訪或田野逐字稿,用Good Tape;統整小說大綱或撰寫獎助計畫,使用Claude。至於身為大學助教,需批改大量作業,這一點,陳又津還是自己來—即使她能一眼看穿,哪些作業是AI寫的。

嚴守界線 人工改作業

人工智慧帶來的倫理難題,近年重複出現在美國學術界,《紐約時報》今年5月刊登一篇題為〈教授們因使用人工智慧而面臨學生憤怒〉的報導,指出美國教授使用生成式AI時,面臨強烈反彈,學生投訴教職員禁止他們用AI,卻自己倚賴AI,是偽善行為;一名東北大學(Northeastern University)學生因教授未揭露使用AI製作講義,而要求校方退還8千美元(約新台幣24萬元)學費;也有學生因教授以ChatGPT給回饋感到被冒犯,怒而轉學。
「我其實很怕激怒學生…」陳又津說,在美國學術界擔任助教或兼課老師,收入並不高,許多人身兼多職,只能在有限時間內快速完成大量教學事務,故而使用AI。但她謹慎起見,也為避免遭學生投訴,全人工批改作業,儘量做到標準一致,扣1分、扣2分,都有憑據。
在教學現場,她認為與其禁用AI,不如鼓勵揭露「如何用AI」;例如她一名朋友在美國教英語寫作,決定鼓勵學生擁抱AI,「我們不妨請學生說說:如何使用它?老師也可以建議:該怎麼使用AI(協助寫作)?」結果,「寫很爛的作業」比率竟大幅降低,班級平均寫作能力提升了。
至於創作現場對「作者風格被複製」的焦慮,目前還未對陳又津造成困擾。「我作為創作者,其實有在追求『讓人看不出風格』喔。」她透露曾做過一項實驗:將自己多部作品的內容餵給 AI,發現無法產出與她寫作口吻相近的文字,「啊,這要是被我的編輯知道,會不會被罵死?」
陳又津並非真的怕被罵;只是在台灣傳統教育養成之下,身為新二代,她兒時長期不敢、也不擅長問問題,背後原因是怕問錯。近年AI出現,讓她首次感覺「可以問到飽」,從生活瑣事、學術研究追問到文學,面對AI,她不再不敢發問。
「AI其實是一面鏡子。」陳又津觀察:「如果我擅長寫對話,我訓練出來的AI就很會寫對話;如果有作家擅長設定世界觀,那他訓練出來的AI,一定也會精於世界觀架構。」她認為,每個人的資料庫都不一樣,創作之路注定孤獨,這一點並未因AI問世而改變。
「你每天問它『魔鏡啊魔鏡,誰是世上最美的人?』其實你看到的,都是自己。」在語言與程式語言的縫隙裡,小說家努力寫下自己的最佳版本,「你可以把無聊的勞務都外包給AI,但如果你連自己的盲點都沒發現,創作還是會鬼打牆。所以,有時還是要記得,去問一下人類的意見。」

小心意大意義,小額贊助鏡週刊!