2026.05.16 06:30 臺北時間

當AI公司開始聘請哲學家──科技的盡頭還是人類

mm-logo
時事
當AI公司開始聘請哲學家──科技的盡頭還是人類
Google日前聘請劍橋學者夏林(Henry Shevlin)擔任AI(人工智慧)「哲學家」(Philosopher),引發科技界與學界高度關注。圖為去年6月中研院陳啟東特聘研究員向廖俊智院長介紹製程設備功能。圖/翻攝中研院臉書

吳芳銘/政治經濟觀察員

Google DeepMind(谷歌深智科技)近日聘請劍橋學者夏林(Henry Shevlin)擔任AI(人工智慧)「哲學家」(Philosopher),引發科技界與學界高度關注。這項人事安排不只是企業的新職稱,更透露出AI產業正進入一個工程師無法單獨回答科技該如何發展的新階段,標誌著AI從技術競賽走向價值治理的時代轉折。

哲學家走進AI實驗室

過去,科技公司的核心問題很單純:模型能不能更快、更準、更便宜?答案通常存在於演算法、算力、數據與系統架構之中。然而,生成式AI出現後,問題已經徹底改變。

當AI能陪人聊天、提供建議、安撫情緒,甚至被部分用戶視為朋友、伴侶或顧問時,它就不再只是工具,而開始介入人類的判斷、情感與社會關係。科技產品第一次如此深刻地觸碰「人是什麼」的核心問題,而這正是哲學家被帶進AI實驗室的重要原因。

AI的問題,已超出工程範圍

夏林長期研究的領域是「機器意識」,諸如:AI是否可能擁有某種程度的意識與感受?如果一個模型看起來理解人類,我們是否應該將它視為某種具有「內在世界」的存在?

這些問題無法透過增加參數或提升算力來解決。

如果AI真的具備某種意識,隨之而來的將是更龐大的倫理與治理問題。例如:「AI是人嗎?」「它是否擁有權利?」「它能否成為道德主體?」甚至,「痛苦是否只屬於生物?

進一步說,如果AI有意識,那麼將引伸「AI是人嗎?」的身份拷問、對與錯的究問,以及對邊界的追問,這些涉及道德、法律及哲學的問題,指向AI治理。而工程師可以分析模型輸出,卻不能單靠程式回答「理解是什麼」、「意識是什麼」、「痛苦是否只屬於生物」以及各種道德倫理問題,這些問題的解方寄望在哲學家身上。

工程師可以分析模型輸出,但無法只靠程式碼回答「理解是什麼」、「意識是什麼」、「何謂善惡」等哲學問題。這些問題牽涉法律、倫理、政治與社會制度,最終都指向AI治理(AI Governance)的核心。

AI的價值觀,正在被設計

不只谷歌,另家AI公司Anthropic也聘請哲學家阿斯凱爾(Amanda Askell)制定Claude的「憲法」,讓模型在安全(Safe)、倫理(Ethical)與有用性(Helpful)的優先順序,而直接影響模型訓練與回答方式的價值框架。換言之,阿斯凱爾賦予Claude靈魂,讓AI的價值觀不再是產品發佈後的補丁,而是直接嵌入模型開發設計中;這不只是倫理審查,更是產品的生死線。

因此,今日科技公司聘請哲學家,真正原因並不是企業突然變得更高尚,而是它們終於承認:所謂「人機對齊問題」(Alignment Problem),早已不是單純的技術問題,而是牽涉倫理、政治、價值與公共治理的複雜命題,也關係到科技公司自身存在與經營的合法性。

AI的瓶頸:不只是能力,而是定義

目前AI發展面臨的最大轉變,在於瓶頸不再只是能力,而是該如何「定義」的問題。例如:AI應該如何回應有自殺傾向的用戶?如何處理政治、宗教與歷史爭議?當誠實與同理心發生衝突時,何者應優先?當用戶問「你有感覺嗎?」時,模型應該否認、承認,還是保持不確定?當每一種回答都不是中性時,其背後都代表一種倫理選擇。

過去矽谷相信「先推出,再迭代」的創新邏輯,但當AI逐漸成為社會基礎設施,這套模式開始出現危險訊號。推薦錯一雙鞋,只是商業失誤;但若錯誤安撫一個心理脆弱的人,可能就會造成真實傷害。

當科技越強大、覆蓋的應用範圍越廣,產品就越不只是產品,而更像是一套隱形的治理系統。因此,大型AI模型不只是回答問題,它也正在塑造人們對真實、知識、關係與道德的理解。若這種權力只由科技效率與商業目標驅動,將帶來極高風險。

真正重要的,不只是哲學家,而是權力

當然,哲學家進入AI公司工作,也不代表問題就能自動解決。真正關鍵在於:哲學家是否擁有實際決策權?還是只是企業形象與道德包裝的一部分?

如果哲學只是裝飾,將無法阻止科技失控;只有當哲學真正參與模型訓練、產品邊界設定、發布標準與風險評估時,才會成為AI治理的一環。

這場變化同時也提醒社會重新理解人文學科的價值。長期以來,哲學、倫理與社會科學常被認為不夠實用;但當科技開始觸碰「人是什麼」、「社會如何維持信任」、「AI是否應有倫理邊界」等問題時,最不「實用」的學問,反而成為最核心的能力。

程式可以構建人工智慧,卻不能自動產生良知;模型能模擬語言,卻不能自行決定何謂善惡。未來AI公司的競爭,不只在算力、數據與人才,更在價值框架、社會信任與道德邊界。

哲學家進入AI公司,並不是人文學科的勝利,而是科技發展走到深處後,終究必須回到人類社會本身。當人類試圖把幾千年來累積的宗教、法律、倫理與制度智慧寫進機器時,真正的問題已不再只是「AI能做什麼」,而是「我們允許它成為什麼」,以及省思「將對人類社會未來造成什麼後果」。

當定義先於能力、價值觀成為技術參數的一部分時,這些問題,沒有任何一行程式碼可以單獨回答。

★《鏡報》徵文/《鏡報》歡迎各界投書,來文請寄至:editor@mirrordaily.news,並請附上真實姓名(使用筆名請另外註明),職稱與聯絡電話。來文48小時內若未收到刊登通知,請另投他處。

回到原文
更多鏡報報導
下一檔萬元股?AI測試設備霸主鴻勁續擴產能迎大單 目標價上看萬元
Hello Taiwan的華府外交筆記之二──AAPI 峰會與紐約參議員會面
HELLO TAIWAN的華府外交筆記之一──跨出同溫層的第一站
更新時間|2026.05.16 13:31 臺北時間
延伸閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

獨家深度分析報導

線上閱讀

更多內容,歡迎 鏡週刊紙本雜誌鏡週刊數位訂閱了解內容授權資訊

獨家深度分析報導

線上閱讀