《公視主題之夜SHOW》推出全新創新實驗內容,現場結合AR投影技術,由法律白話文社群總監劉珞亦主持,首次與AI主持人「插嘴編」攜手,共同探討論壇主題《嘿~AI,炸毀那台坦克!?戰爭自動化,是誰手上沾了血?》。節目邀請22位公民來賓,透過「用腳投票」選邊站的互動方式,思辨AI在戰爭中的應用及其背後的倫理與價值觀。
《AI殺手閃電戰》提出多個關鍵議題:AI武器系統是否能確實遵守國際戰爭法規?在瞬息萬變的戰場環境中,AI能否準確識別平民與戰鬥人員?以及自主武器的發展是否會降低發動戰爭的門檻?更特別提及「閃電戰」概念,意指當各國的AI武器系統相互對抗時,其快速運算與即時反應可能導致災難性後果。
針對人類使用AI武器的看法,現場多數公民來賓認為「AI無法理解倫理道德」,僅2成來賓認同「AI比人類精準,符合人道精神」。國防安全研究院國防戰略與資源研究所所長蘇紫雲表示,AI雖是很好的工具,但可能較適合於戰鬥或戰術層面,不應在戰略層面自行作決定,人類仍應承擔最終的決策責任。他舉例:自2008年Google和微軟工程師發起連署,拒絕參與美國國防部軍用AI計畫以來,AI應用責任歸屬問題仍持續引發討論。
談及「AI武器系統誤判錯殺無辜」的假設性問題,本身為軟體工程師的宇宙油王有疑慮,認為AI進行攻擊的做法僅是展現整個國家的體系:「AI不是不懂倫理,他只是依照他的社會所有的倫理觀念,全部加總價值觀後,決定要開槍!」,公民來賓竹尋則以美國國防部的法規補充:「美國在使用自主性武器的法令規定,在使用人工智慧的最後階段,都必須要由人來做判斷,因此不會發生人工智慧擅自做出誤擊一般民眾,或危害關鍵基礎設施的情況。」
最後討論到AI武器是否會使戰爭、武裝衝突變得更加頻繁,以及替人類打仗的可行性時,公民來賓們各自表達了觀點,主持人劉珞亦則強調建立AI模型的研究資料集存在偏誤的風險,「戰爭是政治的延伸,當有偏誤的AI資料再加上政治的延伸,將產生出新的危機。就算你可能不在乎戰爭,生活一定會碰得到AI,就算你生活用不到AI,台灣可能也面臨準戰爭的問題,AI跟戰爭的議題值得省思。」