文/蔡鎤銘(淡江大學財務金融學系兼任教授)
引言
隨著人工智慧(AI)技術的迅猛發展,其應用已從商業領域擴展至政治與公共政策。生成式人工智慧(Generative AI),如ChatGPT,因其模擬人類語言並生成內容的能力,正逐漸成為政治討論的新興工具。然而,這項技術究竟是深化民主參與的助力,還是潛藏操控民意的風險?本文以日本北海道東神樂町於2024年8月舉辦的青年工作坊為案例,探討生成式人工智慧在政治討論中的潛力與挑戰。該工作坊由NIRA綜合研究開發機構與東神樂町合作,聚焦2050年的長期政策願景,參與者以中學生為主,輔以ChatGPT進行討論。本文將分析此案例的成果,並結合全球視角,評估生成式人工智慧對民主的影響。
生成式人工智慧如何賦能政治討論
生成式人工智慧在政治討論中的一大潛力在於其能激發參與者的創意並拓展視野。在東神樂町工作坊中,中學生針對「教育」與「城鎮發展」議題提出問題,例如公共交通不便與地方特色不足。ChatGPT不僅預測了2050年社區巴士的發展,還啟發參與者提出將巴士站改造為居民交流空間的建議。這顯示生成式人工智慧能幫助參與者超越既有思維,尤其對經驗有限的年輕人而言,其作用尤為顯著。
此外,生成式人工智慧能模擬不同立場的意見,豐富討論的多樣性。參與者要求ChatGPT以「2050年東神樂町居民」身份發言,獲得未來視角的政策建議,如強化地方文化以提升認同感。這種功能彌補了現場參與者的視野局限,使討論更具包容性。日本NIRA総合研究開発機構3月27日的報告指出,參與者認為ChatGPT的建議「比人類更具宏觀視野」。
生成式人工智慧的非人性特質也使其能克服人類討論中的心理障礙。人類因情感或社交壓力常難以直言,但面對ChatGPT,參與者更願意提出尖銳問題。例如,一名平時沉默的學生在與ChatGPT互動時積極提問,顯示人工智慧能降低心理門檻,促進意見表達。其「無顧忌」的特性也避免了人際妥協,例如直接批評地方政策。
效率提升是另一優勢。工作坊中,ChatGPT快速生成SWOT分析,僅需上傳統計資料即可完成初稿,節省準備時間。這使參與者能專注討論核心,而非瑣碎細節。全球範例如台灣「vTaiwan」平台利用人工智慧整合民眾意見,顯著提升政策制定效率,進一步佐證此潛力。
生成式人工智慧的隱憂與限制
生成式人工智慧在處理「現場知識」上存在顯著局限。東神樂町以「花卉之城」聞名,但參與者指出實際花卉景觀稀少,與ChatGPT基於網路資料生成的正面評價形成反差。這顯示人工智慧難以捕捉地方氛圍或居民真實感受,易導致建議與現實脫節。NIRA報告強調,這種差距可能削弱政策的實際可行性。
更嚴重的風險是偏見問題。其輸出高度依賴訓練資料,若資料失衡,結論亦隨之偏頗。工作坊中,ChatGPT分別基於町政方針與居民問卷生成不同旅遊觀點,前者樂觀、後者批判,顯示資料選擇直接影響結果。國際研究學者如莫托基(Fabio Motoki)等人(2023)發現ChatGPT具左派傾向,阿蓋爾(Lisa P. Argyle)等人(2023)指出其模擬意見與真實民調存偏差,顯示其可能無意間放大某方聲音,影響民主公平性。
「幻覺」(hallucination)問題——生成看似真實卻錯誤的露天場景也令人擔憂。雖然工作坊未出現顯著錯誤,但NIRA報告警告,若用於事實查核而非創意發想,誤導風險將增加。日本橫須賀市經驗顯示,初期38.5%的職員將生成式人工智慧用於搜索,後降至30.4%,反映官方對此風險的警惕。
透明性與問責制缺乏則是深層挑戰。生成式人工智慧的決策過程如黑盒子,難以解釋結論來源。參與者雖接受ChatGPT建議,但若應用於正式政策,誰為結果負責?國際研究學者布蘇約克(Madalina Busuioc,2021)研究指出,這種不透明性可能降低民眾對人工智慧介入政策的信任。
平衡潛力與風險的實踐路徑
要發揮生成式人工智慧潛力,需將其定位為輔助工具,而非決策主體。東神樂町工作坊以人為本,ChatGPT僅提供參考,最終政策由參與者定案。NIRA指南強調「討論應以人類為中心」,這與歐盟《AI法》要求人工智慧受人類監督一致,確保技術服務於人。
降低偏見與幻覺風險需保持資料平衡並公開過程。工作坊將町政方針與居民問卷並用,確保輸出不偏向官方立場。公開學習資料與提問內容則增強信任,NIRA建議「盡可能公開使用過程」,呼應國際研究學者格林梅利克胡伊森(Stephan Grimmelikhuijsen,2023)的研究,顯示透明性提升接受度。
專業監督與人才培育亦不可少。工作坊邀請AI專家加藤善大與加藤究參與,事前模擬杜絕問題。長期看,培養內部人才避免依賴外部專家,NIRA指南第九條「培育精通生成式人工智慧的人才」與日本數位轉型政策一致。
結語
東神樂町青年工作坊揭示生成式人工智慧的雙重面貌:它能激發創意、提升效率,深化民主參與,卻也因偏見、幻覺與透明性問題帶來威脅。這場實驗證明,生成式人工智慧並非民主萬靈丹,而是需謹慎駕馭的工具。其深化民主的潛力取決於人類如何設定界限與規範。如NIRA報告所述,「最終仍需人類思考與討論」,技術雖強大,民主核心仍繫於人性。未來,隨著案例累積,生成式人工智慧或成民主進化催化劑,但前提是正視風險,以智慧引導其發展。
本文僅代表作者立場,不代表本平台立場









Facebook Comments 文章留言