A.I.人工智慧系統發展進入快速的揚升時期,不過技術演進所帶來的監管難題、A.I.演算幻覺所形成的錯誤資訊,乃至後續可能由A.I.對軍武與生化分子設計等帶來的革命性影響,都應該受到同等重量的檢視。我們認為,在政府機關期望藉由導入A.I.來簡化行政流程之時,仍須力求在資訊保護、準確性、乃至將A.I.輔助行政的指引方面,確保政府能夠負責任、且有效地使用A.I.。
水能載舟,亦能覆舟。作為可為人類所用的強力工具,A.I.當然也不例外。
A.I.所帶來的當代生產力升級、解放不必要的勞力時間成本等等好處,確實讓人對於科技演進充滿期待。然而,任何尖端科技的工具都可能是兩面刃,先前,歐盟的人工智慧專法《A.I. Act》草案,就已明示A.I.在執法與解釋法律的應用領域列為「高風險項目」,需接受嚴格的事前與事後審查。
在10月30日,美國總統拜登亦正式簽署了一項與A.I.有關的行政命令,內容就牽涉了包括「保護國人隱私,促進公平與公民權利,替消費者、病患及學生挺身而出,支持勞工,推動創新與競爭」等環節,可以見到的是,這些對於A.I.的可能限制,亦指涉了人工智慧對於個人隱私、人權、弱勢團體等,因訓練資料庫的訊息限制所可能產生的資料偏誤(bias),亦提示了在保護人權等領域,A.I.系統不應在完全不受監管的環境下獨立工作。
類似的情景也正在台灣發生。包括8/31日時,行政院的院會議案當中,就頒布了「行政院及所屬機關(構)使用生成式AI參考指引」,而司法院亦正在研擬「司法院使用生成式AI參考指引」,期望透過A.I.系統的參與,協助法官減少不必要的勞力時間成本,減輕法官書寫裁判書類之負擔,進而提升司法品質,保障人民訴訟權益。
然而此間仍需注意的是,無論是行政院所屬轄下機關,或者司法院已逐步開放的「智慧化裁判草稿自動生成系統」,其中所牽涉的國民各項數位資料的保存、利用方式,似乎尚未建立一套完整的偵錯機制,而在訴訟案中的判決草稿生成,更將牽涉各當事人權益甚為深遠。我們認為,政府施政時固然應思考如何降低行政公務員、司法體系公僕的不必要勞動狀況,但在一套具備配套的A.I.即時偵錯系統亦完備之前,似乎不應急著「搭上A.I.熱潮順風車」。
事實上,A.I.目前尚未具備理解人類的能力,其「看似神奇的生成能力」,乃是藉由大量的資料庫訓練而成,然而就以司法判決來看,其中所蘊含的「有罪判決書」在A.I.訓練過程中,是否有可能直接或間接地造成訓練原始資料不均、不足的偏見所在,而形成A.I.輔助判決或生成判決書的偏誤風險?這些都是必須解答的A.I.應用倫理問題。
A.I.人工智慧的快速發展,固然讓人期待,然而相關的「未知風險」亦無人能承諾、保證被全面性地了解。我們認為,無論是行政院、或者司法院,在將A.I.導入其工作流程之時,仍必須審慎看待,並且力求A.I.在施政與訴訟流程中所參與項目、程度的透明與揭露。以免A.I.在生成文本甚至判例文字不幸出現了系統偏誤之時,反而倒過來傷害了人民對於行政、司法體系的信任度,實應審慎為之。