2024-11-06
倫理規範 建制AI指引方向
AI的快速進展雖推動了智慧交通等新技術,但也帶來職業衝擊、資料偏見與隱私問題。為應對這些挑戰,確立AI倫理規範並將其法制化成為關鍵,政府應積極制定AI基本法,將倫理規範融入法律體系中,以保障科技發展符合社會期待。透過AI基本法的制定,不僅能指引AI發展方向,還能為智慧交通、金融等領域的相關法規修訂提供依據,助力臺灣在AI時代中占據領導地位。
作者簡介:張麗卿
實踐大學講座教授、財團法人AI法律國際研究基金會執行長
前言
回想起來,幾年前,談論AI,也許有些人會產生質疑,認為這種天方夜譚的想像,是不是太遙遠了;但在今天,提及AI,大概不會有人懷疑,因為科技發展日新月異,AI時代就將到來。
由歷史可知,科技的變革,會對社會造成影響,其中除了促成人類文明前進,當然也包含潛在的負面衝擊。譬如,AI可能造就以自駕車為主的無人載具問世,進而迎來智慧交通的時代;但是,在提升人類交通安全便利的同時,以駕駛為職業之人將要何去何從,恐怕將成為AI社會轉型過程中的痛苦。在法治國家,若要妥善緩解社會爭議,積極提升社會公益,還是必須回到法律層面。
面對AI時代的社會變遷,其影響範圍與程度,恐怕非常人可以猜想,全新的科技變革,可能造成全面性的社會爭議,甚至造成階級對抗。人類文明發展迄今,並無處理AI問題的經驗,也沒有完整的法律規範AI可能造成的問題。是故,AI的相關立法迫在眉睫,政府應該帶頭,結合民間資源,共建良善的AI時代法律。然而,法律應當建立在倫理規範之上,藉此指引AI的發展方向,同時也避免AI立法與社會倫理規範相違背。
AI倫理規範,具有指引AI發展方向的功能,在AI發展如火如荼的今日,宜及早確立AI時代的倫理價值,且AI倫理規範宜透過立法,具體成為法律原則,進而發揮更大的影響力。對此,AI基本法的制定,應是目前臺灣AI發展的當務之急,也是筆者長期倡議之事。
AI的倫理規範
確立AI的倫理規範,有助於AI的正向發展。質言之,一旦AI倫理規範確立,AI的相關研發或利用的行為,就有了價值判斷的準據;進一步言,涉及AI的相關法律制定,也就有了倫理價值的土壤,使得涉及AI的相關法律規範,能夠符合社會大眾的倫理期待。
關於AI倫理規範的內涵,其實已有許多討論,政府也有相當成果。例如,2019年科技部(即現今的國家科學及技術委員會,以下簡稱國科會)的「AI科研發展指引」,是針對研發人員從事AI科研的倫理規範,以政策性方針的面貌呈現,於該指引中清楚指出,「研發人員因其角色與性質特殊性,若能於AI研發過程善盡能力適時注意與利害關係人互動對話,符合普世期望協助創建『以人為本』、『永續發展』及『多元與包容』三大核心價值之AI社會,其研究成果也將更為廣泛接納。」在此三大核心價值基礎之上,AI科研發展指引提出具體的倫理指引規範,分別是:共榮共利、公平性與非歧視性、自主權與控制權、安全性、個人隱私與數據治理、透明性與可追溯性、可解釋性、問責與溝通等八方面。
此外,在現行法下,也能找到一些AI倫理規範的內容。例如,《無人載具科技創新實驗條例》第14條、第15條,是關於無人載具的安全性倫理規定,要求進行無人載具創新實驗之前,應有詳實的資訊告示;在實驗進行中,應盡善良管理人的注意義務,以確保實驗安全,避免因無人載具創新實驗過程的疏忽,造成他人生命、身體等侵害。又例如,《無人載具科技創新實驗條例》第16條規定無人載具的個人隱私保護,要求實驗內容涉及個人資料時,應當遵守個人資料保護法的相關規定。倫理規範作為社會價值的基準,雖然目前尚無法律明確規定AI倫理規範的內涵,但已經透過指引或個別法律規定,試圖讓相關的AI倫理規範,發揮指引AI發展與應用方向的功能。
AI倫理規範的法制化
AI倫理規範的法制化,也在有識之士的推動下,出現曙光。筆者所屬的財團法人AI法律國際研究基金會(下稱AI法律基金會),向來致力於AI倫理規範建構的倡議。2023年3月,AI法律基金會提出了「AI基本法草案(芻議)」,率全國之先,並於2024年3月與數名立法委員攜手召開記者會,共同推動基本法的立法工作;後來,2024年7月,國科會也提出官方版的AI基本法草案。無論是政府或民間版本的AI基本法草案,都有AI倫理的法律明文規定。誠如前述,AI倫理規範,具有指引AI發展的功能,面對AI此等人類歷史上未曾出現的新科技,如能立法明文,更能發揮該倫理規範的功能。
在AI法律基金會的草案版本中,認為AI的研發及利用,應以人為本、普惠人民及永續發展為目標,並遵行自主、保密、安全、包容、透明等五大倫理原則,即「一、自主原則:尊重人性尊嚴及個人自主。二、保密原則:尊重人民隱私及營業秘密。三、安全原則:保障人民生命、身體、自由及財產之安全。四、包容原則:重視多元包容,確保公平,避免歧視。五、透明原則:強化可解釋性及可追溯性,確保問責可能性。」至於國科會的草案版本,則將AI倫理規範體現在:永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視、問責等七倫理原則。平心而論,表述方式不同,但大家對於AI倫理規範的價值標準,並不會相去太遠。
自從AlphaGo在圍棋掀起這一波AI的浪潮,到ChatGPT的生成式AI,開啟人類對於AI發展的新頁,歷經數年的發展,在AI倫理規範方面,或許臺灣社會已經凝聚相當的共識。既然如此,AI倫理規範法制化,應該時機已經成熟,在此之中,AI基本法應該是最能彰顯AI倫理規範的法律。是故,AI基本法的立法,宜加速進行。
以AI基本法建構AI倫理規範
對於AI的研發及利用,應符合AI的倫理規範,是世界各國的共識;但究竟要以什麼模式建構AI的規範最為合宜,可能存有些許差異。在AI發展的早期,世界主要國家或地區多以軟法(soft law)規範AI倫理規範,即以政策或指引等方式,如美國「AI權利法案藍圖」、德國「AI策略要點」、日本「為執行AI原則之治理指引」、中國大陸「新一代人工智能倫理規範」等。在AI發展的初期,對於AI研發及利用的倫理或價值判斷,尚未形成共識,同時為了探索各種可能性,避免遏止發展,軟法是主要的規範方式。
不過,AI發展至今,如保障人權、重視安全等精神,已是AI發展的普遍共識,加上個別領域的法律,涉及AI部分也陸續修法,應該已經具備邁向硬法(hard law)規範的社會條件。關於以硬法規範AI的研發及利用,應以2024年5月歐盟理事會正式批准的AI法(Artificial Intelligence Act),最富盛名。歐盟的AI法,是針對歐盟內AI研發及應用的基礎規範,使歐盟AI的發展能夠遵循公平、透明及可信等原則,並將AI風險分級,以及明確表示禁用AI的事項,以確保人權。
回到臺灣,參酌歐盟AI法的立法精神,以基本法的立法模式,確立AI的倫理規範,應該最為合宜。所謂基本法,是對於特定領域的原則性、政策性規定。考量臺灣AI發展的狀況,以及相應的立法經驗與技術,可以建構AI基本法,確立AI領域的原則性、政策性規定。值得肯定的是,在AI法律基金會的倡議之下,政府已經聽到聲音,也已提出政府版本的AI基本法草案,相信距離完成立法之日,應該不遠。AI作為國家發展的重要際遇,並能與臺灣的科技優勢結合,政府應積極投入AI基本法的立法工作,確立涉及AI的臺灣價值與政策基準。
結語
如果臺灣能夠順利制定AI基本法,各領域的AI研發及利用,就有了法律上倫理規範的依循,同時涉及AI的個別法律制定或修正,諸如智慧交通、智慧金融、智慧醫療等相關法律,也能有倫理規範的指引,成為AI法制建設的開端。例如,當AI基本法制定後,確立AI倫理規範,則發展智慧交通的AI倫理規範,就受AI基本法的倫理規範指引,與之相關的道路交通管理處罰條例、公路法等法律的修正,就具備足以依循的價值及政策取向。綜此可知,以臺灣AI發展的趨勢,制定AI基本法,並於其中確立AI倫理規範,應該是可行,且具有必要性的。