[新聞] 韓國AI基本法上路 新創界憂法遵負擔沉重

作者: laptic (無明)   2026-01-22 17:49:08
標題: 韓國AI基本法上路 新創界憂法遵負擔沉重
新聞來源: https://www.cna.com.tw/news/aopl/202601220221.aspx
中央社 綜合首爾外電
韓國號稱全球首部全面性人工智慧(AI)監管法規今天上路,當局盼藉此加強對AI產業的
信任與安全。然而,新創界對此表達擔憂,認為法令遵循負擔恐將阻礙競爭力與創新。
路透社報導,首爾當局盼透過「AI基本法」(AI Basic Act)將韓國定位為該領域的領導
者。相較於歐洲聯盟(EU)的「AI法案」(AI Act),韓國的AI基本法生效時程明顯更早
。目前全球在AI監管方式上仍存分歧。美國傾向採取較輕微的監管措施,以免扼殺創新;
中國則已推出部分規定,並提議成立全球協調機構。
韓國新法的關鍵特色之一,是要求企業必須確保在「高影響力」AI領域中具備「人類監督
」。這類領域涵蓋核能安全、飲用水生產、交通運輸、醫療保健,以及信用評估、貸款審
核等金融應用。
其他規範還包括:企業若推出涉及高影響力或生成式AI的產品與服務,必須事先告知用戶
;若AI生成的內容與現實難以區分,則必須清楚標示。
韓國科學技術情報通信部(Ministry of Science and ICT)表示,該法律架構目的在推
動AI普及,同時建立安全與信任的基礎。此法案歷經廣泛諮詢,當局在正式開罰前,將提
供企業至少1年的寬限期。
違規罰款金額可能相當可觀。舉例而言,若未標示生成式AI內容,企業可能面臨最高3000
萬韓元(約新台幣65萬元)的罰鍰。
韓國科技部部長裴慶勳在記者會上表示,該法將為韓國躋身「全球AI三強」的目標提供「
關鍵性制度基礎」。裴慶勳曾任科技巨擘樂金集團(LG)的AI研究主管。
然而,韓國「新創聯盟」(Startup Alliance)共同負責人林正旭(譯音)指出,許多新
創業者對於關鍵細節尚未釐清感到沮喪。他表示:「業界多少有些怨言,為什麼我們要搶
頭香?」
新創聯盟資深研究員鄭珠妍(譯音)則認為,法規條文定義模糊,企業為規避監管風險,
可能會採取最保守的做法,反而限制發展。
對此,科技部計畫在寬限期內為企業設立指導平台與專門支援中心。科技部發言人說:「
此外,我們將持續研議如何減輕產業負擔。」並表示若國內外產業環境需要,當局將考慮
延長寬限期。(編譯:劉淑琴)
按:全名是《關於人工智能發展和建構信賴基礎的基本法》,內容重點:
一、立法目的與基本理念
核心目標
 ・促進人工智慧的健全發展與信任基礎建立
 ・保護國民的權益、尊嚴與基本權
 ・提升生活品質與國家競爭力
基本原則
 ・AI發展須兼顧安全性與可信賴性
 ・受影響者有權在技術可行範圍內,獲得有意義的解釋(可解釋性)
 ・國家須協助全民因應AI帶來的社會、經濟與文化變遷
二、適用範圍與域外效力
 ・即使行為發生於國外,只要影響韓國市場或使用者,即適用本法
 ・國防或國安專用AI(經政令指定)不適用
三、AI治理與政策推動體系
(一)AI基本計畫
 ・由科學技術情報通信部每3年制定
 ・涵蓋:
  ・AI政策方向與國家戰略
  ・人才培育、產業育成
  ・AI倫理、信任、透明、公平與安全
  ・公共資料作為訓練資料的開放與規範
  ・教育、勞動、市場變化因應
(二)國家人工智慧戰略委員會
 ・直屬總統
 ・職能包含:
  ・AI中長期戰略與政策整合
  ・高影響AI的規範與政策回應
  ・投資方向、法規改善、跨部會協調
 ・設有分科委員會、特別委員會與專家諮詢機制
四、人工智慧產業與技術發展促進
(一)技術研發與產業支援
 ・支援AI研發、測試、實證、商用化
 ・建立AI標準(含安全與可信性)
 ・建構與開放訓練資料(含公共資料)
 ・推動AI資料中心與實證基礎設施
(二)中小企業與新創優先
 ・中小企業、新創、微型企業為優先扶植對象
 ・提供:
  ・資金、教育、顧問
  ・安全與影響評估支援
  ・政府採購時優先考量AI產品/服務
(三)人才與國際合作
 ・系統性培育AI專業人才
 ・延攬海外人才
 ・推動國際合作、標準制定與海外市場拓展
五、AI倫理與信任機制
(一)國家層級AI倫理原則
 ・以人類尊嚴、生命安全、可近性、社會福祉為核心
 ・鼓勵各部會政策與倫理原則一致
(二)民間自律倫理委員會
 ・研究機構、企業可自設
 ・功能包括:
  ・倫理遵循審查
  ・人權與安全風險評估
  ・內部教育與倫理指引制定
六、高影響人工智慧(High-Impact AI)重點規範
(一)高影響AI定義
指可能對生命、安全、基本權產生重大影響的AI,例如:
 ・醫療、能源、水資源
 ・生物辨識(犯罪偵查、逮捕)
 ・招聘、貸款審查
 ・交通系統
 ・公共服務決策
 ・教育評量等
(二)高影響AI的主要義務
事前與持續性責任
 ・風險管理與人為監督
 ・提供可解釋性資訊
 ・建立使用者保護機制
 ・保存安全與可信措施相關文件
影響評估
 ・企業:努力進行基本權影響評估
 ・政府機關:優先使用完成影響評估的AI
檢驗與認證
 ・鼓勵事前安全與可信性驗證
 ・政府使用時優先選用通過驗證的AI
七、透明義務(特別針對生成式AI)
 ・必須事前告知:
  ・產品/服務是以AI為基礎
 ・生成內容必須標示:
  ・由生成式AI產生
 ・對「難以與真實區分的影音內容」(如深偽):
  ・必須以使用者可明確識別的方式標示
八、AI安全責任
 ・對高運算量AI系統:
  ・必須執行全生命週期風險管理
  ・建立事故監測與回應機制
  ・向主管機關提交執行結果
九、境外AI業者的國內代理人制度
 ・達到一定規模的境外AI業者,必須指定韓國國內代理人
 ・代理人負責:
  ・文件提交
  ・高影響AI確認
  ・安全措施支援
 ・違法責任仍歸屬原業者

Links booklink

Contact Us: admin [ a t ] ucptt.com