Daily News

數字辦公布生成式AI指引 劃分4級風險 醫療駕駛列「高風險」須人監督

【明報專訊】能生成文字、圖片、影片等內容的生成式人工智能(AI)技術愈趨普及,數字辦昨公布《生成式人工智能技術及應用指引》,就生成式AI的準確度、責任及資訊保安等範疇,為技術開發者、服務提供者及使用者提供指南。數字辦提及,《指引》參考了國際上廣受認可的人工智能治理模式,與新加坡及歐盟等司法管轄區相呼應,強調政府與行業在面對快速演進的科技時,應保留足夠彈性並提供必要指導。

數字辦:《指引》呼應新加坡歐盟

一連兩日的世界互聯網大會亞太峰會昨閉幕,會議內容不少與AI有關。數字政策專員黃志光昨在峰會論壇表示,冀透過公布《指引》,促進各方以安全及負責任方式發展及應用生成式AI技術,鼓勵創新應用同時減低風險。《指引》是由數字辦與InnoHK香港生成式人工智能研發中心(HKGAI)合作,由HKGAI透過其實際應用經驗,並蒐集不同持份者,包括院校、從事研發的公司意見而制定。

數字政策專員黃志光昨在世界互聯網大會亞太峰會的論壇致辭表示,政府制定《香港生成式人工智能技術及應用指引》並於昨日公布,冀促進業界與公眾以安全及負責任方式,發展及應用生成式AI技術。(楊柏賢攝)
數字政策專員黃志光昨在世界互聯網大會亞太峰會的論壇致辭表示,政府制定《香港生成式人工智能技術及應用指引》並於昨日公布,冀促進業界與公眾以安全及負責任方式,發展及應用生成式AI技術。(楊柏賢攝)

基建醫療駕駛應用「高風險」須人類監督

《指引》中文全文共33頁,其中建議建立「4層風險分類系統」,並按風險層級制定相應的管理機制。其中對社會構成生存威脅的系統,例如危害和影響市民安全的用途、潛意識操控等,屬「不可接受風險」,建議全面禁止。關鍵基礎設施系統,例如醫療診斷系統、自動駕駛技術等屬「高風險」,須有人類參與的監督機制,亦要就合規程度評估。至於人才招聘系統、教育AI應用等則屬「有限風險」,開發者有責任確保資訊透明;創意設計工具、垃圾郵件過濾系統等則屬「低風險」,則可依賴企業自行認證。

生成式AI帶來便利,但《指引》提到當中存在一些技術局限值得注意,舉例在模型訓練開發階段,算法設計缺陷、訓練數據不全面、不均衡,可產生算法及數據偏見,導致生成內容或決策時,存在特定偏好及傾向。同時生成式AI的數理能力仍較低,即使是處理「點算」任務,仍可能出現錯誤。

倡維護言論自由同時防範潛在風險

《指引》亦關注言論自由問題,提及使用生成式AI時要在「防範潛在風險」與「保障言論自由」之間取平衡,認為在維護受《基本法》保障的言論權利同時,當AI技術被用於非法活動時,包括生成「製造爆炸裝置或施襲手法」內容、猥褻內容、詐騙、擾亂公眾秩序等,應予禁止。

目前在各個行業均有可能應用生成式AI,《指引》就個別行業提出建議(見上表),包括使用生成式AI輔助診斷時應非常慎重,應明確告知使用者生成內容或有錯誤或虛構,生成內容應不能直接作為診斷報告,應由執業人員審核後作為參考。新聞行業方面,指引建議生成內容必須經事實查證和全文審核後,才能公開報道。

相關文章:孫東:政府正籌備成立香港人工智能研發院 以基金、政策鏈接全球創科人才