生成式人工智慧(Generative AI,簡稱 GenAI)模型,例如 ChatGPT,已成為現代生活的一部分,但也伴隨著嚴重的私隱風險。當我們為了獲得更精準的回應,在輸入提示中提供敏感資訊時,這些資料可能會被搜尋引擎收錄並公開。即使 GenAI 服務供應商沒有惡意,他們仍可能從中掌握這些敏感資訊,這並非樂見的。
為了解決這個問題,本專案提出一系列清理機制,目標是在保護資料不外洩的同時,確保輸入提示對 GenAI 模型仍具備足夠的可用性。我們將開發多種清理演算法,包含:以香港為中心的格式保留加密、大語言模型效用知覺度量局部差分隱私、基於情境學習的清理算法。這些技術能夠將使用者輸入的提示轉換為已清理的版本,協助使用者在私隱保護與回應實用性之間取得最佳平衡。
我們的研究成果將有助於創造更安全的數位環境,讓個人與企業能夠安心使GenAI 技術,而無需擔心個人或專有資料被洩露。本專案提出的解決方案將有效降低與 GenAI 服務相關的私隱風險,讓從個人到大型企業的任何使用者都能從中受益。
項目資料庫
提高個人資料隱私的智慧清理流程
打印
| 項目簡介 |
更多資訊
| 項目編號 | ITP/072/25LP |
| 項目統籌員 | 岑松德博士 |
| 資助金額 | 港幣二百七十九萬 |
| 項目週期 | 2026年1月1日 - 2026年12月31日 |





