生成式人工智慧(Generative AI,简称 GenAI)模型,例如 ChatGPT,已成为现代生活的一部分,但也伴随着严重的私隐风险。当我们为了获得更精准的回应,在输入提示中提供敏感资讯时,这些资料可能会被搜寻引擎收录並公开。即使 GenAI 服务供应商沒有恶意,他们仍可能从中掌握这些敏感资讯,这並非乐见的。
为了解决这个问题,本专案提出一系列清理机制,目标是在保护资料不外洩的同时,确保输入提示对 GenAI 模型仍具备足够的可用性。我们将开发多种清理演算法,包含:以香港为中心的格式保留加密、大语言模型效用知觉度量局部差分隐私、基于情境学习的清理算法。这些技术能够将使用者输入的提示转换为已清理的版本,协助使用者在私隐保护与回应实用性之间取得最佳平衡。
我们的研究成果将有助于创造更安全的数位环境,让个人与企业能够安心使GenAI 技术,而无需担心个人或专有资料被洩露。本专案提出的解决方案将有效降低与 GenAI 服务相关的私隐风险,让从个人到大型企业的任何使用者都能从中受益。
项目资料库
提高个人资料隐私的智慧清理流程
打印
| 项目简介 |
更多资讯
| 项目编号 | ITP/072/25LP |
| 项目统筹员 | 岑松德博士 |
| 资助金额 | 港币二百七十九万 |
| 项目週期 | 2026年1月1日 - 2026年12月31日 |





