专家警告:5件事绝不要告诉ChatGPT

ETtoday 2025-04-16 08:12+-

随著人工智慧(AI)聊天机器人蓬勃发展,人们开始向ChatGPT等聊天机器人倾诉各种疑难杂症,包括谘询感情困扰、撰写电子邮件、把狗狗的照片变成人类等等。但专家指出,有5件事情显然永远不应该告诉AI,例如在工作上应用时,就可能不小心泄露企业机密。

斯坦福大学“人本人工智慧研究中心”(HAI)研究员珍妮佛(Jennifer King)向《华尔街日报》表示,当你向聊天机器人输入一些东西时,“你就失去了对它的掌控权”。

1、企业资讯

如果你在工作中使用ChatGPT或其他AI聊天机器人,例如撰写电子邮件或编辑文件,可能不小心暴露客户资料或非公开商业机密。一些公司会订阅企业版AI聊天机器人,或者拥有具备保护措施的客制化AI程式,相对能够防止这类问题。

2、医疗结果

尽管医疗业非常重视患者隐私,会严格保护患者个资并且防止歧视,但AI聊天机器人通常不包括在此范围内。如果你觉得有必要请ChatGPT解释医疗检测结果,建议在上传文件之前,事先剪裁或编辑,“只保留检测结果”的部分就好。

3、登入资讯

一些人可能认为,随著AI执行任务的能力有所提高,可以放心把各种平台的帐号密码交给它们,但AI机器人不是保险箱,也不能保证这些帐号的安全,把这些资讯输入“密码管理工具”,才是更好的选择。

▲▼ 打字,筆記型電腦,筆電,工作,上班,辦公。(圖/CFP)

4、身分资讯

不要向ChatGPT揭露任何身分资讯,例如生日、地址、电话号码、身分证字号、护照号码等。尽管一些聊天机器人会对这些敏感资讯进行编辑,但更安全的方法就是完全避免分享这些资讯。

OpenAI一名发言人向《华尔街日报》表示,“我们希望我们的AI模型了解世界,而不是个人。我们积极减少搜集个人资讯。”

5、金融帐号

绝对不要提供你的银行或投资帐号,这个资讯可能被骇客入侵,导致资金流向遭到监控或盗用。

事实上,OpenAI在官网写道,“请不要在你的对话中分享任何敏感资讯”,Google也在AI聊天机器人Gemini的页面呼吁使用者不要输入“你不希望审查员看到的机密资讯或任何数据。”

如果仍想和AI分享私密资讯,建议更换成高强度密码,并且启用多重要素验证。人工智慧公司“Anthropic”首席执行长克林顿(Jason Clinton)建议,可以在每次使用完毕之后“删除对话框”,企业通常会在30天之后,永久删除这些数据。