随着AI大模型技术的蓬勃发展,各行各业的工作效率正在显著提高。
比如在编程领域,AI工具不仅能辅助编写代码,还能高效解决程序漏洞,成为程序员的得力助手。
然而,近日发生的事件引发了人们对AI安全性的担忧。
据悉,一位英国程序员在使用GPT生成的代码时遭遇损失。他按照GPT提供的代码操作,私钥被泄露给钓鱼网站,导致损失2500美元。
网友"余弦"发文警示,在使用GPT等大型语言模型时需保持警惕,因为它们存在欺骗风险。
分析发现,GPT生成代码时引用了一个来自GitHub的恶意项目,这是一场精心设计的钓鱼"陷阱"。
不幸的是,GPT在事件中成为无辜受害者,但其生成的代码给用户带来了严重后果。
此次事件表明,我们在享受AI便利的同时,也必须关注其潜在安全风险。开发者在使用AI辅助工具时应保持谨慎,避免盲目信任机器生成的代码或建议。