站长之家(ChinaZ.com) 6月29日消息:据安全公司 Surfshark 表示,第一个「AI 事故」差点引发了全球核战争。最近出现的 AI 事故、错误、欺诈和诈骗包括利用深度伪造技术影响政治、聊天机器人提供错误的健康信息,以及危及行人安全的自动驾驶汽车。
根据 Surfshark 的报告,最糟糕的违规者是特斯拉、Facebook 和 OpenAI,它们占所有已知 AI 事故的 24.5%。
1983 年,苏联的一个自动化系统误以为发现了来自美国的核导弹,差点引发全球冲突。这是 Surfshark 报告中的第一个事件(尽管 20 世纪 80 年代的自动化系统是否算作人工智能还存在争议)。
而在最近发生的事故中,美国国家饮食失调协会(NEDA)不得不关闭其聊天机器人 Tessa,因为 Tessa 给正在寻求饮食紊乱帮助的人提供了危险的建议。最近的其他事故包括特斯拉的自动驾驶系统未能注意到违反交通规则的行人,并且路易斯安那州警方因 Clearview AI 开发的面部识别系统误以为一个杰斐逊郡居民是另一人而错误逮捕了他。
Surfshark 表示,这些 AI 事件正在迅速增长。鉴于过去一年中对人工智能的投资和使用大幅增加,这并不令人震惊。根据软件评论服务 G2 的数据,从 2022 年 2 月到 2023 年 2 月,聊天机器人的搜索流量增长了 261%,而 G2 数据库中增长最快的三款软件产品均为人工智能产品。
「即使人们对人工智能的使用普遍持怀疑态度,78% 的受访者表示他们相信人工智能驱动的解决方案的准确性和可靠性。」G2 的代表基于最近针对 1700 名软件购买者的调查表示。
尽管存在这种信任,但 AI 事故数量从 2014 年至 2022 年的早期人工智能年平均 10 起增加到过去几年的年平均 79 起。这意味着在短短六年内增长了 690%,且增速正在加快。截至 2023 年 5 月,2022 年全年的事件数量已经达到了一半。
据安全公司 Surfshark 发言人 Elena Babarskaite 表示:「一个最近的明显例子是流传的教皇穿着白色色羽绒服的深度伪造图像,展示了通过 AI 图像生成器实现的惊人逼真效果。然而,其影响超出了娱乐,因为 AI 增强的虚假新闻在将来可能继续误导公众。其他更严重的 AI 事件甚至可能诱发种族主义、暴力或犯罪。」
事实上,Surfshark 列出的 520 个 AI 事故报告中,有 83 个使用了「黑人」一词,包括上述错误逮捕以及众所周知的 Facebook AI 工具将黑人男性标记为「灵长类动物」的事件。
一些偏见正在从 AI 系统中消除,但很明显,在大规模追求向一切添加人工智能的过程中,安全和公平并不总是关键考虑因素。
至于占已记录人工智能事件 25% 的 Facebook、特斯拉和 OpenAI,它们面临的挑战包括 Facebook 的算法无法发现暴力内容,以及诈骗者利用 Facebook 上的深度伪造图像和视频来诈骗人们。
特斯拉的 AI 问题主要集中在该公司的 Autopilot 和全自动驾驶软件产品上,可能会突然刹车(导致 2022 年底在旧金山发生了一起八车相撞事故)或者未能注意到前方的车辆和行人。OpenAI 的挑战主要涉及在训练中使用的数据隐私以及 OpenAI 用户的隐私。