卡内基梅隆大学

最近,卡内基梅隆大学的研究人员提出了一种简单而有效的攻击方法,能够使大规模语言模型(LLM)产生不可接受的行为。他们的研究表明,通过在查询中添加后缀,可以大大增加开源和闭源语言模型生成肯定回答的可能性。论文地址:https://llm-attacks.org/zou2023universal.pdf研究人员成功地将这种攻击方法应用于各种语言模型,并在 Vicuna 上的99个实�...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。(反馈错误)

推荐关键词

最新资讯

24小时热搜

查看更多内容

大家正在看