一、背景
2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些高度专业化的工作,比如法律服务和医疗诊断咨询。然而,正如任何新技术一样,LLM 也带来了新的挑战和问题。我们如何确保它们的安全性,如何防止它们被用于不良目的?这些都是亟待解决的问题。
在本文中,无恒实验室以应用安全工程师的视角,汇总梳理有关 LLM 的原理和基础知识,以赋能安全工程师为后续新型使用 LLM 的产品的信息安全保驾护航。
二、了解LLM
2.1 LLM 基本原理的概念性解释
免责声明:
本章节专注于在宏观概念的高维逻辑层面向读者粗略解释 LLM 的工作原理,其描述可能与 LLM 的具体实现存在一定差异。严格地说,LLM 对词元(token) 而非单词(word)进行操作,但我们将忽略这些实现细节,以将文章保持在合理的长度。
如果你过去对 LLM 这个话题有所了解,你可能听说过 LLM 可以简化理解成 “词语接龙” 预测器 (next token predictor),但大多数解释常常止步于此, LLM 如何预测下一个单词的细节通常被视为一个深深的谜团。
词嵌入(embedding)与词向量(word vector)
要了解 LLM 的工作原理,首先需要了解它们如何表示单词。人类用一系列字母表示单词,例如 C-A-T 表示猫(cat)。语言模型则使用一长串数字表示单词,我们称之为词向量(word vector)。词嵌入(embedding)则是一种将离散的符号(比如单词)映射到连续的向量空间中的技术。每个单词都会被映射到一个高维度的向量,这个向量就是这个词的”embedding”。
例如,以下是将 cat 表示为向量的一种方法 (cat 的 embedding):
[0.0074, 0.0030, -0.0105, 0.0742, …, 0.0002]
(此处完整的 cat 的词向量有 300 个维度,这里只取部分展示;依据具体词嵌入模型的差异,不同词嵌入模型构造的词向量维度不同,常见的维度有 300, 1000, 1536 等)
当我们选定了一个词嵌入模型时,这个词嵌入模型可以将一个单词映射成一个词向量。每个词向量代表 “词空间” (word space)中的一个点,并且具有相似含义的单词会在词空间被放置在更接近的位置。例如,词空间中最接近 cat 的单词包括 dog、kitten 和 pet。用实数向量表示单词的一个关键优点是,我们可以进一步对词向量进行语义计算。
几十年来,研究人员一直在试验词向量,但谷歌在2013年宣布其 word2vec 项目时,这个概念才真正为人们所熟知。谷歌分析了从谷歌新闻中收集的数百万份文档,以确定哪些单词倾向于出现在类似的句子中。随着时间的流逝,一个经过训练的神经网络可以预测某个单词倾向于与哪些其他单词同时出现,从而学会了在向量空间中将相似的单词(如 dog 和 cat )放在一起。
谷歌的词向量还有另一个有趣的特性:它可以帮助人们使用量化方法计算单词的语义。例如,谷歌研究人员取了 biggest 的向量,减去 big 的向量,然后加上 small 的向量,其结果最接近于 smallest 的向量。
谷歌的词向量还捕捉到了许多其他关系:
- Swiss is to Switzerland as Cambodian is to Cambodia.
瑞士人之于瑞士,就像柬埔寨人之于柬埔寨。(国家)
- Paris is to France as Berlin is to Germany.
巴黎之于法国,就像柏林之于德国。(首都)
总之,词嵌入与词向量相关的技术是 LLM 重要的组成模块之一,它实现了从单词到(神经网络可处理的)向量的编码,并且在编码过程中捕获了单词的语义信息。
Transformer 功能
Transformer 的结构
在前述词嵌入 (embedding) 算法的支持下,模型能够实现从单词到词向量的转化,从而解决了将文本输入到神经网络中进行计算的第一步。接下来会介绍 Transformer 结构在 GPT 架构的 LLM 中的作用。
GPT-3 是 ChatGPT 发布前的更早版本的模型,它有数十层。每一层都采用一组向量作为输入(输入文本中每个单词对应一个向量),模型的每一层都会在每个词对应的词向量中添加信息,以帮助阐明该单词的语义并帮助整个模型更好地预测下一个单词。
Transformer 各层功能示意图
LLM 的每一层都是一个 transfromer。 Transformer 是一种神经网络架构,由谷歌在 2017 年一篇具有里程碑意义的论文 Attention Is All You Need 中首次引入。
如图所示,模型的输入(显示在图的底部)是一个不完整的句子 “John wants his bank to cash the “。这句话中的每一个单词,都会被转化成一个类似 word2vec 样式的词向量,被送到第一层的 transformer 中。
第一层 transformer 发现 wants 和 cash 都是动词(这两个词既可以作为动词使用,也可以作为名词使用;但在当前上下文中是作为动词使用的)。我们在括号中将添加的上下文表示为红色文本,但实际上,该模型会通过以人类难以解释的方式修改对应单词的词向量来存储它。这些新的向量(称为隐藏状态, hidden state)被传递到堆栈中的下一层 transformer 。
第二层 transformer 增加了另外两个上下文:它澄清了 bank 指的是金融机构而不是河岸,并且 his 的代词指的是John。第二层 transformer 生成另一组隐藏状态向量,这些向量反映了模型到目前为止所学到的所有内容。
以上图片描绘的是一个纯粹假设的 LLM,所以不要把细节看得太重。真实的 LLM 往往有两层以上的 transformer, 比如 GPT-3 有 96 层 transformer。
GPT-3 结构图(部分)
https://dugas.ch/artificial_curiosity/img/GPT_architecture/fullarch.png
研究表明,前几层 tranformer 的重点是理解句子的语法和解决歧义,就像上面图片展示的那样。更后面的 transformer 层则致力于发展对整个段落的高级理解。例如,当 LLM 通读一篇小说时,它似乎会跟踪有关故事人物的各种信息:包括性别和年龄、与其他角色的关系、过去和现在的位置、个性和目标等等。研究人员并不确切地了解 LLM 如何跟踪这些信息,但从逻辑上讲,模型必须通过修改隐藏状态向量来做到这一点,因为它们从一层传递到下一层。在现代 LLM 中,这些向量的维度会非常大。
例如,GPT-3 使用具有 12,288 个维度的词向量——也就是说,每个单词由 12,288 个数字的列表表示。这比谷歌 2013 年的 word2vec 的结构大 20 倍。你可以把所有这些额外的维度看作是一种 “暂存空间” (scratch space),GPT-3 可以用它来给自己写关于每个单词上下文的注释。前几层所做的笔记可以被后几层读取和修改,使模型能够逐渐加深对整个段落的理解。
因此,假设修改上面的图,以描述一个 96 层的 LLM 来解释一个 1,000 字的故事。第 60 层可能包含一个 John 的向量,其中包含括号注释,例如”(主角,男性,与 Cheryl 有婚姻关系,Donald 的表兄,来自明尼苏达,目前在 Boise ,试图找到他丢失的钱包)”。同样,所有这些事实(可能还有更多)都会以某种方式被编码为与 John 这个词相对应的 12,288 个数字的列表中。或者,其中一些信息可能被编码在 Cheryl、Donald、Boise、wallet 或故事中的其他单词对应的词向量中。
最终目标是让网络的第 96 层,也就是最后一层,输出最后一个单词的隐藏状态向量时,保证这个隐藏状态向量已包含用于预测下一个单词所需的所有信息。
2.2 GPT 是如何被训练的
关于 ChatGPT 以及之后的 GPT-4 的训练过程我们可能不得而知,不过可以从 GPT-3 的论文 Language Models are Few-Shot Learners 、以及 Andrej Karpathy 的 Youtube 频道中对 LLM 的介绍看到一些”轨迹”。
简而言之,GPT 的训练过程可以分成两个阶段,第一个阶段是基座模型的预训练 (pre-training),第二个阶段是微调(fine-tuning)。
预训练(pre-training)
在预训练阶段,首先需要准备大量的文本数据。这些数据可以来自各种来源,比如网页、书籍、文章等。LLM 会从这些数据中学习语言的模式和结构。
预训练的目标是让基座模型(base model)成为一个有效的“词语接龙”预测器(next token predictor)。这意味着,给定一个单词或一个单词的序列,模型需要预测下一个词是什么。这个过程是自回归的,在预测下一个词时,模型会将前面的所有单词作为输入。
例如,假设我们有一个句子”今天是个好天气,我准备去…”,我们想让 LLM 预测下一个词。模型会考虑到前面的所有词,然后预测下一个词可能是”公园”、”超市”、”图书馆”等。预测的方式是基于模型在预训练阶段学习到的语言模式和结构的统计概率分布。
在预训练阶段,GPT 模型会通过大量的文本数据进行训练,不断调整其内部参数,以便更准确地预测下一个词。这个过程需要大量的计算资源(比如GPU)和时间。预训练完成后,我们就得到了一个基座模型,它已经学会了语言的基本规则和模式。
预训练阶段的数据集
当模型的结构固定时,影响模型输出质量的最重要的因素或许就是训练数据的质量。在 GPT-3 的论文中,提到其训练数据主要有五个部分:
CommonCrawl: 整个互联网的 HTML 数据集。包含超过 32 亿个网页,里面还有大量的专利申请文档。
WebText2: 这是 OpenAI 自己构建的一个网页文本数据集。WebText2 数据集主要从互联网上抓取的各种网页中提取文本信息,包括新闻、博客、论坛等多种类型的网页,其中包含超过 4500w+ 个高质量的 reddit 页面。
Books1 & Books2: 可能涉及1920年之前写的所有书籍和文学作品(以规避版权风险),还有一些其他无版权自出版的书籍。
Wikipedia: 维基百科。
GPT-3 的训练数据集
CommonCrawl 的构成
微调(fine-tuning)
模型的训练第二阶段是模型的微调(fine-tuning)过程。在这个阶段,需要利用专门标注的数据对模型进行进一步的训练和优化。
- 首先,需要编写标注指南,这是一份详细的文档,指导人类标注员如何回答各种类型的问题,以及如何进行对比评估。
- 然后,需要雇佣人类标注员,标注员会根据这份指南,提供大约 100,000 个高质量的理想问答对,或者进行模型输出的对比评估。
- 接下来,使用这些数据对预训练的基座模型(base model)进行微调,大约需要一天的时间。
- 通过这个过程,能够得到一个助手模型(assitant model),这个模型已经被训练过,可以理解和生成自然语言,而且能够根据我们的需求提供有用的回答。
- 在模型训练完成后,会进行大量的评估,确保模型的表现达到我们的预期。
- 最后,部署这个模型,让它开始为用户提供服务。
- 在服务过程中,需要持续监控模型的表现,收集可能出现的问题,并根据这些反馈进行持续的优化和迭代。
基座模型与助手模型的区别
在刚才的微调过程介绍中,会提到两个概念:基座模型(base model)和助手模型(assitant model)。
基座模型指的是在预训练阶段得到的模型。在这个阶段,模型会使用大量的文本数据进行训练,目标是学习语言的基本规则和模式。基座模型通常是一个通用的语言模型,它可以理解和生成各种各样的文本,但并没有特定的任务或目标,或者说,基座模型缺乏遵循指令的能力(instruction-following)。举一些更具体的例子:
示例:如果我们要求一个基座模型 “Write a poem about the moon”,它可能根本不会生成一首诗。相反,它可能会开始写关于月亮的事实描述或关于其形成的科学解释。这是因为基座模型只学会了”词语接龙”,无法理解以诗歌风格写关于月亮的相关话题的指令。
经过微调的助手模型规避了基座模型的上述缺陷,具备更好的指令遵循能力。
微调阶段的数据集示例
微调阶段的数据集通常包括 指令、输入、预期输出等信息,以下是 alpaca 的微调时的数据集。
Alpaca 指令微调(instruction-tuning)数据集示例
在微调阶段的标注过程中,除了类似 Alpaca 这种给定输入和输出的微调方式外,还有一种数据构造成本更低的方式,即比较(comparisons)。我们会给模型提供一个输入,然后让模型生成多个可能的响应。然后会让人类标注员根据一套预先定义的标准,对这些响应进行排序。
基于比较排序方式标注的微调数据集示例
三、LLM 的已知缺陷
虽然领先的 LLM 已经以高分通过了大量人类考试,但它们并不是完美的,接下来我们会介绍一些LLM 的已知缺陷。
3.1 模型幻觉(hallucination)
模型幻觉 (hallucination) 指模型生成的信息并不真实,或者说是”臆想出来的”, 它有时会生成看似合理,但实际上并不存在的内容。这主要是因为模型在生成文本时,只是根据学习到的数据的统计模式进行推断,而不是基于对真实世界的理解。例如,模型可能会错误地声称某位历史人物在不可能的年代出生或死亡,此外也有编造论文标题、编造网页链接的情况。
举一个现实的案例
2023年6月,律师 Steven A. Schwartz 和 Peter LoDuca 因提交 ChatGPT 生成的法律简报而被罚款 5000 美元,其中包括对不存在案件的引用。美国地方法官强调,虽然 AI 援助并不被禁止,但所有 AI 生成的文件都必须检查准确性。
律师使用 ChatGPT 生成的法律简报被处罚
3.2 逆转诅咒(reversal curse)
逆转诅咒示例
逆转诅咒 (reversal curse) 是指 LLM 无法逆转他们训练时的因果陈述,如果 LLM 是在 “A is B” 上训练的,它无法直接推理出 “B is A” 。
比如,在图中,我们先问 LLM “Who is Tom Cruise’s mother?”,LLM 快速回答了正确的答案 “Mary Lee Pfeiffer”;但当我们反问 “Who is Mary Lee Pfeiffer’s son ?” 时, LLM 却无法回答。
Andrej Karpathy 认为逆转诅咒的现象某种程度上暴露了 LLM 推理能力的根本缺陷。这种现象的出现或许表明,LLM 严重依赖统计模式,而没有发展出对信息的因果理解。LLM 的知识比人们想象的要”零散”得多,它更多时候在输出统计意义上貌似合理的内容 (statistically plausible) 。
3.3 遗忘中间 (lost in the middle)
遗忘中间 (lost in the middle) 是指 LLM 虽然具备一定长度的上下文(context)窗口 。但在真实使用时,研究人员观察到当相关信息出现在输入上下文的开头或结尾时,性能通常最高,而当模型需要在长篇上下文的中间获取相关信息时,性能会显著下降。
为了解释这个特性,我们需要介绍一个评估 LLM 长上下文记忆能力的实验,大海捞针(NIAH, needle in a haystack)实验。在这个实验中,模型的任务是在更大的上下文(”干草堆/大海”)中识别特定的信息(”针”)。NIAH 已经受到了广泛的关注,Google 和 Anthropic 都采用了它来对 Gemini 1.5 和 Claude 3 进行测试。
NIAH 的基准测试过程主要包括以下步骤:
- 定义任务:首先,需要定义模型需要完成的任务。这个任务通常是在大量的文本中找出特定的信息。例如,可以要求模型在一篇巨大的文本中找出某个人的出生日期。
- 运行模型:然后,将任务输入模型,让模型运行并生成结果。模型的运行可能需要一定的时间,取决于模型的复杂度和任务的难度。
- 评估结果:最后,需要评估模型的结果。这通常包括两个方面:一是结果的准确性,即模型是否找到了正确的信息;二是结果的完整性,即模型是否找到了所有相关的信息。
GPT-4 NIAH benchmark 结果
上图提供了一个 GPT-4 的 NIAH 测试结果,从图中可以观察到,当输入文本长度超过 100K 时:如果”针”被插入在文本开始或文本结尾时,模型均可准确捕获;但当”针”被插入在文档前部 10-50% 的部分时,捕获准确率开始下降。
四、LLM 的应用安全
4.1 监管动态
在LLM的行业监管方面,各国政府陆续出台了相关政策法案,总的来说,各国的监管标准都在强调 AI 的安全和可信的重要性,强调保护用户个人信息和权利的必要性,以及在AI的开发和应用中遵守法律和道德准则。
4.2 LLM 的应用安全风险
LLM 这类新兴技术的广泛使用,在信息安全视角也带来了新的攻击面。 这些新的攻击面在 OWASP Top 10 for LLM Applications 和 Lakera Blog 有着较完善的总结。本文会着重介绍两个比较有趣的风险,提示词注入(prompt injection)与越狱(jailbreaking)。
提示词注入(Prompt Injection)
提示词注入(prompt injection)与我们在信息安全领域常见的其他注入攻击并无太大差异。它是将指令和数据连接在一起进入引擎执行的结果,当底层引擎无法区分指令和数据时,便产生了有效的注入攻击。攻击者可以在他们控制的数据字段中插入指令,从而诱导底层引擎执行非预期的指令操作。在这个关于注入攻击的通用定义中,我们可以将提示工程(prompt engineering)所使用的提示词(prompt)作为指令,并将Input 部分提供的信息视为数据。
举个例子,假设有一个系统使用 LLM 来检测仇恨言论,我们在系统中可能会将以下输入传输给 LLM
此时,攻击者可以输入以下内容来规避检测。
执行结果如下图,黑色文本为系统提示词(prompt),红色文本为用户输入,绿色文本为 LLM 输出。
仇恨言论检测提示词注入示例
在 GPTs 刚发布时,有一些更具危害的实际案例。攻击者可以通过提示词注入来窃取其他开发者开发的 GPTs 的核心提示词。
GPTs 的 prompt injection 案例
https://x.com/dotey/status/1722809896188440805
越狱(JailBreaking)
“越狱”(JailBreaking) 的概念最初是指绕过 Apple 设备 的 iOS 系统中的软件限制,允许用户安装未正式上架 app store 的应用,并且取得操作系统的 root 权限。虽然许多人认为越狱令人兴奋,但它也引发了对用户数据安全和潜在滥用的担忧。快进到今天,”越狱” 这个词在 AI 领域中找到了一个新的应用场景。在 AI 领域,越狱指的是绕过 LLM 原始供应商(比如 OpenAI) 施加给 LLM 的内容围栏,从而导致不可预测和潜在有害的输出。
LLM 越狱示例
如图所示,当左边用户向 LLM 咨询如何制作燃烧弹时,LLM 拦截了有害内容的生成;在右边恶意用户则使用了角色扮演的技巧,要求 LLM 扮演前化学工程师的奶奶,以讲睡前故事的方式诱导 LLM 输出了有害内容。
越狱提示词的构造思路
在 Jailbroken: How Does LLM Safety Training Fail 中,作者介绍了一些越狱提示词的构造思路,这种思路的来源或许与 LLM 的训练目标是息息相关的。
在本文先前的 LLM 原理章节,我们介绍过基座模型的训练目标是词语接龙,助手模型的训练目标则是指令遵循。当 LLM 给用户正式使用前,我们有理由相信在助手模型的基础上,还进行了内容围栏的微调。此时,我们会发现,LLM 模型在训练过程中,不同阶段的训练目标是存在竞争和冲突的。利用这些训练目标的冲突,我们可以通过提示词引导强化 LLM 在词语接龙和指令遵循上的特性,弱化内容围栏的特性,从而达成越狱效果。
假设我们采用强化词语接龙的特性的思路,让词语接龙的目标优先级高于内容围栏的优先级,则引出第一种构造越狱提示词的思路,前缀注入(prefix injection)。即在提示词中添加指令约束 LLM 回答的前缀。比如要求 LLM 的回答以 “Absolutely! Here’s” 这种肯定的语气开头。
前缀注入示例
假设我们采用强化指令遵循的特性的思路,让指令遵循的目标优先级高于内容围栏的优先级,则引出第二种构造越狱提示词的思路,拒绝抑制(refusal suppression)。即在提示词中添加指令约束禁止 LLM 在回答中添加拒绝类的词语。
拒绝抑制示例
五、小结
通过前文的介绍,我们了解了 LLM 的基本原理、GPT 的训练过程、LLM 的缺陷,以及与 LLM 应用安全相关的监管态度和常见的应用安全风险。LLM 在今天显然已成为技术进步的象征,既具有巨大的潜力,也具有固有的风险。采取适当的应用安全措施保护这些模型是迫切需要的。企业需要始终保持警惕,积极主动地采取适当的防御性措施。未来 LLM 的发展潜力或许取决于我们能否打造一个生态系统,让创新在严格的安全措施范围内蓬勃发展。
六、关于无恒实验室
无恒实验室是由字节跳动资深安全研究人员组成的专业攻防研究实验室,致力于为字节跳动旗下产品与业务保驾护航。通过漏洞挖掘、实战演练、黑产打击、应急响应等手段,不断提升公司基础安全、业务安全水位,极力降低安全事件对业务和公司的影响程度。
无恒实验室希望持续与业界共享研究成果,协助企业避免遭受安全风险,亦望能与业内同行共同合作,为网络安全行业的发展做出贡献。
发表评论
您还未登录,请先登录。
登录