总结当前开源可用的Instruct/Prompt Tuning数据

作者 | 李雨承 单位 | 英国萨里大学  研究方向 | Conceptual Reasoning

转:NewBeeNLP

最近在做大模型的尝试和评测,之前写了一篇总结可用大模型的文章,反响很好,有很多有价值的反馈:

https://zhuanlan.zhihu.com/p/611403556

本文总结开源可用的 Instruct Prompt 数据(截止19.03.2023)。

2a8d73ec7c339a4e1820124db5f22bca.png

456a511f89c34849f2f1e9d3681a4adc.png


Natural Instruction/Super-Natural Instruction-Allen AI

Allen AI. 是第一批尝试 Instruction 做 prompt 并微调 LLMs 的机构。

在 Natural Instruction 论文里可以基本了解 instruction 的标注思路:

https://aclanthology.org/2022.acl-long.244.pdf

在其提出的数据集中,包含了 61 和不同的 NLP tasks。

扫描二维码关注公众号,回复: 16209332 查看本文章

Super-Natural Instruction 是 Natural Instruction 的超级加量版,其包含了超过 1600 个不同的 NLP 任务,光是不同种类的 NLP 任务(例如:分类,抽取,序列标注)就超过 76 个:

https://arxiv.org/pdf/2204.07705.pdf

Natural/Super-Natural Instruction 数据均在以下网址开源:

https://instructions.apps.allenai.org/

bca5c1a5294bcffc65b3e90a5932455b.png

PromptSource/P3-BigScience

BigScience 由 Hugging Face 和法国 CNRS,IDRIS,GENCI 等联合组织,是当下最大的开源 LLMs 组织之一。

BigScience 在 2021 年末开发了PromptSource项目,开源了一系列工具 toolkits,帮助研究者基于现有NLP 任务构建 prompt。截止目前,PromptSource 项目包含了 270 个 NLP 任务的超过 2000 个 prompt 模版:

https://github.com/bigscience-workshop/promptsource

在此基础上,BigScience 构建了 P3 数据集。在 Hugging Face Hub 上你可以找到 P3 数据,P3 的数据规模在 100M-1B 之间:

https://huggingface.co/datasets/bigscience/P3

47190197f5a641447c4a95b83ff00b55.png

xMTF - BigScience

BigScience 在英语 prompt 的基础上,扩展其 prompt 到多种非英语语言。

https://arxiv.org/pdf/2211.01786.pdf

https://github.com/bigscience-workshop/xmtf

该项目包含了 13 个 NLP 任务,并采用了 46 个不同的语言的版本。对应的 prompt 包含的语种个数不定。

在 multilingual 的基础上微调后,BLOOM 和 T0 都变现出了理想的多语言能力。

7b47935531a940fd3c07335bc712baf0.png

HH-RLHF - Anthropic

Anthropic 公司旗下的 Claud 是 ChatGPT 的主要竞品之一。

Anthropic 开源了其在自己产品线中使用的 RLHF 数据集:

https://huggingface.co/datasets/Anthropic/hh-rlhf

HH-RLHF 项目的初衷在于训练 Helpful and Harmless(HH)的 LLMs。故该项目除了回复质量外,是否为有害信息也体现在了其 human feedback 中:

https://arxiv.org/pdf/2204.05862.pdf

论文中记录了如何使用 RLHF 数据 Align 模型的 behaviour 到人类的价值观上,同时记录了数据集的构建方式和标准。

038b9ce9ed52c3f71f4188d7722a5aa9.png


Unnatural Instruction

https://arxiv.org/pdf/2212.09689.pdf

https://github.com/orhonovich/unnatural-instructions

使用 LLMs 自主生成 instruction 数据是 instruct-tuning 领域较为活跃的一个方向。

Unnatural Instruction 使用 GPT3(text-davinci-002)生成了 64k 的 instruction prompt 数据。并使用同样的模型将 64k 的 prompt 进行改写,最终得到了 240k 条 instruction 数据。

论文中显示,在 Instruct-Tuning 中 LLMs 自主生成的 prompt 表现出了良好的效果,甚至超过了在 P3 等数据上进行微调的 T0 等模型。

bebd6ce544b20e514f92ec6c5deacec6.png


Self-Instruct

https://arxiv.org/pdf/2212.10560.pdf

https://github.com/yizhongw/self-instruct

Self-Instruct 同样是使用 LLMs 生成 prompt 进行 instruct-tuning 的思路。不过使用了更 fine-grained 的生成流程。

Task pool 和 Quality filtering 等概念被引入,部分缓解了 self-intrauct 类型数据的 noise 问题。

b52c5b633948eb8ad4f1486058fa8f89.png


UnifiedSKG - HKU

https://arxiv.org/pdf/2201.05966.pdf

UnifiedSKG 在 Text-to-Text 的框架中加入了 knowledge grounding,也就是在 prompt-output 的框架中,加入了结构化数据做辅助。

举个例子,某些 NLP 任务非常依赖结构化的知识库/数据库。UnifiedSKG 的思路是将需要的数据库序列化,并嵌入到 prompt 中。如下图所示。

3d8eeab80b0c2424e22f74d50ebc6234.png

UnifiedSKG 代表了 LLMs 领域中尝试使用结构化知识增强性能的一个方向。

我在 EMNLP 上和作者本人聊天时,被这个项目的思路吸引,感觉这是个很有前途的方向(好像作者本人也在知乎,当时忘了加好友很可惜)。

该项目的网站如下,网站上有较为详细的使用说明:

https://unifiedskg.com/

25732bdd95dce73946c75c9df23b9feb.png


Flan Collection-Google

Google 在这个项目中将自己的 Flan 2021 数据与一些开源的 instruction 数据(P3,super-natural instruction 等)进行了合并:

https://github.com/google-research/FLAN/tree/main/flan/v2

https://arxiv.org/pdf/2301.13688.pdf

在 Flan Collection 的论文中,google 也总结了 Flan 系列模型训练/推理中的一些关键点,可能会有不错的参考价值。

8c85a172679f882bf9b4bc2374bd4cbf.png


InstructDial

https://arxiv.org/pdf/2205.12673.pdf

https://github.com/prakharguptaz/Instructdial/tree/main/datasets

InstructDial 是在特定的一种任务类型上进行指令微调的尝试。实验结果表明,在对话指令数据上微调后,模型在对话任务上的表现强于在超大规模任务集上的结果。

184abb3020f3ed54a96046ddbc387332.png


Alpaca -Stanford

https://github.com/tatsu-lab/stanford_alpaca

Stanford release 的 Alpaca 是在 Meta Ai LLaMA 模型基础上进行 instruct-tuning 的微调模型。

Alpaca 使用 GPT-3.5 自动生成了 52k 的指令数据,并用其微调 LLaMA 模型。实验结果表明,其能够达到/甚至超过 GPT-3.5 在一些任务上的效果。

推荐阅读:

我的2022届互联网校招分享

我的2021总结

浅谈算法岗和开发岗的区别

互联网校招研发薪资汇总

2022届互联网求职现状,金9银10快变成铜9铁10!!

公众号:AI蜗牛车

保持谦逊、保持自律、保持进步

c85c651781329e7c196735c17c65d8df.jpeg

发送【蜗牛】获取一份《手把手AI项目》(AI蜗牛车著)

发送【1222】获取一份不错的leetcode刷题笔记

发送【AI四大名著】获取四本经典AI电子书

猜你喜欢

转载自blog.csdn.net/qq_33431368/article/details/132267625