Finisky Garden

NLP, 软件工程, 产品设计

一篇有趣的综述文章,写于ChatGPT问世一周年之时,总结了开源大型语言模型(LLM)在过去一年中的发展情况。首先介绍了开源LLM的兴起,以及它们如何在各种自然语言处理任务中取得了显著的进展。然后讨论了开源LLM与闭源LLM之间的竞争,以及它们在性能和应用方面的差异。文中提到了一些具体的研究成果和进展,包括知识获取、情感分析、代码生成等。最后,论文探讨了开源LLM的未来发展方向,以及在伦理和安全方面的挑战和应对措施。

# ChatGPT's One-year Anniversary: Are Open-Source Large Language Models Catching up?

阅读全文 »

过去半年,MSR发布了一套名为Phi的小模型(SLMs),取得了卓越的性能表现。其中第一个模型,1.3B 的Phi-1,实现了在现有SLMs中对Python编码的最佳性能(在HumanEval和MBPP数据集上)。随后,他们将注意力扩展到常识推理和语言理解,并创建了一个新的 1.3B 模型,命名为Phi-1.5,其性能相当于规模更大5倍的模型。

最近MSR发布了Phi-2,一个 2.7B 的语言模型,展示了卓越的推理和语言理解能力,表现出小于 13B 语言模型的最好效果。在各种测试中,Phi-2与规模大达25倍的模型差不多或获胜,主要归功于模型规模和训练数据方面的创新。MSR已经在Azure AI Studio模型目录中提供了Phi-2,以促进语言模型的研究和开发。

Phi-2 未放出细节的技术报告,具体可参考原博客:

# Phi-2: The surprising power of small language models

第一代Phi-1解读:数据为王: Textbooks Are All You Need

阅读全文 »

昆仑的天工模型一直走开源路线,最近放出了技术报告,其中关于预训练模型刷榜作弊的部分引发了广泛的讨论,把大家心照不宣的事情首次放到了台面上 :-)。本文来看下这篇技术报告的亮点(非全文精读,仅摘要有趣的点,细节可阅读原论文)。

# Skywork: A More Open Bilingual Foundation Model

阅读全文 »

趁着十一前的假期,去神都洛阳逛逛。作为一个河南人,河南的景点却基本没怎么去过,这种感觉有点类似住的最近的人常常会迟到一样。

没有太多规划,原计划是龙门石窟、白马寺和少林寺,不过后来因为一直下雨和略感疲倦,逛完白马寺直接回家。自驾往返共400公里整,大部分是高速,剩下几十公里国道。

阅读全文 »

LIMA是五月份的一篇网红文,发表后引起了广泛的讨论。它用极致简约的SFT方案训练了一个不错的模型,希望证实表面对齐假设 (Superficial Alignment Hypothesis):

大模型中几乎所有知识都是在预训练中学习的,指令微调只是一个很简单的过程,让模型学到与用户交互的形式。

为证明上述假设,作者们推测仅需要少量的指令微调数据(1000条)就可以教会模型产生高质量输出。此外,1000条SFT数据就达到了很好的指令微调效果,也说明了高质量数据对于模型的重要性,这一点与 Textbooks Are All You Need 有异曲同工之妙。

# LIMA: Less Is More for Alignment

阅读全文 »

力洛克T41自行洗油保养实录

手动上弦的问题并未解决,保养后不久,问题更加严重,仅能上弦约10圈(走时约10小时),便开始不断打滑,同时发出“咔咔”的异响。如小心继续上弦,发条会突然弹松,直接停表。针对此问题搜了许多国内外论坛,都没找到合适的解决方案,此处记录以飨后人。

前后花了约一个月,买了一根发条,两个发条盒总成件,捏断两根发条内钩,最终购买一套立轮和离合轮(合轮)彻底解决问题。

先买了一根新发条,换上之后问题依然存在。

由于出现突然弹松的现象,怀疑发条轴与发条内钩打滑所致,感觉是上链时二者一直打滑,出现“咔咔”的异响。打开看了看发条轴,似乎有一些磨损(它的凸起不太明显,不是非常有经验的老师傅不太容易看出是否磨损),干脆买了一个新的原装发条盒。换上之后问题依旧。

阅读全文 »

之前写过 # Nucleus Sampling与文本生成中的不同解码策略比较,不过文中缺乏图例,对于解码过程解释不够清晰,本文作为2.0版加以补充。


对于文本生成任务,语言模型如何做到对同一个输入生成不同的输出?问题的关键在于解码策略。无论是自编码模型还是自回归模型,都是在解码阶段的每个时间步逐个生成最终文本。所谓解码,就是按照某种策略从候选词表中选择合适的词输出。除了对于模型本身的改进,不同解码策略也对文本生成质量起到重要作用。

阅读全文 »

大模型可以仅凭指令或几个示例就能解决各种新任务,但在一些看似简单的算术或搜索任务上却表现欠佳。俗话说得好,人和动物的区别就是人可以更好地使用工具。于是,Meta AI提出了Toolformer,让LLM善假于物,通过自学使用外部工具。

Toolformer可以决定调用什么API、何时调用它们、传递什么参数及如何将API返回值融合。Toolformer以自监督方式训练,每个API仅需要几个示例。它在各种下游任务中显著提升了零样本性能,而不牺牲其核心语言模型能力。

# Toolformer: Language Models Can Teach Themselves to Use Tools

阅读全文 »

MSR使用“教科书”级的高质量数据训练了仅 1.3B 的面向代码任务的phi-1模型,在 HumanEval 和 MBPP 上取得了很高的准确率。

根据模型扩展法则,为提升模型性能,需要从增大算量和模型规模入手。这里则另辟蹊径:从数据质量出发。之前的研究证实:提升数据质量会大幅改变扩展法则趋势,能让小模型达到大模型的效果。本文则在此结论上更进一步,打破了已有的模型扩展法则,证明高质量的数据甚至可以在使用更少的数据和算量条件下超越大模型的SOTA

具体来说,用约 7B token 训练8轮,然后在少于 200M token的数据上微调得到 1.3B 的模型 phi-1

# Textbooks Are All You Need

阅读全文 »
0%