200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > LLMs之Code:Code Llama的简介 安装 使用方法之详细攻略

LLMs之Code:Code Llama的简介 安装 使用方法之详细攻略

时间:2020-05-27 18:40:19

相关推荐

LLMs之Code:Code Llama的简介 安装 使用方法之详细攻略

LLMs之Code:Code Llama的简介、安装、使用方法之详细攻略

导读:08月25日(北京时间),Meta发布了Code Llama,一个可以使用文本提示生成代码的大型语言模型(LLM)。Code Llama是最先进的公开可用的LLM代码任务,并有潜力使工作流程更快,更有效的为当前的开发人员和降低进入门槛的人正在学习代码。Code Llama有潜力作为一种生产力和教育工具来帮助程序员编写更健壮、文档更完善的软件。

Code Llama在Llama 2的基础上增强了编码能力。它可以从代码和自然语言提示(例如,“给我写一个输出斐波那契数列的函数。”)中生成代码和关于代码的自然语言。它也可以用于代码完成和调试。它支持许多当今最流行的语言,包括Python、c++、Java、PHP、Typescript (Javascript)、c#和Bash。

>> Code Llama是一个开源的、最先进的LLM,能够从代码和自然语言提示中生成代码和关于代码的自然语言。它专注于生成代码和理解自然语言代码说明,其性能优于当前公开的其他代码生成LLM,为编程带来支持,其开源训练方法有助于社区建立更多创新工具。

>> Code Llama有三个尺寸的版本,参数量分别为7B、13B和34B,并支持多种编程语言。它稳定支持了最高10万个token的上下文生成。这三个参数版本的Code Llama模型都使用了500B的代码tokens和代码相关数据进行训练。7B和13B版本的模型还经过了FIM(fill-in-the-middle)训练,可以将代码插入到现有代码中,支持开箱即用的代码补全等任务。不同的服务和延迟要求可以选择适合的模型版本。例如,7B模型适合在单个GPU上运行,而34B模型提供了更好的编码辅助和最佳结果,但速度较慢。对于低延迟任务,比如实时代码补全,较小的7B和13B模型速度更快。

>> Code Llama建立在Llama 2的基础上,并通过在代码特定数据集上进行进一步训练来提升编码能力。除了基础模型外,还有针对Python优化的Code Llama - Python和理解自然语言指令优化的Code Llama - Instruct版本。在代码生成基准测试中,Code Llama表现优于其他公开可用的代码专用语言模型,性能与ChatGPT相当。

目录

Code Llama的简介

1、《Code Llama: Open Foundation Models for Code》翻译与解读

2、模型评估效果对比:HumanEval、MBPP、MHEval

3、基于Code Llama的衍生模型

(1)、Phind团队:Phind-CodeLlama-34B-v1、Phind-CodeLlama-34B-Python-v1

(2)、WizardLM团队:WizardCoder

Code Llama的安装

1、模型部署与推理

第1步,获取Meta 官网授权

第2步,sh脚本下载

第3步,模型推理

2、预训练

3、代码填充

4、微调指令模型

Code Llama的使用方法

Code Llama的简介

08月25日,Meta发布了基于的Llama2用于专攻代码生成的基础模型 Code Llama。Code Llama 是基于 Llama 2的一系列面向代码的大型语言模型,提供了在开放模型中领先的性能,填充能力,支持大型输入上下文,以及用于编程任务的零-shot指令跟随能力。

该项目提供多个版本以覆盖广泛的应用领域:基础模型(Code Llama),Python专用模型(Code Llama - Python),以及指令跟随模型(Code Llama - Instruct),分别具有7B、13B和34B的参数。所有模型都是在16k标记的序列上进行训练的,并在最多100k标记的输入上显示出改进。7B和13B的 Code Llama 和 Code Llama - Instruct 变体支持基于周围内容的填充。

Code Llama 是通过对 Llama 2 进行代码的更高采样来进行微调开发的。与 Llama 2 一样,我们对模型的微调版本应用了相当大的安全措施。有关模型训练、架构和参数、评估、负责人工智能和安全的详细信息,请参阅我们的研究论文。由 Llama Materials 的代码生成功能生成的输出,包括 Code Llama,在内可能受第三方许可证的约束,包括但不限于开源许可证。

我们正在释放大型语言模型的强大能力,我们的最新版本 Code Llama 现在可以让个人、创作者、研究人员和各个规模的企业获得使用权限,以便他们可以负责地进行实验、创新和扩展他们的想法。此发布包括预训练和微调 Llama 语言模型的模型权重和初始代码,参数范围从7B到34B。该存储库旨在作为一个最小的示例,用于加载 Code Llama 模型并进行推理。

Code Llama 是一项带有潜在风险的新技术。到目前为止进行的测试未能覆盖所有情况。为了帮助开发人员应对这些风险,我们已创建了《负责任使用指南》。更多详细信息可以在我们的研究论文中找到。

GitHub官网:GitHub - facebookresearch/codellama: Inference code for CodeLlama models

论文地址:/research/publications/code-llama-open-foundation-models-for-code/

官网文章:/blog/code-llama-large-language-model-coding/

1、《Code Llama: Open Foundation Models for Code》翻译与解读

2、模型评估效果对比:HumanEval、MBPP、MHEval

Code Llama表现优异

3、基于Code Llama衍生模型

(1)、Phind团队:Phind-CodeLlama-34B-v1Phind-CodeLlama-34B-Python-v1

Phind 团队利用内部Phind数据集调优CodeLlama-34B和CodeLlama-34B-Python模型,在HumanEval上超越GPT-4的表现。在该内部数据集上,两模型分别获得67.6%和69.5%的通过率,高于原始模型的48.8%和53.7% 。调优后模型Phind-CodeLlama-34B-v1和Phind-CodeLlama-34B-Python-v1在HumanEval上分别获得67.6%和69.5%的通过率。显然都超越了原始 GPT-4 的 67%。

(2)、WizardLM团队:WizardCoder

WizardLM 团队发布了基于Code Llama的最新WizardCoder-34B。WizardCoder-34B在HumanEval上的一次通过率(pass@1)达到了惊人的 73.2%,超越了原始 GPT-4、ChatGPT-3.5 以及 Claude 2、Bard。

为了开发我们的WizardCoder模型,我们首先采用了Evol-Instruct方法,专门针对编码任务进行了适应。这包括将提示信息定制为与代码相关的指令领域。随后,我们使用新创建的指令跟随训练集对Code LLama的模型进行了微调,包括StarCoder或Code LLama。

Code Llama的安装

1、模型部署与推理

第1步,获取Meta官网授权

为了下载模型权重和分词器,请访问 Meta AI 网站并接受我们的许可协议。

一旦您的请求获得批准,您将收到一封带有签名的电子邮件链接。

第2步,sh脚本下载

第3步,模型推理

不同的模型需要不同的模型并行(MP)值

所有模型都支持长达100,000标记的序列长度,但我们根据 max_seq_len 和 max_batch_size 值预先分配缓存。因此根据您的硬件和用例设置这些值。

2、预训练

Code Llama 和 Code Llama - Python 模型没有经过微调以遵循指令。它们应该通过提示来获取期望的答案,即提示的自然延续。请参考 example_completion.py 查看一些示例。为了说明,查看下面的命令,以使用 CodeLlama-7b 模型运行它(nproc_per_node 需要设置为 MP 值):

torchrun --nproc_per_node 1 example_completion.py--ckpt_dir CodeLlama-7b/--tokenizer_path CodeLlama-7b/tokenizer.model--max_seq_len 128 --max_batch_size 4

预训练的代码模型包括:Code Llama 模型 CodeLlama-7b、CodeLlama-13b、CodeLlama-34b,以及 Code Llama - Python 模型 CodeLlama-7b-Python、CodeLlama-13b-Python、CodeLlama-34b-Python。

3、代码填充

Code Llama 和 Code Llama - Instruct 7B 和 13B 模型能够根据周围上下文填充代码。

请参考 example_infilling.py 查看一些示例。可以使用以下命令运行 CodeLlama-7b 模型以进行填充(nproc_per_node 需要设置为 MP 值):

torchrun --nproc_per_node 1 example_infilling.py--ckpt_dir CodeLlama-7b/--tokenizer_path CodeLlama-7b/tokenizer.model--max_seq_len 192 --max_batch_size 4

预训练的填充模型包括:Code Llama 模型 CodeLlama-7b 和 CodeLlama-13b,以及 Code Llama - Instruct 模型 CodeLlama-7b-Instruct、CodeLlama-13b-Instruct。

4、微调指令模型

Code Llama - Instruct 模型经过微调以遵循指令。为了获得预期的特性和性能,需要遵循 chat_completion 中定义的特定格式,包括 INST 和 <<SYS>> 标签,BOS 和 EOS 标记,以及之间的空格和换行符(我们建议在输入上调用 strip() 以避免双空格)。

您还可以部署附加分类器,以过滤出被认为不安全的输入和输出。请参阅 llama-recipes 存储库,了解如何将安全检查器添加到推理代码的输入和输出中的示例。

使用 CodeLlama-7b-Instruct 的示例:

torchrun --nproc_per_node 1 example_instructions.py--ckpt_dir CodeLlama-7b-Instruct/--tokenizer_path CodeLlama-7b-Instruct/tokenizer.model--max_seq_len 512 --max_batch_size 4

经过微调的指令跟随模型包括:Code Llama - Instruct 模型 CodeLlama-7b-Instruct、CodeLlama-13b-Instruct、CodeLlama-34b-Instruct。

Code Llama的使用方法

更新中……

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。