大佬出走后,第一个模型来了!
就在今天,Stability AI官宣了新的代码模型Stable Code Instruct 3B。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜
图片Stability是非常重要的,首席执行官离职对Stable Diffusion造成了一些困扰,投资公司出了点故障,自己的工资也可能有问题了。
然而,楼外风雨飘摇,实验室里岿然不动,研究该做做,讨论该发发,模型该调调,大模型各领域的战争是一个没落下。
不仅仅是铺开摊子搞全面战争,每项研究也都在不断前进,比如今天的Stable Code Instruct 3B就是在之前的Stable Code 3B的基础上做了指令调优。
图片
论文地址:https://static1.squarespace.com/static/6213c340453c3f502425776e/t/6601c5713150412edcd56f8e/1711392114564/stable_code_techreport_release.pdf
通过自然语言提示,Stable Code Instruct 3B可以处理各种任务,例如代码生成、数学和其他与软件开发相关的查询。
图片
Stable Code Instruct 3B在同等参数量的模型中,做到了当前的SOTA,甚至优于比自己大两倍多的CodeLlama 7B Instruct等模型,并且在软件工程相关任务中的表现与StarChat 15B相当。
图片
从上图可以看出,与Codellama 7B Instruct和DeepSeek-Coder Instruct 1.3B等领先模型相比,Stable Code Instruct 3B在一系列编码任务中性能优异。
测试表明,Stable Code Instruct 3B在代码完成准确性、对自然语言指令的理解、以及跨不同编程语言的多功能性方面,都能够打平甚至超越竞争对手。
图片
Stable Code Instruct 3B根据Stack Overflow 2025开发者调查的结果,将训练专注于 Python、Javascript、Java、C、C++和Go等编程语言。
上图使用Multi-PL基准测试,比较了三个模型以各种编程语言生成输出的强度。可以发现Stable Code Instruct 3B在所有语言中都明显优于CodeLlama,并且参数量还少了一半多。
除了上述的热门编程语言,Stable Code Instruct 3B还包括对其他语言(如SQL、PHP和Rust)的训练,并且即使在没有经过训练的的语言(如Lua)中,也能提供强大的测试性能。
Stable Code Instruct 3B不仅精通代码生成,还精通FIM(代码中间填充)任务、数据库查询、代码翻译、解释和创建。
通过指令调优,模型能够理解细微的指令并采取行动,促进了除了简单代码完成之外的广泛编码任务,比如数学理解、逻辑推理和处理软件开发的复杂技术。
图片
模型下载:https://huggingface.co/stabilityai/stable-code-instruct-3b
Stable Code Instruct 3B现在可以通过Stability AI会员资格,用于商业目的。对于非商业用途,可以在Hugging Face上下载模型重量和代码。
图片
Stable Code建立在Stable LM 3B之上,是一个decoder-only Transformer结构,设计类似于LLaMA。下表是一些关键的结构信息:
图片
与LLaMA的主要区别包括:
位置嵌入:在头部嵌入的前25%使用旋转位置嵌入,以提高后续的吞吐量。
正则化:使用带学习偏差项的LayerNorm,而非RMSNorm。
偏置项:删除了前馈网络和多头自注意力层中所有的偏置项,除了KQV的。
使用与Stable LM 3B模型相同的分词器(BPE),大小为50,257;另外还参照了StarCoder的特殊标记,包括用于指示文件名称、存储库的星数、中间填充(FIM)等。
对于长上下文训练,使用特殊标记来指示两个串联文件何时属于同一存储库。
训练数据
预训练数据集收集了各种可公开访问的大规模数据源,包括代码存储库、技术文档(如readthedocs)、以数学为重点的文本,和大量Web数据集。
初始预训练阶段的主要目标是学习丰富的内部表示,以显著提高模型在数学理解、逻辑推理、和处理软件开发相关复杂技术文本方面的能力。
此外,训练数据还包含通用文本数据集,以便为模型提供更广泛的语言知
识和上下文,最终使模型能够以对话方式处理更广泛的查询和任务。
下表展示了预训练语料库的数据源、类别和采样权重等,其中代码和自然语言数据的比例为80:20。
图片
另外,研究人员还引入了一个小型合成数据集,数据由CodeAlpacadataset的种子提示合成生成,包含174,000个提示。
并且参照WizardLM的方式,逐步增加给定种子提示的复杂性,又额外获得了100,000个提示。
作者认为,在预训练阶段早期引入这些合成数据有助于模型更好地响应自然语言文本。
长上下文数据集
由于存储库中多个文件通常相互依赖,因此上下文长度对于编码模型很重要。
研究人员估计了软件存储库中token的中位数和平均数分别为12k和18k,因此选择16,384作为上下文长度。
接下来就是创建一个长上下文数据集,研究人员在存储库中获取了一些热门语言编写的文件并将它们组合在一起,在每个文件之间插入一个特殊的标记,以保持分离,同时保留内容流。
为了规避因文件的固定顺序而可能产生的任何潜在偏差,作者采用了一种随机策略。对于每个存储库,生成两个不同的连接文件顺序。
图片
分阶段训练
Stable Code使用32个Amazon P4d实例进行训练,包含256个NVIDIA A100(40GB HBM2)GPU,并使用ZeRO进行分布式优化。
图片
这里采用了一种分阶段的训练方法,如上图所示。
训练按照标准的自回归序列建模预测下一个标记。使用Stable LM 3B的checkpoint初始化模型,第一阶段训练的上下文长度为4096,然后进行持续的预训练。
训练以BFloat16混合精度执行,all-reduce时采用FP32。AdamW 优化器设置为:β1=0.9,β2=0.95,ε=1e−6,λ(权重衰减)=0.1。从学习率=3.2e-4开始,设置最小学习率为3.2e-5,使用余弦衰减。
图片
自然语言模型训练的核心假设之一是从左到右的因果顺序,不过对于代码来说,这种假设并不总是成立(例如,函数调用和函数声明对于许多函数来说可以是任意顺序的)。
为了解决这个问题,研究人员使用了FIM(中间填充)。将文档随机拆分为三个段:前缀、中间段和后缀,然后将中间段移动到文档的末尾。重新排列后,遵循相同的自回归训练过程。
在预训练之后,作者通过微调阶段进一步提高模型的对话技能,该阶段包括监督微调(SFT)和直接偏好优化(DPO)。
首先使用在Hugging Face上公开可用的数据集进行SFT微调:包括OpenHermes,Code Feedback,CodeAlpaca。
在执行精确匹配重复数据删除后,三个数据集总共提供了大约500000个训练样本。
使用余弦学习速率调度器控制训练过程,并将全局批处理大小设置为512,将输入打包到长度不超过4096的序列中。
在SFT之后,开始DPO阶段,利用来自UltraFeedback的数据,策划了一个包含大约7,000个样本的数据集。此外,为了提高模型的安全性,作者还纳入了Helpful and Harmless RLFH数据集。
研究人员采用RMSProp作为优化算法,DPO训练的初始阶段将学习率提高到5e-7的峰值。
下面比较模型在代码完成任务上的性能,使用Multi-PL基准来评估模型。
Stable Code Base
下表显示了在Multi-PL上,大小为3B参数及以下的不同代码模型的性能。
图片
尽管Stable Code的参数量分别不到Code Llama和StarCoder 15B的40%和20%,但模型在各种编程语言中的平均性能与它们持平。
Stable Code Instruct
下表在Multi-PL基准测试中,评估了几个模型的instruct微调版本。
图片
SQL Performance
代码语言模型的一个重要应用是数据库查询任务。在这个领域,将Stable Code Instruct的性能与其他流行的指令调优模型,和专门为SQL训练的模型进行比较。这里使用Defog AI创建的基准。
图片
推理性能
下表给出了在消费级设备和相应的系统环境中运行Stable Code时的吞吐量和功耗。
图片
结果表明,当采用较低的精度时,吞吐量增加了近两倍。但需要注意的是,实施较低精度的量化可能会导致模型性能有所下降(可能很大)。
参考资料:https://www./link/8cb3522da182ff9ea5925bbd8975b203
# 数据库
# 文档
# 较低
# 并将
# 采用了
# 库中
# 出了
# 是一个
# 编程语言
# 下表
# 自然语言
# llama
# 软件工程
# https
# stable diffusion
# transformer
# 排列
# 算法
# Token
# Static
# 分布式
# 架构
# sql
# rust
# lua
# JavaScript
# php
# Java
# Python
# deepseek
# overflow
相关栏目:
【
Google疑问12 】
【
Facebook疑问10 】
【
网络优化91478 】
【
技术知识72672 】
【
云计算0 】
【
GEO优化84317 】
【
优选文章0 】
【
营销推广36048 】
【
网络运营41350 】
【
案例网站102563 】
【
AI智能45237 】
相关推荐:
Claude怎样写任务型提示词_Claude任务提示词写法【步骤】
如何用AI自动生成Python代码 AI编程助手ChatGPT使用方法【教程】
如何用AI一键生成求职简历?AI简历优化与制作工具推荐【干货】
Spin Rewriter AI:终极内容创作与SEO优化指南
去哪旅行ai抢票助手怎样添加备选车次_去哪旅行ai抢票助手备选车次设置与切换【攻略】
Canva AI 辅助 KDP 封面设计:轻松创建畅销书笔记本
利用ChatGPT掌控健康:AI赋能的医疗新时代
Midjourney怎样用参数调分辨率_Midjourney分辨率调整技巧【教程】
使用AI配乐:ElevenLabs Music音乐生成器终极指南
Midjourney怎样生成网页_Midjourney生成网页教程【方法】
AI UGC生成器深度测评:四大工具横向对比分析
豆包Ai在线使用入口_豆包Ai官方网站最新登录地址
百度输入法ai面板怎么关 百度输入法ai面板隐藏技巧
MemeGIF Studio:AI驱动的GIF生成器全面评测与使用指南
11月电动两轮车线上销售排名出炉:九号份额达26.9%
2025年最佳免费AI艺术生成器:POD终极指南
ChatGPT怎么用一键生成活动策划案_ChatGPT策划案生成教程【攻略】
AI赋能抵押贷款:Total Expert AI 销售助理深度解析
P&ID图全解析:工艺流程图解读与应用指南
Replika AI:情感慰藉还是虚拟危机?深度剖析与用户反馈
Tune AI: 革新音乐创作,AI音乐平台深度测评
批改网AI检测工具怎样优化检测精度_批改网AI检测工具精度调节与模型选择【实操】
AI视频工具:加速内容创作,提升效率的终极指南
AI时代软件工程师如何破局?未来必备技能全解析
暖心“小艺通话”:让语障人士告别沟通困境,拥抱平等生活
即梦ai能否生成国风插画_即梦ai国风元素调用与文化符号添加【技巧】
今日头条AI怎样推荐抢票工具_今日头条AI抢票工具推荐算法与筛选【技巧】
ATS优化:Euron ResumeAI打造高效求职简历
Midjourney怎么用一键生成海报_Midjourney海报生成教程【方法】
Venggage AI Pitch Deck生成器:快速创建投资者演示文稿
Claude 4.5 深度解析: Coding, VS Code & AI Agent 新纪元
精明小鱼:儿童动画寓言故事及启示
Sora 2 API 全面解析:功能、应用与 Lovable 集成指南
VoiceBrigade:AI 赋能,革新语音合成与内容创作
System of a Down:深度剖析《Hypnotize》歌词
豆包AI怎么做数据分析 豆包AI数据处理入门教程
Midjourney怎么用一键生成壁纸_Midjourney壁纸生成教程【教程】
通义千问怎样优化提示词更口语化_通义千问口语化技巧【教程】
百度输入法总是弹出ai 百度输入法ai自动弹出关闭
探索古希腊之美:AI打造的绝|美女|神形象赏析
百度输入法全感官ai怎么关 百度输入法全感官皮肤关闭
lovemo手机网页版 lovemo官方入口地址
Feelin聊天网页版地址 Feelin AI官方网站首页
AI绘图工具测评:告别复杂流程,高效创作流程图
AI 播客脚本写作工具:提升内容创作效率的终极指南
ChatGPT官方主页入口 ChatGPT网页版快速进入指南
畅游长崎:寻找宝可梦与樱花的浪漫之旅
提升英语口语:地道表达周末体验,语法精讲助你流利交流
AI电子书创作革命:AieBookSuite如何颠覆出版行业
AI 驱动的潜在客户生成:终极自动化指南
2024-03-29
南京市珐之弘网络技术有限公司专注海外推广十年,是谷歌推广.Facebook广告全球合作伙伴,我们精英化的技术团队为企业提供谷歌海外推广+外贸网站建设+网站维护运营+Google SEO优化+社交营销为您提供一站式海外营销服务。