“ 元象首个 MoE 大模型开源:无条件免费商用、4.2B 激活参数 头条 ”

发布时间:2024-04-03
今日阅读:0
来源:OSCHINA
作者:局
...

元象发布XVERSE-MoE-A4.2B大模型 ,采用业界最前沿的混合专家模型架构Mixture of Experts,激活参数4.2B,效果即可媲美13B模型。 该模型全开源,无条件免费商用,让海量中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。 下载XVERSE-MoE-A4.2B大模型 - Hugging Facehttps://huggingface.co/xverse/XVERSE-MoE-A4.2B - ModelScope魔搭https://modelscope.cn/models/xverse/XVERSE-MoE-A4.2B - Githubhttps://github.com/xverse-ai/XVERSE-MoE-A4.2B img XVERSE-MoE-A4.2B两大优势 - 极致压缩用相同语料训练2.7万亿token,元象MoE实际激活参数量4.2B,效果“跳级”超越XVERSE-13B-2,仅用30%计算量,并减少50%训练时间。 - 超凡性能在多个权威评测中,元象MoE效果大幅超越新晋业界顶流谷歌Gemma-7B和Mistral-7B、Meta开源标杆Llama2-13B等多个模型、并接近超大模型Llama1-65B。 img 权威测试集评测结果

标签:
元象 MoE 4.2

每日一言

""付出就会有回报,比如一倍的奢望,换两倍的失望。""

...

站点统计

本周更新文章: 0 篇
文章总数: 59110 篇
今日访问量: 53143 次
访问总量: 147300 次