“ 马斯克宣布 Grok-1.5,上下文长度至 128K ”

发布时间:2024-03-31
今日阅读:0
来源:OSCHINA
作者:白开水不加糖
...

马斯克旗下的 AI 初创公司 xAI 宣布了其最新的生成式人工智能模型 Grok-1.5,构建在基于 JAX、Rust 和 Kubernetes 的自定义分布式训练框架之上,能够进行长上下文理解和高级推理。预计在未来几天内面向早期测试人员和 平台上的现有 Grok 用户提供。 相较前身 Grok-1,Grok-1.5 似乎有了明显的升级。根据 xAI 的说法,Grok-1.5 最显着的改进之一是其在编码和数学相关任务中的性能。在测试中,Grok-1.5 在 MATH 基准上取得了 50.6% 的成绩,比 Grok-1 的得分高出一倍有余在 GSM8K 基准上取得了 90% 的成绩。 img 此外,它在评估代码生成和解决问题能力的 HumanEval 基准测试中得分为 74.1%,比 Grok-1 高出十多个百分点优于除 Claude 3 Opus 之外的所有模型。 在评估 AI 模型跨不同任务的语言理解能力的 MMLU 基准测试中,Grok-1.5 的得分为 81.3%,大幅领先 Grok-1 的 73%。并且超过了最近推出的 Mistral Large81.2%,但落后于 Gemini 1.5 Pro83.7%、GPT-486.4%,截至 2023 年 3 月和 Claude 3 Opus86.8%。在 GSM8K 基准测试中,Grok-1.5 的表现也仅次于谷歌、OpenAI 和 Anthropic 的产品。 Grok-1.5 中的一个新功能是能够在其上下文窗口内处理多达 128K 个 token 的长上下文。这使得 Grok 的内存容量增加到之前上下文长度的 16 倍,从而能够利用更长文档中的信息。该模型还能处理更长、更复杂的提示,同时随着上下文窗口的扩大,仍能保持其指令跟踪能力。 img 马斯克还透露了 Grok 2 相关的信息,表示正在训练中的 Grok 2 将在所有指标上都应该超过当前的 AI,但他并没有透露具体可用的时间。

标签:
马斯克 Grok 1.5

每日一言

"<!doctype html> <html lang="Zh-cn"> <head> <meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> <meta name="robots" content="noindex,nofollow"> <meta name="viewport" content="width=device-width, initial-scale=1.0, maximum-scale=1.0, user-scalable=no"/> <meta name="renderer" content="webkit"> <title>您请求的文件不存在!</title> <link type="text/css" rel="stylesheet" href="https://www.oick.cn/css/404.css" /> <link rel="shortcut icon" href="http://www.oick.cn/favicon.ico" type="image/x-icon" /> </head> <body> <div id="wrap"> <div> <img src="https://www.oick.cn/imgs/404.png" alt="404" /> </div> <div id="text"> <strong> <span></span> <a href="javascript:history.back()">返回上一页</a> </strong> </div> </div> <div class="animate below"></div> <div class="animate above"></div> </body> </html>"

...

站点统计

本周更新文章: 0 篇
文章总数: 59110 篇
今日访问量: 42665 次
访问总量: 184300 次