Grok 前言

大型语言模型 Grok-1 的基本模型权重和网络架构。Grok-1 是一个 3140 亿参数的专家混合模型,由 xAI 从头开始训练。

  • 这是 2023 年 10 月结束的 Grok-1 预训练阶段的原始基础模型检查点。这意味着该模型不会针对任何特定应用(例如对话)进行微调。
  • 将在 Apache 2.0 许可下发布权重和架构。
  • 要开始使用该模型,请按照 github.com/xai-org/grok 中的说明进行操作。
  • xAI 官网

型号详细信息

  • 基础模型在大量文本数据上训练,未针对任何特定任务进行微调。
  • 314B 参数 Mixture-of-Experts 模型,其中 25% 的权重在给定令牌上处于活动状态。
  • 2023 年 10 月,xAI 使用 JAX 和 Rust 之上的自定义训练堆栈从头开始训练。

Grok-1 download

  • Grok-1 BT种子,复制到BT工具下载
    magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce
  • Grok-1 百度网盘https://pan.baidu.com/s/1-e5w5D2aXQO9T9nnPvZodw?pwd=grok

Logo

欢迎加入 MCP 技术社区!与志同道合者携手前行,一同解锁 MCP 技术的无限可能!

更多推荐