广告图片广告图片广告图片广告图片广告图片广告图片
  • 被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线

    大约 1 个月前,马斯克所创办的 xAI 团队宣布开源 Grok-1——一个参数量为 3140 亿的 MoE 大模型。从参数量来看,Grok-1 超越了 70B 的 LLaMA 2,是当前开源模型中最
  • 港大马毅:现在的大模型只有「知识」,没有「智能」

    导语:知识与智能是两个概念。访谈 | 陈彩娴撰文丨马蕊蕾编辑丨陈彩娴当多数人将 Scaling Law规模定律)作为信仰并投身其中时,马毅却选择了一条少有人走的路。「模型无所谓大小,我们说正确的模型,