标签:数据效率
OpenAI自曝GPT-4.5训练内幕:数据效率是关键,预训练仍然有用
在GPT-4.5发布后的一个多月,Sam Altman与OpenAI的三位核心技术人员进行了一场深入对话,首次披露了GPT-4.5研发过程中的诸多细节。GPT-4.5项目启动于两年前,...
奥特曼首揭GPT-4.5内幕,一个bug搞崩10万GPU!5人即可重训GPT-4
OpenAI团队在最新播客中首次公开了GPT-4.5的研发历程,揭示了从愿景到现实的史诗级突破。早在两年前,团队就设定了比GPT-4聪明10倍的目标,这不仅是对模型性...
中科院、百度提出新架构:突破参数限制,实现高效推理
针对大模型参数规模扩大与性能提升不匹配的挑战,中国科学院信息工程研究所联合百度与北京师范大学AI学院提出了Inner Thinking Transformer架构(ITT)。该架...
DeepSeek们正在颠覆美妆圈
在一家头部美妆企业的实验室中,跨学科团队正通过AI技术重新定义美的表达方式。虚拟试妆镜、皮肤检测仪、AI定制配方和3D生物打印面膜等技术已实现规模化应用...
如何优化测试时计算?解决「元强化学习」问题
当前改进大型语言模型的主流方法依赖于增加高质量数据的监督微调或强化学习,但数据扩展面临瓶颈。研究预测,用于训练的高质量文本可能在2028年耗尽,而复杂...
LeCun八年前神预言,大模型路线再颠覆?OpenAI宣告:强化学习取得稳定性突破
新智元报道指出,强化微调(RLF)技术可能在强化学习领域引发一场变革。Yann LeCun曾将智能比作蛋糕,其中无监督学习是主体,有监督学习是糖霜,而强化学习则...
北大字节开辟图像生成新范式!超越Sora核心组件DiT,不再预测下一个token
这篇文章介绍了北大和字节跳动合作开发的新方法——Visual Autoregressive Modeling(VAR),旨在改进图像生成的质量和效率。VAR采用了预测下一级分辨率的方式...