标签:存储效率
创新突破!字节跳动首创无需数据,1.58位超低量化自监督生成
字节跳动研究人员针对大型语言模型(LLM)在推理和生成过程中占用大量内存的问题,提出了一种创新的量化方法。该方法不依赖实际图像数据,仅利用模型自身的自...
Llama架构比不上GPT2?神奇token提升10倍记忆?
这篇文章主要介绍了朱泽园和李远志最新研究的内容,标题为《语言模型物理学 Part 3.3:知识的 Scaling Laws》。他们通过海量实验总结了12条定律,为语言模型...