标签:模型性能
革命新架构掀翻Transformer!无限上下文处理,2万亿token碾压Llama 2
新智元报道了Meta、南加州大学(USC)、CMU和UCSD联合提出的革命性新架构Megalodon,旨在处理无限上下文,并在2万亿token训练任务中超越了Llama2-7B,展现出...
大佬出走后首个发布!Stability官宣代码模型Stable Code Instruct 3B
Stability AI近期发布了新的代码模型Stable Code Instruct 3B,尽管公司内部发生了一些变动,如首席执行官辞职,部分作者离职,投资公司出现故障,但这并未影...
Scaling 能通往 AGI 吗?万字科普 Scaling Law 的业内争议与讨论
本文探讨了关于大型语言模型(LLM)的scaling law的争议,即通过增加模型规模和数据量来提升AI性能的理论。文章基于Dwarkesh Patel的观点,分析了scaling law...
1
2