标签:性能提升

腾讯云 AIGC 存储解决方案全面升级,数据清洗、训练效率翻倍

腾讯云在AIGC场景下的云存储技术发布会上宣布其云存储解决方案全面升级,旨在提高大模型数据清洗和训练效率。新的解决方案使效率提升一倍,时间缩短一半,为A...

Llama提速500%!谷歌美女程序员手搓矩阵乘法内核

Justine Tunney,一位天才程序员和谷歌的工程师,最近通过更新Llamafile的代码,显著提高了Llama的推理速度。她手动编写了84个新的矩阵乘法内核,使得Llamafi...

Scaling Law 又一次性感了吗?

专题解读事件:Sora 的出现被认为是 Scaling Law 的又一次成功,这也引起了社区中更多对 Scaling Law 的讨论。自 OpenAI 发布 Sora,业界对该模型的能力及其...

弱智吧竟成最佳中文AI训练数据?!中科院等:8项测试第一,远超知乎豆瓣小红书

近期,一项颇为不同寻常的研究引起了广泛关注。研究者们发现,使用百度贴吧中的“弱智吧”数据训练的AI模型,在多项性能测试中取得了出色的成绩,超越了知乎、...

IEEE:GPU很好,但不是唯一

随着大语言模型的兴起,传统的看法认为GPU在AI应用中占据主导地位,但近期的趋势和实践表明,CPU在很多AI推理场景中展现出了其适用性和优势。权威期刊IEEE Sp...

马斯克的Grok-1.5性能接近GPT-4

Elon Musk 领导的 xAI 公司在发布开源 Grok-1 不久后,宣布了其专有语言模型 LLM Grok-1.5 的升级版。Grok-1.5 预计将在下周发布,其推理和问题解决能力有了...

LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」

谷歌团队在ICLR 2024上提出了一种将图形数据转换为适合LLMs理解的形式的方法。在计算机科学领域,图形结构由节点(代表实体)和边(表示实体之间的关系)构成...

清华微软开源全新提示词压缩工具,长度骤降80%!GitHub怒砍3.1K星

清华大学和微软的研究人员提出了一种名为LLMLingua-2的新型文本压缩方法,该方法能够在保证输出质量不变的情况下,将提示词压缩至原始长度的20%。与现有基于...

模型合并就进化,直接拿下SOTA!Transformer作者创业新成果火了

这篇文章介绍了日本大模型公司提出的一种新颖的模型合并方法,旨在自动生成新的基础模型而无需进行梯度训练。他们使用进化算法引入了“进化模型合并”(Evoluti...

CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术

视频理解技术旨在准确把握视频中的时空信息,但面临着短视频片段的时空冗余和复杂时空依赖关系的双重挑战。传统的三维卷积神经网络(CNN)和视频Transformer...
1 5 6 7 8 9