标签:模型优化

创新突破!字节跳动首创无需数据,1.58位超低量化自监督生成

字节跳动研究人员针对大型语言模型(LLM)在推理和生成过程中占用大量内存的问题,提出了一种创新的量化方法。该方法不依赖实际图像数据,仅利用模型自身的自...

AI 驱动的智能化单元测试生成:字节跳动的实践与创新

在QCon全球软件开发大会(上海站)上,字节跳动质量效能专家赵亮分享了基于大模型技术的单元测试用例自动生成技术。这项技术结合深度程序分析,旨在提高代码...

AI视频生成平台全球前3,成本暴降50%方案开源!500元GPU算力免费薅

Video Ocean是一个新兴的视频生成平台,以其低成本和快速迭代能力受到关注,成功登上Product Hunt全球产品热度榜单第三。该平台支持多种视频生成方式,包括文...

Liquid AI 发布新 STAR 模型架构,称比 Transformer 效率更高

麻省理工学院孵化的初创公司Liquid AI近期宣布了其在自动化神经网络架构设计和定制方面的重大进展。该公司开发了一种名为基于进化算法的定制架构合成(STAR)...

刚刚,OpenAI公开o1模型测试方法,人机协作时代!

OpenAI最近发布了两篇关于其前沿模型如o1、GPT-4、DALL-E 3的安全测试方法的论文,旨在为开发人员提供开发安全、可靠AI模型的参考。这些测试方法强调AI与人类...

HFT内部研究 :大语言模型在选股因子挖掘中的深度应用

大型语言模型(LLM)在量化金融领域的因子挖掘应用正成为研究热点。LLM通过降低人工成本、提高灵活性和可解释性,有效解决了传统因子挖掘方法的局限性。LLM能...

对话彩云科技CEO袁行远:10年AI狂飙,中国大模型发展不应只有OpenAI一条路|钛媒体AGI

全球AI技术领域的竞争正从AI模型转向AI Agent模型应用层面。美国OpenAI公司发布了ChatGPT桌面版新功能,支持理解、读写VS Code、Xcode等工具以开发应用。谷歌...

应用突破还是炫技噱头:大模型能否真正驱动行业升级?

在AICon全球人工智能开发与应用大会2024北京站即将召开之际,InfoQ《极客有约》X AICon直播栏目邀请了商汤科技大模型技术总监张涛、百度灵医大模型底座技术负...

小红书大模型团队的探索与实践:从 0 到 1 构建自研 RLHF 框架

在人工智能技术快速发展的背景下,多模态大语言模型(MLLM)因其在图文理解、创作、知识推理及指令遵循方面的能力,成为数字化转型的重要推动力。小红书大模...

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

微软研究院和清华大学的研究人员提出了一种名为Differential Transformer(DIFF Transformer)的新模型架构,旨在改进Transformer模型中的注意力机制。该架构...
1 2 3 4