标签:神经网络
Liquid AI 发布新 STAR 模型架构,称比 Transformer 效率更高
麻省理工学院孵化的初创公司Liquid AI近期宣布了其在自动化神经网络架构设计和定制方面的重大进展。该公司开发了一种名为基于进化算法的定制架构合成(STAR)...
Greg Brockman又做了一件伟大的事情
OpenAI总裁Greg Brockman在社交媒体上分享了他的假期生活,期间他与Arc Institute团队合作,致力于训练基于DNA的模型。Brockman对深度学习技术在医学和医疗保...
被忽略的起点?Karpathy揭秘最初的注意力论文被Transformer光芒掩盖的故事
AI研究者Andrej Karpathy最近在推特上分享了注意力机制背后的故事,揭示了这一概念的起源和发展。他指出,Dzmitry Bahdanau、Kyunghyun Cho和Yoshua Bengio的...
Pokémon Go 公司构建大型地理空间模型,玩家不知不觉贡献了训练数据
Niantic,开发了《Pokémon GO》和《Ingress》等增强现实游戏的公司,正在利用其数百万玩家的数据创建一个能够导航现实世界的AI模型,即大型地理空间模型(LGM...
宝可梦GO「偷家」李飞飞空间智能?全球最强3D地图诞生,150万亿参数解锁现实边界
宝可梦GO团队宣布构建了一个大规模地理空间模型LGM,标志着空间智能领域的一大进步。LGM通过训练超过5000万个神经网络,参数规模超过150万亿,使计算机能够以...
Transformer打破三十年数学猜想!Meta研究者用AI给出反例,算法杀手攻克数学难题
最近,Meta、威斯康星大学麦迪逊分校、伍斯特理工学院和悉尼大学的学者们提出了一种名为PatternBoost的新方法,该方法在解决某些数学问题上取得了突破性进展...
阿里开源Qwen2.5-Coder,最强开源代码模型来了
阿里巴巴研究人员开源了Qwen2.5-Coder代码生成模型,包含0.5B、3B、14B和32B四个版本,适用于不同开发环境。测试数据显示,32B指令微调模型在多个测试中性能...
板级高密FOMCM批量量产,奕成科技新突破
2024年诺贝尔物理学奖授予了美国科学家约翰·霍普菲尔德和英裔加拿大科学家杰弗里·辛顿,以表彰他们在人工智能领域通过人工神经网络实现机器学习的基础性发现...
英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快
英伟达团队提出了一种新的神经网络架构——归一化Transformer(nGPT),这一架构在超球面上进行表示学习,能够显著提升大型语言模型(LLM)的训练速度,同时保...
ChatGPT幕后大佬、o1推理模型作者官宣离职!OpenAI大洗牌,后训练团队换将
OpenAI近期经历了一系列高层人事变动。o1推理模型的重要贡献者Luke Metz宣布离职,结束了他在OpenAI超过两年的工作生涯。与此同时,OpenAI任命了o1模型的另一...