标签:Azure
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
Stability AI最近推出了Stable LM 2 12B模型,这是其新模型系列的一个重要升级。该模型基于七种语言的2万亿Token进行训练,拥有120亿参数,性能在某些基准测...
1000行C语言搓出GPT-2!AI大神Karpathy新项目刚上线就狂揽2.5k星
AI研究者Andrej Karpathy最近发布了一个引人注目的项目,该项目展示了如何仅使用大约1000行的纯C语言代码来训练GPT-2模型,而不依赖于庞大的PyTorch和cPython...
图文详解Transformer为什么如此强大
Transformer模型自问世以来,已经在自然语言处理(NLP)领域取得了革命性的进展,并且其影响力已经扩展到了NLP之外的其他领域。Transformer的核心特点在于其...
CVPR 2024 | 分割一切模型SAM泛化能力差?域适应策略给解决了
随着大型语言模型(LLMs)在计算机视觉领域的成功,研究者们对于图像分割基础模型的探索日益增加。Segment Anything Model(SAM)作为一个先进的图像分割基础...
2024年WAIC·云帆奖启航:擎启AGI时代,集结超越边界的探索者
2024年,WAIC・云帆奖面向全球征选AI青年技术人才,旨在表彰和激励在人工智能领域表现出色的青年创新者。这一奖项由机器之心、上海人工智能实验室、全球高校...
纯C语言手搓GPT-2,前OpenAI、特斯拉高管新项目火了
Andrej Karpathy,前特斯拉Autopilot负责人和OpenAI科学家,近日发布了一个名为「llm.c」的项目,该项目仅使用大约1000行纯C语言代码,就能在CPU/fp32上实现G...
OpenAI创始大神手搓千行C代码训练GPT,附PyTorch迁移教程
Andrej KarpathyAndrej Karpathy,一位在人工智能领域享有盛誉的大神,近期复出并带来了一项引人注目的项目:使用纯C语言实现GPT的训练,仅用1000行代码就完...
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
最近,AI代码生成领域迎来了一位资深玩家——aiXcoder,它推出了一款专门适用于企业软件开发场景的代码大模型——aiXcoder-7B Base版。这个模型虽然只有70亿参数...
即使 iPhone 用国产 AI 也别惊讶,因为 Gemini 能做的也不多
上个月,彭博社报道了苹果公司正在与谷歌进行谈判,希望将谷歌的AI系统Gemini集成到iPhone中,以增强iPhone的AI功能。这一消息引起了业界的广泛关注,因为苹...
杨笛一新作:社恐有救了,AI大模型一对一陪聊,帮i人变成e人
在近期的研究中,斯坦福助理教授杨笛一及其团队提出了利用大语言模型(LLM)来训练社交技能的新方法。这项研究认为,通过大语言模型的帮助,社交技能训练可以...