
文章摘要
【关 键 词】 模型发布、性能对比、高价API、专家评价、计算效率
OpenAI发布了GPT-4.5模型,目前以“研究预览”形式面向Pro订阅用户(每月200美元)和API开发者开放。该模型被官方称为“迄今知识最丰富的模型”,但明确强调其并非前沿版本,性能可能低于o1或o3-mini等研究模型。GPT-4.5的核心特性包括128,000 token的上下文窗口、多模态输入支持,以及训练数据截止到2023年10月,这些与GPT-4o保持一致,但在计算效率上实现了10倍以上的提升。
在能力改进方面,GPT-4.5增强了写作流畅度、世界知识整合和个性化交互体验,其“情商(EQ)”表现提升,能更精准识别人类意图和隐含需求。官方数据显示,该模型在日常生活查询、专业场景和创造性任务中的胜率介于56.8%至63.2%,其中专业查询领域优势最明显。幻觉率方面,GPT-4.5在简单问答任务中降至37.1%,显著优于GPT-4o(61.8%)和o3-mini(80.3%),但仍略逊于o1(44%)。
API调用成本成为显著短板,输入/输出每百万token分别需要75/150美元,相当于o1价格的5倍和GPT-4o的30倍。编程基准测试显示,其在Aider多语言编程测试中得分45%,低于DeepSeek V3(48%)和Sonnet 3.7(65%),但远超GPT-4o的23.1%。用户实测生成SVG图像需112秒,暴露了响应速度缓慢的问题。
技术架构上,GPT-4.5融合了监督微调(SFT)和人类反馈强化学习(RLHF),但未引入新推理能力。OpenAI研究员Rapha Gontijo Lopes称其为“(可能是)全球最大规模模型”,而首席科学家Andrej Karpathy评价其改进“类似GPT-4发布时的渐进式提升”,训练计算量虽达GPT-4的10倍,但在数学、代码等依赖深度推理的领域未见突破。业界专家Gary Marcus更直言该模型缺乏实质性创新,认为“扩大数据规模并未带来预期突破”。
商业化部署方面,GPT-4.5已登陆微软Azure AI Foundry平台,计划逐步向Plus、Team和企业用户开放。但OpenAI在公告中透露,由于模型庞大且运维成本过高,正在评估是否长期维护该API服务,这与其对开发者生态的常规策略形成鲜明对比。目前,该模型主要定位为展示大规模预训练潜力的技术验证,而非直接替代现有产品线。
原文和模型
【原文链接】 阅读原文 [ 1900字 | 8分钟 ]
【原文作者】 AI前线
【摘要模型】 deepseek-r1
【摘要评分】 ★★★★☆