标签:安全对齐
LoRA中到底有多少参数冗余?新研究:砍掉95%都能保持高性能
LoRI 技术通过大幅减少 LoRA 的可训练参数,显著降低了大型语言模型微调的资源成本,同时保持了强劲的模型性能。 研究团队在数学推理、代码生成、安全对齐以...
OpenAI官宣o3系列王者模型:能解最难的数学题,单个任务最高花费数千美元,越贵越好用!
OpenAI在“OpenAI 12 天”活动的尾声发布了两款新模型:o3和o3-mini,作为o1和o1-mini的继任者。o3系列模型在编码、数学和科学掌握、以及推理能力上表现出色,...
突发!OpenAI再失一名高管,安全主管辞职
在人工智能领域,OpenAI的高层管理层近期出现重大变动。继首席科学家Ilya Sutskever辞职后,安全主管兼超级对齐负责人Jan Leike也在社交平台宣布离开OpenAI。...
英伟达开源大模型对齐框架—NeMo-Aligner
本文主要介绍了英伟达开源的安全对齐框架NeMo-Aligner,旨在帮助开发人员提升大语言模型(LLM)的安全性能和稳定输出。随着大模型产品如ChatGPT和Midjourney...