标签:可解释性
LLM可解释性的未来希望?稀疏自编码器是如何工作的,这里有一份直观说明
稀疏自编码器(SAE)是一种在机器学习领域中越来越受重视的工具,它有助于解释和理解深度学习模型的工作原理。SAE的设计灵感来源于神经科学中的稀疏编码假设...
可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案
本文由张俊鹏、任启涵、张拳石撰写,基于等效交互可解释性理论体系,深入探讨了神经网络在训练过程中概念表征及其泛化性的动力学变化。文章首先回顾了等效交...
iPhone可跑2B小钢炮!谷歌Gemma 2来袭,最强显微镜剖解LLM大脑
谷歌DeepMind发布了Gemma 2家族的三个新成员,包括Gemma 2 2B轻量级模型、ShieldGemma安全内容分类器和Gemma Scope可解释性工具。Gemma 2 2B虽然只有2.6B参数...
全新神经网络架构KAN一夜爆火!200参数顶30万,MIT华人一作,轻松复现Nature封面AI数学研究
一种名为KAN的全新神经网络架构被提出,它与传统的MLP(多层感知机)架构有显著不同,并且在使用更少的参数的情况下,在数学和物理问题上取得了更高的精度。...
AI大模型控制红绿灯,港科大(广州)智慧交通新成果已开源
香港科技大学(广州)的研究团队提出了一个名为LLMLight的框架,用于实现交通信号控制(TSC)。该框架结合了大模型的泛化能力和人类直觉的推理和决策过程,以...
“新王登基”!Claude 3 横空出世,最强大模型易主 | 大模型一周大事
本文主要介绍了过去一周大模型行业的重大事件和最新动态