
文章摘要
近年来,大学机器学习课程的教学内容引发了广泛讨论。纽约大学(NYU)教授Kyunghyun Cho指出,许多课程已经抛弃了机器学习(ML)和深度学习的基础概念,这种现象令人担忧。他强调,尽管大规模语言模型(LLM)和计算力的普及改变了ML的实践方式,但基础概念仍然是理解现代算法的关键。为此,他设计了一门独特的课程,专注于随机梯度下降(SGD)等基础技术,并引导学生阅读早期经典论文。这一课程大纲得到了哈佛大学助理教授的认同,后者也表达了在课程中保留基础概念的困难。
Cho的课程大纲涵盖了从感知机、反向传播到神经网络构建模块的广泛内容,并深入探讨了概率机器学习、无监督学习以及强化学习等高级主题。他特别强调,尽管现代ML系统依赖于大规模数据和参数,但其核心仍然建立在数学、概率和统计的基础之上。课程推荐的论文也并非近年热门研究,而是从上世纪90年代到2022年的经典文献,例如Ronald Williams关于反向传播算法的论文和Christopher Bishop的混合密度网络研究。这种“不追逐潮流,只读经典”的教学理念,得到了许多教育者的共鸣。
哈佛大学的CS 1810课程同样注重基础,内容涵盖监督学习、神经网络、支持向量机、聚类、图模型和强化学习等主题。这门课程要求学生具备扎实的数学和编程基础,并通过实践项目加深对理论的理解。麻省理工学院(MIT)的机器学习入门课程也采用了类似的设计,强调理论与实践的结合,学生需使用Python和相关库完成编程项目。这些课程的设计反映了顶尖高校对基础知识的重视,尽管在当今快速发展的AI领域,这种教学方式面临一定挑战。
然而,学生普遍反映,许多大学的ML课程质量堪忧。一位印度学生抱怨,课程内容过于抽象,缺乏对算法原理的深入解释,导致学生在实际项目中无所适从。类似的问题也出现在美国大学中,有学生指出,课程结构混乱,教授只注重PPT讲解,忽视了数学和算法原理的教学。这种现象反映了教育体系的一个普遍问题:过于追求流行技术,却忽视了基础知识的培养。
诺贝尔奖得主、Google DeepMind首席执行官Demis Hassabis建议,学生应专注于“学习如何学习”,并打好基础。他认为,尽管技术不断发展,但基础学科如计算理论和信息论的知识将贯穿整个职业生涯。Hassabis鼓励学生探索自己的兴趣领域,并培养跨学科能力,以应对未来的颠覆性变革。他的观点与许多教育者的理念不谋而合:在快速变化的AI领域,扎实的基础知识和自主学习能力是成功的关键。
总体而言,大学ML课程的设计需要在基础与前沿之间找到平衡。经典理论和基础概念仍然是理解现代算法的基石,而实践和自主学习则是应对技术快速发展的有效途径。教育者和学生都需要认识到,尽管AI领域日新月异,但扎实的基础和持续的学习能力永远不会过时。
原文和模型
【原文链接】 阅读原文 [ 3849字 | 16分钟 ]
【原文作者】 新智元
【摘要模型】 deepseek/deepseek-v3/community
【摘要评分】 ★★★★★