黄仁勋对话 Transformer 八子:大模型的起源、现在和未来

AIGC动态8个月前发布 geekpark
843 0 0
黄仁勋对话 Transformer 八子:大模型的起源、现在和未来

 

文章摘要


【关 键 词】 英伟达GTC大会Transformer模型AI浪潮科技行业

GTC大会的第三天,英伟达创始人黄仁勋Transformer模型的提出者们进行了一场深入的对话。Transformer模型是由谷歌大脑团队在2017年提出的,主要解决自然语言处理领域中,传统的RNN(循环神经网络)模型无法解决并行计算的问题。这个模型是今天大模型的基石,被誉为AI浪潮的奠基人。

黄仁勋在开场白中回顾了计算机处理器的发展历程,并强调了加速计算的重要性。他认为,如果能够加速代表99%运行时间的1%代码,那么将获得巨大的好处,可以实现一些之前认为不可能的事情,或者将需要大量金钱或能量的事情变得更加成本效益和节能。他还提到了生成式人工智能的出现,认为这是新的工业革命的开端。

在对话中,Transformer模型的提出者们分享了他们当时面临的问题和挑战,以及如何创造出这个模型。他们认为,模型的扩展和强大是通过大量的训练数据和计算资源实现的。他们还讨论了当前的工作和未来的发展方向,包括推理、知识等新的模型技术。

黄仁勋对Transformer模型的提出者们表示了感谢,并期待他们的下一次互动会带来更多的惊人魔力。他认为,整个行业都应该感激他们的工作,因为他们的工作为AI浪潮的发展奠定了基础。

原文和模型


【原文链接】 阅读原文 [ 9430字 | 38分钟 ]
【原文作者】 极客公园
【摘要模型】 gpt-4-32k
【摘要评分】 ★★★★☆

© 版权声明

相关文章

暂无评论

暂无评论...