斯坦福15张图揭示最新AI 动态:开源风评又“被害”,谷歌、OpenAI争当基础模型“劳模”

AIGC动态3个月前发布 ai-front
225 0 0
斯坦福15张图揭示最新AI 动态:开源风评又“被害”,谷歌、OpenAI争当基础模型“劳模”

 

文章摘要


【关 键 词】 人工智能技术进步投资增长环境影响法律监管

2023年人工智能领域取得了显著的进步,这一点在斯坦福HAI研究所发布的《2024人工智能指数报告》中得到了充分体现。报告详细分析了人工智能技术发展趋势公众观感地缘政治动态以及大量原始数据

报告指出,尽管人工智能在图像分类语言理解等方面的表现已经超越了人类,但在处理事实复杂推理结论解释方面仍存在重大挑战。生成式AI领域的私人投资在2023年激增,尤其是在美国。谷歌在基础模型的竞争中占据主导地位,发布了最多的基础模型,这些模型为开发人员提供了构建产品和服务的基础。

报告还提到了基础模型的开源与封闭之争,尽管大多数新发布的模型是开源的,但性能最高的模型往往来自封闭系统的行业参与者。同时,培训大型语言模型的成本急剧增加,例如OpenAI的GPT-4和谷歌的Gemini Ultra的训练成本分别高达7800万美元和1.91亿美元。

环境影响方面,AI模型的训练和使用对环境产生了不容忽视的影响,尤其是在碳排放方面。报告强调了美国在基础模型发布方面的领先地位,同时中国在人工智能专利授予工业机器人安装方面处于领先。

人才流向方面,越来越多的人工智能博士毕业生选择加入工业界,而进入政府职位的比例相对较低。AP CS考生的种族多样性正在增加,反映了教育领域的变化。企业在财报电话会议中提及人工智能的次数显著增加,尤其是生成式AI成为最常讨论的主题。

报告还显示,人工智能帮助企业降低成本增加收入,但对低技能工人的帮助大于对高技能工人。企业对人工智能的风险感知增加,隐私数据治理被认为是最大的风险,而公平性问题尚未得到广泛认可。

尽管人工智能在多个任务上的表现超越了人类,但在更复杂的任务上仍然落后。此外,报告指出,人工智能的标准化评估严重缺乏,这使得比较顶级模型的风险和局限性变得困难。

法律在促进和限制人工智能方面发挥了双重作用,33个国家至少通过了一项相关法律,大多数行动发生在美国和欧洲。公众对人工智能的焦虑感增加,尽管年轻人对人工智能改变生活持乐观态度,但西方发达国家的悲观情绪较为显著。与此同时,印度尼西亚和泰国等国的受访者预计人工智能的好处将大于其危害。

原文和模型


【原文链接】 阅读原文 [ 2473字 | 10分钟 ]
【原文作者】 AI前线
【摘要模型】 gpt-4
【摘要评分】 ★★★★★

© 版权声明
讯飞星火大模型

相关文章

星火内容运营大师

暂无评论

暂无评论...