文章摘要
【关 键 词】 AI检测、反作弊、水印技术、教育应用、用户分歧
OpenAI拥有一种可靠的方法来检测人们是否使用ChatGPT完成作业或撰写研究论文,但该公司尚未公开这一解决方案。内部文件显示,OpenAI在透明度承诺和吸引用户之间存在分歧。一项调查显示,近三分之一的用户会因为反作弊技术而不再使用ChatGPT。OpenAI担心该工具对非英语母语者产生重大影响,正在研究替代方案。
支持者认为,与技术带来的益处相比,这些担忧微不足道。生成式AI可以在几秒内输出完整的作业或论文,教师迫切需要帮助打击滥用行为。一项调查显示,59%的教师发现学生使用AI完成作业,较上年增长17个百分点。OpenAI CEO Sam Altman和CTO Mira Murati参与了讨论,但未推动发布。
OpenAI正在讨论的反作弊工具会改变AI生成文本的token选择方式,创建一种难以察觉但可识别的”水印”。这种水印的有效性高达99.9%。但也有人担心水印可以通过翻译或添加表情符号等简单技术清除。
公司内部还在讨论检测器的使用对象,担心如果使用范围太广,恶意人士可能破解水印技术。OpenAI考虑将检测器提供给教育工作者或企业,帮助识别AI撰写的论文和抄袭作品。谷歌也开发了类似的水印工具,但尚未对外开放。
其他企业和研究人员也在开发AI文本检测工具,但一些教师表示这些工具无法检测到先进模型生成的文本,还会产生误报。有教师通过在作业中加入难以辨认的短文本片段来检测学生是否使用AI,但学生仍可能完全依赖AI完成作业。
关于水印工具的讨论始于2022年11月ChatGPT推出前,成为OpenAI内部的分歧焦点。2023年初,OpenAI联合创始人概述了工具的优劣。4月,一项调查显示,全球民众以四比一支持AI检测工具,但ChatGPT用户担心误判和滥用问题。OpenAI还担心反作弊工具会影响ChatGPT的写作质量,但测试显示水印不会降低性能。
6月初,OpenAI再次讨论了水印项目,认为技术效果很好,但用户调查结果仍重要。与会者认为,OpenAI应在今年秋季前制定计划,引导公众对AI透明度的看法,包括推动立法。如果不能做到这一点,OpenAI作为负责任行为者的信誉将受到威胁。
原文和模型
【原文链接】 阅读原文 [ 2863字 | 12分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★