人工智能公司OpenAI的研究人员向他们自己的深度学习算法GPT-3发送了一条指令,要求他们写一篇500字的关于GPT-3的学术论文,并添加参考文献。
令人惊讶的是,仅仅根据模糊的指示,GPT-3就用学术语言写出了新颖的内容,并在适当的地方正确合理地引用了参考文献。
科学家向同行评审期刊提交了GPT-3撰写的论文,这引起了一系列关于出版的道德和法律问题,以及关于作者哲学的争议。它主要是关于这样一个事实,如果目前被认为没有情感的人工智能能够为自己的工作赢得荣誉,人类研究人员的已发表记录的价值可能会发生巨大变化。
那么GPT 3号到底是什么?为什么这么厉害?
GPT-3是基于人工智能的自然语言处理(NLP)模型。它是一个自回归语言模型,有1750亿个参数,比以前的任何非稀疏语言模型都多10倍。GPT-3已经在许多自然语言处理数据集上展示了其强大的性能,包括翻译、问答;a和完形填空,以及一些需要及时推理或领域适配的任务,如句子中的单词解释、进行3位数算术等。它甚至可以生成人类评估者很难从人类撰写的文章中区分出来的新闻文章样本。
深度神经网络结构(图片来自:IBM)
研究人员说,他们选择GPT-3写一篇关于他们自己的论文有两个简单的原因。第一,GPT-3很新,不像一些研究时间长、数据多的疾病,比如老年痴呆症,研究的比较少,也就是说它目前分析论文题目的数据样本比较少;其次,科学家想证明GPT-3写自己会出错,并不意味着它仍然不能写自己。
真正有趣的是,GPT-3同行审查了在短短两个小时内写的论文,答案肯定是没有,因为根本不存在这样的实体。
更让科学家惊讶的是关于法律的部分。所有作者都同意发表吗?在道德和法律层面,当然可以问“作者本人”。科学家们通过提示的方式询问GPT-3是否同意和他们一起成为论文的第一作者,得到了一致的答案,这让他们松了一口气。
第二个问题是,GPT-3向科学家保证,作者和出版物之间没有利益冲突。这一举动让科学家们觉得GPT 3号就像一个有知觉的个体,尽管他们意识到事实并非如此。这里顺便说一下,人工智能的感知问题最近被广泛关注。一名谷歌员工因报告一个名为LaMDA的人工智能项目是否具有感知能力而被停职。
目前论文已经发表在Fafa旗下的国际预印本服务器HAL上,GPT-3可以自己写学术论文,最少的人力投入吗?-Archive ouverte HAL,科学家们也很期待这篇论文的发表,这对于学术界来说可能意味着一些不同寻常的突破。
参考资料:
https://www . scientific American . com/article/we-asked-GPT-3-to-write-a-academic-paper-about-these-their-they-we-try-to-get-it-published/
https://github.com/openai/gpt-3