符尧,yao.fu@ed.ac.uk爱丁堡大学博士生,硕士毕业于哥伦比亚大学,本科毕业于北京大学与彭昊,Tushar Khot在艾伦人工智能研究院(Allen Institute for AI) 共同完成英文原稿与 剑桥大学郭志江共同翻译为中文感谢 上海交通大学何俊贤,加州大学洛杉矶分校鲁盼,达特茅斯学院刘睿博对初稿的讨论与建议。感谢Raj Ammanabrolu(Allen Institute for AI),Peter Liu(Google Brain),Brendan Dolan-Gavitt(New York University),Denny Zhou(Google Brain) 对终稿的讨论和建议,他们的建议极大程度上增加了本文的完整度。英文版完稿于 2022 年 12 月 11 日,中文版完稿于 2022 年 12 月 18 日。其他版本: [pdf] [Arxiv] [英文原版] [学术引用]在推特上与作者互动初次翻译,哪里没写好,不地道的地方,还请邮件帮忙指出转发请在文章的开头标明出处,而不是在结尾列一行小字最近,OpenAI的预训练模型ChatGPT给人工智能领域的研究人员留下了深刻的印象和启发。毫无疑问,它又强又聪明,且跟它说话很好玩,还会写代码。它在多个方面的能力远远超过了自然语言处理研究者们的预期。于是我们自然就有一个问题:ChatGPT 是怎么变得这么强
...
继续阅读
(55)