写博客,回答问题,玩文字游戏……OpenAI 的语言模型 GPT-3 的文本生成能力自发布以来被不断发掘。现在,美国乔治敦大学安全与新兴技术中心的研究人员又对这一 AI 模型制造虚假信息的潜力进行了测试,结果是:GPT-3 在生成假新闻方面“相当有效,只需少量的人为干预”。

论文《真相、谎言和自动化:语言模型如何改变虚假信息》描述了这项研究。过程中,研究人员让 GPT-3 生成三种类型的文本:完整的文章、单独的段落和针对 Twitter 等社交媒体平台的简短陈述。

经测试,研究人员发现 GPT-3 特别适合生成简短而尖锐的陈述,例如 Twitter 上常见的陈述。另外,GPT-3 似乎很擅长针对某项政策生成各种各样的反对意见。研究人员说,他们的研究得出了一个“初步但令人震惊的结论”:像 GPT-3 这样的语言 AI 可能很适合生成有微妙错误的信息。

人工智能的风险不在于单个功能本身,而在于其扩展性,GPT-3 也不例外。研究人员指出,组织制造虚假信息的人在人机团队中能够更有效地工作。

为防止 GPT-3 被滥用,OpenAI 已经采取了一些措施,比如,建立了一个监控系统以限制滥用 API,并对可能的滥用及时做出反应。但这不应是社会应对 GPT-3 之类强大的语言 AI 仅有的举措。

研究发现 GPT-3 生成假新闻“相当有效,只需少量的人为干预”