为了确认GPT-3对人们的书写和阅读方式可能产生的影响,来自加利福尼亚大学伯克利分校的学生利亚姆·波尔(Liam Porr)不久前进行了一项实验。
他以化名Adolos开设了一个博客,在那里他发表了由GPT-3模型生成的文章。
第一篇文章在《 Hacker News》的头条新闻中排名第一,并且也被重新发布在诸如媒介等主要平台上。
该博客迅速获得60位关注者和大约26,000次访问。
但是注意到这篇文章是由人工智能生成的,只有少数人对此提出质疑。
这篇文章的标题,吸引了很多网民的同情和呼应。
评论者之一指出,“这可能是由GPT-3撰写的,物质含量为零”,但被其他人反驳,被要求提供原因,并且“保持文明,不要侮辱他人”。
”。
实际上,Porr本人只指定了标题和简介,而所有其他内容则由GPT-3完成。
他发现GPT-3不擅长逻辑和推理,但可以创造优美的句子。
这样的文章不能经受仔细的审查,但是并不能阻止很多人仍然阅读它们,并且通常足以引发一个受欢迎的话题。
GPT-3被认为是迄今为止最大的AI语言模型,由1,750亿个参数组成。
这是前所未有的巨大语言模型。
它几乎可以完成所有可以用语言表达的工作,并且可以指导它回答问题,写文章,写诗甚至编写代码。
其背后的开发人员OpenAI仅开放了少量的GPT-3 API测试资格,而Porr找到了一名合格的博士生来与Berkeley AI社区合作。
从产生这种想法到使用GPT-3产生具有病毒潜能的物品,Porr只花了几个小时。
在此之前的一周,他不了解GPT-3是什么。
实验持续了两个星期,最后在Adolos博客上发表的最后一篇文章中结束,该文章指出“滥用这项技术的方法比制造纳粹宣传要微妙得多”。
当然,这篇文章是由GPT-3生成还是由人类撰写也是一个谜。
Porr本人最终在他的博客中解释了整个实验过程。
除了警惕当前网络内容的质量和人们的区分能力外,他还提出了GPT-3之类的技术对媒体组织的可能影响。
他认为,即使可以大幅度降低劳动力成本,传统的和成熟的媒体由于其专业性仍然会抵制它们,而新媒体可能会从中获得空间。