引言
GPT-3 是 OpenAL 提出的基于上下文的超大规模自然处理深度学习模型。这意味着如果你给 GPT-3 某些上下文内容时,它会试图去填充其余内容。例如给出句子的前部分,它会推测出下半部分。
但最近 OpenAL 在官博和推特上发布了新版本的 GPT-3 和 Codex,它们可以编辑与插入,而不仅仅是完成现有版本。新功能可以修改现有内容、而不仅是预测文本,以往的 GPT-3 只能根据上下文预测;而新版本 GPT-3 则可以修改现有内容,也可以使内容变得更加有趣。
我们先一起来看一个例子:
GPT-3 和 Codex 传统上会根据之前出现的文本在现有内容的末尾添加文本。无论是使用文本还是代码,写作不仅仅是附加,它是一个更新迭代过程,对现有文本进行修改。根据例子可以发现新版本可以编辑文本、更改当前存在的内容或在内容中间添加文本。
01 插入文本
GPT-3 原有的功能是基于上下文进行推测,新的插入功能是在现有内容的中间添加上下文相关的文本。为模型提供未来的上下文可以提高应用程序的完成质量,例如编写长篇文本、在段落之间转换、遵循大纲或引导模型走向结尾。
如果没有下文的内容,模型会生成与第二部分无关的内容。当考虑到下文时,模型就会生成一段能够良好连接两部分内容的文本。
在上面的示例中,希望在大纲的两节标题之间填写文本。如果没有添加上下文语境背景的第二小节标题,GPT-3模型会生成与第二部分无关的填充文本。若添加内容有助于提示语境,模型就会生成能有机联系各部分小标的填充文本。
插入对于编写代码的确在开发中很有用。在日常软件开发中,程序员通常需要参考前后的代码逻辑,然后在当前文件中添加新的代码。
例如 GPT-3 参考上下文代码,模型成功完成了缺失的功能prune,同时连接到已经编写的代码。
02 编辑现有文本
之前的 GPT-3 和 Codex 会根据出现的文本在现有内容的末尾添加文本。无论是写文本还是写代码,真正人类的写作工作都不仅仅是个叠加字符的过程,它是一个既有文本不断被修正的迭代过程。
GPT-3 推出的编辑功能更多的是修改现有内容,而不是根据上文推测下文。
通过对现有文本指定为提示,并给出如何修改指示,GPT-3 编辑功能可以修改文本的语气或者结构,或者做一些针对性的修改,例如单词拼写。
在上面的示例中, GPT-3 执行下面三种指示:添加一首诗;将这首诗修改为第一人称;将这首诗修改为带有适当称呼和签名的字母。
03 总结
从 GPT-3 出现以来,可以看到巨量模型发展越来越快,越来越智能,未来模型的发展会带来哪些变化还不确定,就目前来说已经有很大的进步。
你怎么看呢?
参考链接:
https://openai.com/blog/gpt-3...