赞
踩
今天的人工智能系统具有令人印象深刻但范围有限的能力。 似乎我们会不断削弱它们的限制,在极端情况下,它们几乎可以在每一项智力任务上达到人类的水平。 很难想象人类水平的人工智能能给社会带来多大的好处,同样也很难想象如果构建或使用不当会对社会造成多大的破坏。
今天登陆openAI官网看到一条消息:
openAI 的 chatGPT API即将推出,这里可以先加入waitlist(sign up):
之前老是看见有视频、博文声称自己使用此处几个字违规
API把chatGPT 弄到网页中、小程序中或者Python脚本中,今天看了一下openAI的documents,看来,它们大多应该使用的是GPT-3的API。
现在常见的视频有:拿GPT-3当chatGPT的;通过一些技术手段将chatGPT进行包装的;给你出售、共享chatGPT(以及chatGPT Plus)账号的;教你科学上网的。
ChatGPT is fine-tuned from a model in the GPT-3.5 series, which finished training in early 2022. You can learn more about the 3.5 series here. ChatGPT and GPT 3.5 were trained on an Azure AI supercomputing infrastructure.
Chatgpt是从GPT-3.5系列中的模型中进行微调的,该系列于2022年初完成了培训。您可以在此处了解有关3.5系列的更多信息。 Chatgpt和GPT 3.5接受了Azure AI超级计算基础架构的培训。
ChatGPT is a sibling model to InstructGPT, which is trained to follow an instruction in a prompt and provide a detailed response.
chatGPT 是InstructGPT的一个兄弟模型。该模型经过培训,可以在提示中遵循指令并提供详细的响应。
GPT:Generative Pre-trained Transformer。一种生成式预训练 Transformer 模型。
相关论文:
GPT-1:https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
GPT-2:https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
GPT-3:https://arxiv.org/pdf/2005.14165.pdf
此前,大多数最先进的 NLP 模型都是使用监督学习专门针对特定任务(如情感分类、文本蕴含等)进行训练的。然而,监督模型有两个主要限制:
GPT-1 提出使用未标记数据学习生成语言模型,然后通过提供特定下游任务(如分类、情感分析、文本蕴涵等)的示例来微调模型。
Unsupervised learning served as pre-training objective for supervised fine-tuned models, hence the name Generative Pre-training.
无监督学习作为监督微调模型的预训练目标,因此得名生成预训练。
GPT-1使用BooksCorpus数据集训练语言模型。 BooksCorpus 有大约 7000 本未出版的书籍,这些书籍有助于在看不见的数据上训练语言模型。该数据不太可能在下游任务的测试集中找到。此外,这个语料库有大段的连续文本,有助于模型学习大范围的依赖关系。
GPT-1使用12层decoder only transformer结构和masked self-attention来训练语言模型。模型的架构在很大程度上与变压器的原始工作中描述的相同。屏蔽有助于实现语言模型目标,其中语言模型无法访问当前词右侧的后续词。
GPT-1 证明了语言模型是一个有效的预训练目标,可以帮助模型很好地泛化。该架构促进了迁移学习,并且只需很少的微调就可以执行各种 NLP 任务。该模型展示了生成式预训练的力量,并为其他模型开辟了道路,这些模型可以通过更大的数据集和更多的参数更好地释放这种潜力。
这一年也是NLP(自然语言处理)的预训练模型元年。性能方面,GPT-1有着一定的泛化能力,能够用于和监督任务无关的NLP任务中。其常用任务包括:
自然语言推理:判断两个句子的关系(包含、矛盾、中立)
问答与常识推理:输入文章及若干答案,输出答案的准确率
语义相似度识别:判断两个句子语义是否相关
分类:判断输入文本是指定的哪个类别
虽然GPT-1在未经调试的任务上有一些效果,但其泛化能力远低于经过微调的有监督任务,因此GPT-1只能算得上一个还算不错的语言理解工具而非对话式AI。
GPT-2 模型的发展主要是在使用更大的数据集和向模型中添加更多参数以学习更强大的语言模型方面。GPT-2 有 15 亿个参数。是 GPT-1(117M 参数)的 10 倍。
为了创建一个广泛且高质量的数据集,作者抓取了 Reddit 平台并从高赞文章的出站链接中提取数据。生成的名为 WebText 的数据集包含来自超过 800 万份文档的 40GB 文本数据。该数据集用于训练 GPT-2,与用于训练 GPT-1 模型的 Book Corpus 数据集相比规模庞大。所有维基百科文章都从 WebText 中删除,因为许多测试集包含维基百科文章。
GPT-2 表明,在更大的数据集和更多参数上进行训练提高了语言模型理解任务的能力,并超越了零镜头设置中许多任务的最新技术水平。
在性能方面,除了理解能力外,GPT-2在生成方面第一次表现出了强大的天赋:阅读摘要、聊天、续写、编故事,甚至生成假新闻、钓鱼邮件或在网上进行角色扮演通通不在话下。在“变得更大”之后,GPT-2的确展现出了普适而强大的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。
为了构建非常强大的语言模型,无需微调,只需少量演示即可理解和执行任务,Open AI 构建了具有 1750 亿个参数的 GPT-3 模型。该模型的参数比微软强大的图灵 NLG 语言模型多 10 倍,比 GPT-2 多 100 倍。
由于大量参数和广泛的数据集 GPT-3 已经过训练,它在零样本和少样本设置中的下游 NLP 任务上表现良好。由于其容量大,它具有编写与人类撰写的文章难以区分的能力。它还可以执行从未明确训练过的即时任务,例如求和数字、编写 SQL 查询和代码、解读句子中的单词、在给出任务的自然语言描述的情况下编写 React 和 JavaScript 代码等。
尽管 GPT-3 能够生成高质量的文本,但有时它会在制定长句子时开始失去连贯性,并一遍又一遍地重复文本序列。此外,GPT-3 在自然语言推理(确定一个句子是否暗示另一个句子)、填空、一些阅读理解任务等任务上表现不佳。该论文将 GPT 模型的单向性作为可能原因这些局限性,并建议以这种规模训练双向模型来克服这些问题。
除了这些限制外,GPT-3 还存在滥用其类人文本生成能力进行网络钓鱼、垃圾邮件、传播错误信息或执行其他欺诈活动的潜在风险。此外,GPT-3 生成的文本具有其训练语言的偏见。 GPT-3 生成的文章可能具有性别、民族、种族或宗教偏见。因此,谨慎使用此类模型并在使用前监控它们生成的文本变得极其重要。
InstructGPT 模型比 GPT-3 更擅长遵循指令。他们也不太经常编造事实,并且在“有害”输出产生方面表现出小幅下降。尽管参数少了 100 多倍,但我们的标签制作者更喜欢 1.3B InstructGPT 模型的输出而不是 175B GPT-3 模型的输出。
openAI 正在推出 ChatGPT 的试点订阅计划,ChatGPT 是一种对话式人工智能,可以与您聊天、回答后续问题并挑战不正确的假设。
新订阅计划 ChatGPT Plus 的价格为每月 20 美元,订阅者将获得许多好处:
- 高峰时段正常访问chatGPT;
- 更快的的相应时间;
- 优先使用新功能和改进。
ChatGPT Plus 可供美国客户使用,将在未来几周内开始从候补名单中邀请人员。计划很快将访问和支持扩展到更多国家和地区。
当然了,我们还可以使用免费版:
We love our free users and will continue to offer free access to ChatGPT. By offering this subscription pricing, we will be able to help support free access availability to as many people as possible.
我们热爱我们的免费用户,并将继续提供对 ChatGPT 的免费访问。通过提供此订阅价格,我们将能够帮助支持尽可能多的人免费访问。
尽管如此,由于用户量的激增,chatGPT也不堪重负,在高峰时段,免费用户可能无法使用服务,你会看到ChatGPT is at capacity right now的提示。
解决方法是:
这一小节将会引用很多openAI官方Blog的内容,并做翻译,水平有限,读者结合英文原文来看。
OpenAI,在美国成立的人工智能研究公司,核心宗旨在于“实现安全的通用人工智能(AGI)”,使其有益于人类。
这是openAI 2015年12月11日发布的第一篇Blog:https://openai.com/blog/introducing-openai/
最初的宗旨(2015-12-11):
OpenAI is a non-profit artificial intelligence research company. Our goal is to advance digital intelligence in the way that is most likely to benefit humanity as a whole, unconstrained by a need to generate financial return. Since our research is free from financial obligations, we can better focus on a positive human impact.
OpenAI 是一家非盈利的人工智能研究公司。 我们的目标是以最有可能造福全人类的方式推进数字智能,不受产生财务回报需求的限制。 由于我们的研究没有财务义务,我们可以更好地关注对人类的积极影响。
We believe AI should be an extension of individual human wills and, in the spirit of liberty, as broadly and evenly distributed as possible. The outcome of this venture is uncertain and the work is difficult, but we believe the goal and the structure are right. We hope this is what matters most to the best in the field.
我们认为人工智能应该是人类个人意志的延伸,并且本着自由的精神,尽可能广泛和均匀地分布。 这个项目的结果是不确定的,工作是艰巨的,但我们相信目标和结构是正确的。 我们希望这是该领域最重要的事情。
不得不说,还是很伟大的。
AI systems today have impressive but narrow capabilities. It seems that we’ll keep whittling away at their constraints, and in the extreme case they will reach human performance on virtually every intellectual task. It’s hard to fathom how much human-level AI could benefit society, and it’s equally hard to imagine how much it could damage society if built or used incorrectly.
今天的人工智能系统具有令人印象深刻但范围有限的能力。 似乎我们会不断削弱它们的限制,在极端情况下,它们几乎可以在每一项智力任务上达到人类的水平。 很难想象人类水平的人工智能能给社会带来多大的好处,同样也很难想象如果构建或使用不当会对社会造成多大的破坏。
We’re hoping to grow OpenAI into such an institution. As a non-profit, our aim is to build value for everyone rather than shareholders. Researchers will be strongly encouraged to publish their work, whether as papers, blog posts, or code, and our patents (if any) will be shared with the world. We’ll freely collaborate with others across many institutions and expect to work with companies to research and deploy new technologies.
我们希望将 OpenAI 发展成为这样一个机构。 作为一个非营利组织,我们的目标是为每个人而不是股东创造价值。 强烈鼓励研究人员发表他们的工作,无论是论文、博客文章还是代码,我们的专利(如果有)将与全世界共享。 我们将与许多机构的其他人自由合作,并期望与公司合作研究和部署新技术。
2015年,在openAI成立之初,捐助者们就承诺援助10亿美元,到2023年的今天,openAI因chatGPT早已家喻户晓了。
来看看科技巨头是怎样做的:
2016-11-15:
openAI与 Microsoft 合作,开始在 Azure (微软云计算服务平台)上运行大部分大规模实验。 这将使 Azure 成为 OpenAI 用于深度学习和 AI 的主要云平台。微软向openAI提供具有大规模 无限带宽互连的 K80 GPU。
openAI写到:
It’s great to work with another organization that believes in the importance of democratizing access to AI. We’re looking forward to accelerating the AI community through this partnership
2019-07-22:
微软正在向 OpenAI 投资 10 亿美元,以支持我们构建具有广泛分布的经济利益的人工智能 (AGI)。我们正在合作开发 Microsoft Azure 中的硬件和软件平台,该平台将扩展到 AGI。我们将共同开发新的 Azure AI 超级计算技术,微软将成为我们的独家云提供商——因此我们将共同努力,进一步扩展 Microsoft Azure 在大规模 AI 系统中的能力。
2020-09-22:
OpenAI 向微软授权 GPT-3 技术。
2023-01-23:
OpenAI 和微软扩大伙伴关系,继 2019 年和 2021 年的投资之后,Microsoft 进行了多年、数十亿美元的投资,将使openAI能够继续独立研究和开发越来越安全、有用和强大的 AI。
微软基于 ChatGPT 的全新 Bing 体验现在已经作为桌面版“有限预览”提供给“所有人”使用。 https://www.bing.com/new,大家是否加入waitlist了呢?
虽然chatGPT API还没有正式推出,但GPT-3已经是性能不错的API了。
OpenAI API 几乎可以应用于任何涉及理解或生成自然语言或代码的任务。openAI 提供一系列具有不同级别的模型,适用于不同的任务,并且能够微调您自己的自定义模型。这些模型可用于从内容生成到语义搜索和分类的所有领域。
API 具体使用方法请参考openAI官方文档。
调用openAI API并不是免费的,它通过“token”来计费。(这里的token与我们常说的token有所不同,你可以把它理解为一个计数单位。)
1个token大概等于4个字符或0.75个单词,对于大多数模型,输出长度不能超过2048个tokens,大约就是1500个单词。(在使用此处几个字违规
的时候不是常常一次性说不完,要continue嘛。)
而对于不同的模型,1个token的单价也是不同的,比如Ada模型:$0.0004 / 1K tokens。你可以去官网看:https://openai.com/api/pricing/
当然了,你去openAI官网使用此处几个字违规
肯定不会消耗token撒。
新用户会有18美元体验额度(限3个月):
而要实现这一计费过程,就需要申请API keys,用来身份鉴定和token计费。
登录openAI后点击头像即可申请key,申请时记得复制保存,关闭后不会显示第二次。
OpenAI API 由一系列具有不同功能和价位的模型提供支持。
MODELS | DESCRIPTION |
---|---|
GPT-3 | 一组可以理解和生成自然语言的模型 |
Codex(有限公测) | 一组可以理解和生成代码的模型,包括将自然语言翻译成代码 |
Content filter | 可以检测文本是否敏感或不安全的微调模型 |
GPT-3 模型可以理解和生成自然语言。我们提供四种主要型号,它们具有不同的功率级别,适用于不同的任务。达芬奇是最有能力的模型,而阿达是最快的。
最新模型 | 描述 | 最大请求 | 训练数据 |
---|---|---|---|
text-davinci-003 | 功能最强大的 GPT-3 模型。可以完成其他模型可以完成的任何任务,通常具有更高的质量、更长的输出和更好的指令遵循。还支持在文本中插入补全。 | 4,000 tokens | Up to Jun 2021 |
text-curie-001 | Very capable, but faster and lower cost than Davinci. | 2,048 tokens | Up to Oct 2019 |
text-babbage-001 | 能够执行简单的任务,速度非常快,成本更低。 | 2,048 tokens | Up to Oct 2019 |
text-ada-001 | 能够执行非常简单的任务,通常是 GPT-3 系列中最快的型号,而且成本最低。 | 2,048 tokens | Up to Oct 2019 |
建议先试试最便宜的,可以使用GPT 比较工具,让您并排运行不同的模型来比较输出、设置和响应时间。https://gpttools.com/comparisontool
Codex 模型是可以理解和生成代码的 GPT-3 模型的后代。他们的训练数据包含自然语言和来自 GitHub 的数十亿行公共代码
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。