即刻获取 HarmonyOS应用开发者基础/高级认证 了解详情
写点什么

OpenAI 模型家族更新:GPT-4 训练数据至 2023 年 12 月

  • 2024-02-20
    北京
  • 本文字数:2086 字

    阅读完需:约 7 分钟

大小:1013.39K时长:05:45
OpenAI模型家族更新:GPT-4训练数据至2023年12月

近日,OpenAI 宣布 GPT-3.5-turbo、GPT-4 以及 GPT-4-turbo-preview 等均指向最新模型版本。用户可以发送请求并查看响应对象来验证自己正在使用哪种模型。响应结果中包含所使用的特定模型版本(例如 GPT-3.5-turbo-0613)。

 

OpenAI 还提供静态模型版本,开发人员可以在模型更新发布后的三个月内继续使用原有模型。随着模型更新的加快,OpenAI 还开放了评估贡献通道,由用户针对不同用例协同进行模型改进。

 

感兴趣的朋友请参阅 OpenAI Evals repo:

https://github.com/openai/evals

 

关于弃用模型的更多详细信息,请参阅 OpenAI 官网上的弃用页面:

https://platform.openai.com/docs/deprecations

 

GPT-4 与 GPT-4 Turbo

 

GPT-4 是一套大型多模态模型(可接收文本或图像输入,并输出文本结果),目前通过 OpenAI API 向付费客户开放。

 

与 GPT-3.5-turbo 一样,GPT-4 针对聊天进行了优化,因此可通过聊天完成以往必须借助 Chat Completions API 才能处理的任务。OpenAI 在文本生成指南中专门介绍了如何使用 GPT-4:

https://platform.openai.com/docs/guides/text-generation

 

模型

说明

上下文窗口

训练数据

GPT-4-0125-preview

新模型

更新的GPT-4 Turbo

这套最新GPT-4模型旨在减少模型在任务中途停运的“偷懒”问题,最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-embedding-models-and-api-updates)。

128,000 tokens

截至2023年12月

GPT-4-turbo-preview

目前指向GPT-4-0125-preview。

128,000 tokens

截至2023年12月

GPT-4-1106-preview

GPT-4 Turbo模型在指令跟踪、JSON模式、可重现输出、并行函数调用等方面做出改进,最多可返回4096个输出tokens。此模型仍处于预览阶段。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

128,000 tokens

截至2023年4月

GPT-4-vision-preview

除了GPT-4 Turbo所具备的各项功能之外,这套GPT-4模型还具备理解图像内容的能力。目前指向GPT-4-1106-vision-preview。

128,000 tokens

截至2023年4月

GPT-4-1106-vision-preview

除了GPT-4 Turbo所具备的各项功能之外,这套GPT-4模型还具备理解图像内容的能力。最多可返回4096个输出tokens。此模型仍处于预览阶段。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

128,000 tokens

截至2023年4月

GPT-4

当前指向GPT-4-0613。具体参阅模型持续升级(https://platform.openai.com/docs/models/continuous-model-upgrades)。

8,192 tokens

截至2021年9月

GPT-4-0613

2023年6月13日的GPT-4快照,改进了函数调用支持。

8,192 tokens

截至2021年9月

GPT-4-32k

目前指向GPT-4-32k-0613。具体参阅模型持续升级(https://platform.openai.com/docs/models/continuous-model-upgrades)。此模型从未对外开放,取而代之的是GPT-4 Turbo。

32,768 tokens

截至2021年9月

GPT-4-32k-0613

2023年6月13日的GPT-4-32k快照,改进了函数调用支持。此模型从未对外开放,取而代之的是GPT-4 Turbo。

32,768 tokens

截至2021年9月

对于大部分基本任务,GPT-4 和 GPT-3.5 模型间的差异并不明显。但在需要较复杂推理能力的情况下,GPT-4 则拥有超越 OpenAI 此前各类模型的表现。

 

GPT-3.5 Turbo

 

GPT-3.5 Turbo 模型能够理解并生成自然语言或者代码,针对 Chat Completions API 进行了聊天优化,但也同样适用于非聊天任务。

模型

说明

上下文窗口

训练数据

GPT-3.5-turbo-0125

新模型

更新的GPT 3.5 Turbo

最新的GPT-3.5 Turbo模型在响应请求时拥有更高的准确度,同时修复了可能在非英文语言函数调用中导致文本编码问题的bug。最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-embedding-models-and-api-updates#:~:text=Other%20new%20models%20and%20lower%20pricing)。

 

16,385 tokens

截至2021年9月

GPT-3.5-turbo

目前指向GPT-3.5-turbo-0613。这套GPT-3.5-turbo模型已经于2月16日由GPT-3.5-turbo-0613升级至GPT-3.5-turbo-0125。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-1106

GPT-3.5 Turbo模型,在指令跟踪、JSON模式、可重现输出、并行函数调用等方面做出改进。最多可返回4096个输出tokens。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

16,385 tokens

截至2021年9月

GPT-3.5-turbo-instruct

与GPT-3时代的其他模型功能类似,与旧版Completions端点兼容,但不兼容Chat Completions。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-16k

旧模型

 目前指向 GPT-3.5-turbo-16k-0613。

16,385 tokens

截至2021年9月

GPT-3.5-turbo-0613

旧模型

 2023年6月13日的GPT-3.5-turbo快照,将于2024年6月13日弃用。

4,096 tokens

截至2021年9月

GPT-3.5-turbo-16k-0613

旧模型

2023年6月13日的GPT-3.5-16k-turbo快照,将于2024年6月13日弃用。

16,385 tokens

截至2021年9月

 

DALL·E

 

DALL-E 是一套 AI 系统,能够根据自然语言的描述创建出逼真的图像与艺术效果。DALL-E 3 目前支持根据提示词生成拥有特定尺寸的新图像。DALL-E 2 还支持对现有图像进行编辑、或为用户上传的图像生成变体等功能。

 

DALL-E 3 可通过 OpenAI 的 Images API 同 DALL-E 2 配合使用。用户可通过 ChatGPT Plus 服务体验 DALL-E 3。

 

模型

说明

dall-e-3

新模型

 DALL·E 3

2023年11月发布的最新DALL-E模型。了解更多(https://openai.com/blog/new-models-and-developer-products-announced-at-devday)。

dall-e-2

2022年11月发布的上代DALL-E模型。作为DALL-E的第二个迭代版本,拥有比初代模型更真实、更准确及4倍分辨率的图像生成能力。

 

TTS

 

TTS 是一种 AI 模型,能够将文本转换为听感自然顺畅的语音。OpenAI 提供两种不同模型变量,其中 tts-1 针对实时文本到语音用例进行了优化,tts-1-hd 则针对输出质量进行了优化。这些模型均可通过 Audio API 中的 Speech 端点配合使用。

模型

说明

tts-1

新模型

 Text-to-speech 1

最新文本转语音模型,针对速度进行了优化。

tts-1-hd

新模型

 Text-to-speech 1 HD

最新文本转语音模型,针对速度进行了优化。

 

Whisper

 

Whisper 是一种通用语音识别模型,在包含多种音频的大型数据集上训练而成。它也是一套多任务模型,能够执行多语种语音识别、语音翻译与理解等任务。Whisper v2-large 模型目前可通过 API 调用,模型名称为 Whisper-1。

 

目前,Whisper 的开源版本与 OpenAI 通过 API 提供的版本完全一致。但 API 版本的推理过程经过优化,因此 Whisper 在 API 上的运行速度要比其他方式快得多。

 

关于 Whisper 的更多技术细节,请参阅此论文:

https://arxiv.org/abs/2212.04356

 

Embeddings

 

Embeddings 是指文本的数字表示,可用于衡量两段文本之间的相关性。Embeddings 即嵌入,往往在搜索、聚类、推荐、异常检测和分类任务中拥有良好表现。

 

感兴趣的朋友可以在 OpenAI 的公告博文中了解关于最新嵌入模型的更多信息:

https://openai.com/blog/new-embedding-models-and-api-updates

模型

说明

输出大小

text-embedding-3-large

新模型

 Embedding V3 large

适用于英语和非英语任务的最强嵌入模型。

3,072

text-embedding-3-small

新模型

 Embedding V3 small

拥有超越二代ada嵌入模型的更强性能。

1,536

text-embedding-ada-002

最强大的二代嵌入模型,全面取代了16种初代模型。

1,536

 

Moderation

 

Moderation 审核模型负责检查内容是否符合 OpenAI 的使用政策。这些模型提供分类功能,用于查找以下类别的内容:仇恨、仇恨/威胁、自残、性、性/未成年人、暴力及暴力/图像。

 

更多具体信息请参阅 OpenAI 审核指南:

https://platform.openai.com/docs/guides/moderation/overview

 

审核模型可接受任意大小的输入,将输入自动拆分成 4096 个 tokens 的块。如果总输入超过 32768 个 tokens,则使用截断技术处理。在极少数情况下,此类模型可能会在审核检查中忽略少量 tokens。

 

每条指向审核端点的请求仅显示各类别的最大值。例如,如果一个 4k tokens 块的分类得分为 0.9901,而另一个块的得分为 0.1901,则 API 响应结果将仅显示明显更高的 0.9901。

模型

说明

最大TOKENS

text-moderation-latest

目前指向text-moderation-007。

32,768

text-moderation-stable

目前指向text-moderation-007。

32,768

text-moderation-007

在所有分类任务中最强大的审核模型。

32,768

 

GPT base

 

GPT base 模型能够理解并生成自然语言或者代码,但并未接受指令遵循方面的训练。这些模型旨在替代 OpenAI 之前的 GPT-3 base 基础模型,且使用旧版 Completions API。OpenAI 推荐大多数用户直接使用 GPT-3.5 或者 GPT-4。

模型

说明

最大TOKENS

训练数据

babbage-002

替代ada与babbage基础模型。

16,384 tokens

截至2021年9月

davinci-002

替代GPT-3 curie与davinci基础模型。

16,384 tokens

截至2021年9月

 

使用政策

 

在用户数据处理上,OpenAI 强调用户数据始终归用户所有。

 

自 2023 年 3 月 1 日起,发送至 OpenAI API 的数据将不会被用于训练或改进 OpenAI 模型(除非用户明确表示同意 )。但若选择参与改进,那么模型可能随时间推移更加契合的用例。

 

为了帮助识别滥用行为,API 数据最多可保留 30 天,之后将被删除(除非法律另行要求)。对于用例较为敏感的可信客户,OpenAI 亦提供零数据保留选项。在零数据保留情况下,请求与响应主体不会被持久保存在任何日志记录当中,而仅放置在内存内以支持服务需求。请注意,此数据政策不适用于 OpenAI 提供的非 API 消费级服务,例如 ChatGPT 或 DALl-E Labs。

 

端点默认使用政策

 

端点

数据是否被用于训练

默认保留周期

是否符合零保留条件

/v1/chat/completions*

30天

是,但图像输入除外*

/v1/files

直至客户主动删除

/v1/assistants

直至客户主动删除

/v1/threads

60天

/v1/threads/messages

60天

/v1/threads/runs

60天*

/v1/threads/runs/steps

60天*

/v1/images/generations

30天

/v1/images/edits

30天

/v1/images/variations

30天

/v1/embeddings

30天

/v1/audio/transcriptions

零数据保留

-

/v1/audio/translations

零数据保留

-

/v1/audio/speech

30天

/v1/fine_tuning/jobs

直至客户主动删除

/v1/moderations

零数据保留

-

/v1/completions

30天

* 通过 GPT-4-vison-preview 模型输入的图像不符合零保留条件。

* 对于 Assistants API,OpenAI 仍在 beta 期间评估默认保留周期。预计 beta 结束后将确定沿用默认的保留周期。

 

关于更多详细信息,请参阅 OpenAI 的 API 数据使用政策:

https://openai.com/policies/api-data-usage-policies

 

模型端点兼容性

 

端点

最新模型

/v1/assistants

支持除GPT-3.5-turbo-0301之外的所有模型。检索工具需要匹配GPT-4-turbo-preview(及日期更早的模型版本)或者GPT-3.5-turbo-1106(以及后续版本)。

/v1/audio/transcriptions

whisper-1

/v1/audio/translations

whisper-1

/v1/audio/speech

tts-1, tts-1-hd

/v1/chat/completions

GPT-4及日期更早的模型版本,GPT-4-turbo-preview及日期更早的模型版本,GPT-4-vision-preview,GPT-4-32k及日期更早的模型版本,GPT-3.5-turbo及日期更早的模型版本,GPT-3.5-turbo-16k及日期更早的模型版本,GPT-3.5-turbo的各微调版本。

/v1/completions (Legacy)

GPT-3.5-turbo-instruct, babbage-002, davinci-002

/v1/embeddings

text-embedding-3-small, text-embedding-3-large, text-embedding-ada-002

/v1/fine_tuning/jobs

GPT-3.5-turbo, babbage-002, davinci-002

/v1/moderations

text-moderation-stable, text-moderation-latest

/v1/images/generations

dall-e-2, dall-e-3

此列表不包含已被 OpenAI 弃用的各模型版本:

https://platform.openai.com/docs/deprecations

 

相关链接:

https://platform.openai.com/docs/models/GPT-4-and-GPT-4-turbo

 

2024-02-20 16:5610083

评论

发布
暂无评论

2021安擎昇腾AI服务器产品发布会在京成功举行

DT极客

Flink的基石

五分钟学大数据

flink 4月日更

架构实战营模块1作业指导

华仔

#架构实战营

最新分享:如何避免线程安全的坑?看这一篇就够了

学Java关注我

Java 编程 程序员 架构 计算机

Ubuntu 20.04 快捷键整理

TroyLiu

Linux ubuntu 效率 操作系统 快捷键

华为云AI论文精读会2021第一期:高效语义分割模型Fast-SCNN分享

华为云开发者联盟

AI 华为云

不为人知的网络编程(十二):彻底搞懂TCP协议层的KeepAlive保活机制

JackJiang

TCP 即时通讯 IM

未来已来,HarmonyOS 开发者日全记录

清秋

华为 开发 物联网 新闻 HarmonyOS

java数组打印的几种方式

Sakura

4月日更

面试官关于线程池的这个问题把我问懵逼了。

why技术

面试 Jav 1 周年盛典

计算机原理学习笔记 Day10

穿过生命散发芬芳

计算机原理 4月日更

欢迎参与 KubeVela 官方文档翻译活动

阿里巴巴云原生

容器 云原生 开发工具 OAM 资源调度

【全球年青人召集令】Hello World,Hello 2050

阿里巴巴云原生

容器 开发者 云原生 活动

手把手教大家实现一个电子签名

麦洛

Java canvas

那些打不垮你的,终究使你更强大

小天同学

读书 励志 个人感悟 4月日更

Flink中的状态编程

大数据技术指南

flink 4月日更

CTO 说要接入实时音视频 SDK,我到底该批多少预算?

融云 RongCloud

企业如何做数字化转型?想要资产状况及时把控,它的作用至关重要!

一只数据鲸鱼

数据挖掘 数字化 数据可视化 资产管理

趣题与算法(1)

阳龙生

如何提高Linux水平

cdhqyj

知乎万赞回答:程序员面试为什么被要求造航母,而工作拧螺丝?

Java架构师迁哥

如何在云中构建数字核心

浪潮云

云计算

专访阿里巴巴研究员吴翰清:白帽子的网络安全世界观

五分钟学大数据

网络安全 采访

这个GItHub上的Java项目开源了 2021最全的Java架构面试复习指南

比伯

Java 编程 架构 面试 程序人生

GitHub面试题库+阿里巴巴2021年Java岗面试26大核心专题,成功助我砍下7家大厂Offer

Java架构追梦

Java 阿里巴巴 架构 面试

架构实战营作业2

冷酷小绵羊

泰山版震撼来袭!阿里巴巴Java面试参考权威指南四月版开源

Java架构追梦

Java 阿里巴巴 架构 面试

回顾过去,展望未来,我在 InfoQ 写作平台的一周年!

JackTian

程序员 个人总结 4月日更 1 周年盛典 InfoQ 写作平台 1 周年

架构思维

无心

架构

Linux free 命令

一个大红包

linux命令 4月日更

开源 1 年半 star 破 1.2 万的 Dapr 是如何在阿里落地的?

阿里巴巴云原生

Java 微服务 云原生 中间件 API

OpenAI模型家族更新:GPT-4训练数据至2023年12月_生成式 AI_核子可乐_InfoQ精选文章