
4 月 17 日,火山引擎发布豆包 1.5・深度思考模型,引发业内关注与讨论。全新发布的豆包 1.5・深度思考模型,在数学、代码、科学等专业领域推理任务中表现出色,已经达到或接近全球第一梯队水平;在创意写作等非推理任务中,模型也展示出优秀的泛化能力,能够胜任更广泛和复杂的使用场景。
豆包 1.5・深度思考模型包含两个版本,第一个主线版本是大语言模型 Doubao-1.5-thinking-pro,第二个是多模态版。前者推理能力更强,后者支持视觉推理。
目前,火山引擎边缘大模型网关已全面支持豆包 1.5・深度思考模型!即日起,用户可以在边缘大模型网关使用豆包全系列模型,并享受 200 万 tokens 免费额度,只要在网关访问密钥使用了本次新增的豆包大模型,还可以申请将免费额度提升至 500 万 tokens !

边缘大模型网关,助力豆包大模型调用
火山引擎边缘大模型网关支持通过一个 API 接口访问多家大模型提供商的模型与智能体,在端侧基于遍布全球的边缘计算节点就近调用。利用边缘云基础架构优势,提高模型访问速度,为终端用户提供更快速、可靠的 AI 服务体验。

在边缘大模型网关,用户可通过两种方式调用豆包 1.5・深度思考模型:
一是通过平台预置模型,边缘大模型网关预置模型中,新增由火山方舟提供的豆包 1.5・深度思考模型,您可直接使用并对其创建网关访问密钥;
二是通过自有三方模型,您可以将您在第三方模型平台的密钥纳管至边缘大模型网关,通过边缘大模型网关签发的网关访问密钥,进行对应模型的访问与调用。


据了解,豆包 1.5・深度思考模型采用 MoE 架构,总参数为 200B ,激活参数仅 20B ,具备显著的训练和推理成本优势。基于高效算法,豆包 1.5・深度思考模型在提供行业极高并发承载能力的同时,实现 20 毫秒极低延迟。除此之外,「深度思考」和「视觉理解」复合能力的加持,让豆包 1.5・深度思考模型就像是一个长有「聪明大脑」和「眼睛」的超级 AI,解决问题的能力大大提升。
通过边缘大模型网关调用豆包 1.5 · 深度思考模型,还具备以下优势:
加速调用:基于端侧请求发起位置,边缘大模型网关将请求就近路由到网络延时最低的节点,加速豆包 1.5 · 深度思考模型的响应速度,提升服务质量。
控制成本:边缘大模型网关利用边缘缓存机制对请求就近存储,并在相同请求发出时就近调用,减少豆包 1.5 · 深度思考模型调用请求的回源次数,降低模型调用成本,实现成本管控。
自动重试:当请求调用超时或失败时,配置请求重试次数,即可通过边缘大模型网关实现模型调用自动重试,降低手动运维成本。
故障转移:当单个模型故障时,通过边缘大模型网关的一个 API 配置多个模型,就可以自动切换同类型下的备用模型,确保服务的连续性和可靠性。

豆包大模型特惠,扩容免费提升至 500 万 tokens
当前,火山引擎边缘大模型网关已适配 100+ 种主流大模型及智能体,首次创建每个网关访问密钥可用额度为 200 万 tokens !
针对豆包 1.5・深度思考模型,边缘大模型网关推出特惠活动,只要在边缘大模型网关创建网关访问密钥,并关联本次最新的豆包大模型,即可提交扩容申请,免费额度提升至 500 万 tokens !
免费额度获取方式:
登录边缘大模型网关控制台(https://console.volcengine.com/vei/aigateway/overview),创建网关访问密钥即可获得 200 万免费 tokens 额度
在已经完成创建的网关访问密钥中,关联带有 NEW 标识的最新豆包模型,即可申请获取更多额度,最高可达 500 万免费 tokens!
扩容申请指导:
登录火山配额中心:
https://console.volcengine.com/quota/productList/ParameterList?ProviderCode=vei_api
选择“ai-gateway-token-limit”提交申请:申请中需要说明需要配置免费额度的网关访问密钥 ID,额度可以选择至 500 万,选择更高额度,以 500 万进行生效
详细指导说明请见:
https://www.volcengine.com/docs/6893/1456325
点击链接:https://console.volcengine.com/auth/login?redirectURI=%2Fvei%2Faigateway%2Foverview即可登录边缘大模型网关控制台,赶紧使用起来~
评论