QCon北京「鸿蒙专场」火热来袭!即刻报名,与创新同行~ 了解详情
写点什么

DeepSeek 蝴蝶振翅,会掀起 AI 出海的狂风巨浪吗?

Alex Yeh

  • 2025-03-06
    北京
  • 本文字数:5151 字

    阅读完需:约 17 分钟

大小:2.40M时长:13:59
DeepSeek蝴蝶振翅,会掀起AI出海的狂风巨浪吗?

最近两个月,DeepSeek 凭借创新的 MoE 混合专家模型架构,在模型性能与训练成本上实现了突破性进展,引爆了全球 AI 狂潮,DeepSeek 也一度成为海外最受欢迎的 AI 产品,由此引发了业内非常多关于 AI 出海的探讨。


本期《极客有约》,极客邦科技创始人 &CEO 霍太稳 对话 GMI Cloud 创始人 &CEO Alex Yeh,深入探讨了 GMI Cloud 在 AI 出海方面的一些探索与实践。GMI Cloud 是一家 AI Native Cloud 服务商,为各类企业提供 AI 云服务解决方案。去年 10 月他们完成了 8200 万美元的融资。    


00:00 / 00:00
    1.0x
    • 3.0x
    • 2.5x
    • 2.0x
    • 1.5x
    • 1.25x
    • 1.0x
    • 0.75x
    • 0.5x
    网页全屏
    全屏
    00:00

    直播回放


    以下为经编辑整理后的访谈精华:


    为什么选择拥抱这波 AI 浪潮?


    霍太稳:GMI Cloud 是一家怎样的公司?创办的宗旨是什么?

    Alex:GMI Cloud 是一家专注于 AI Native Cloud 的初创服务商,也就是 AI 原生服务提供商。我们给很多企业提供 AI 云服务解决方案,去年 10 月份完成了 8200 万美元的融资。“GMI”代表 General Machine Intelligence。我们创办 GMI Cloud 的宗旨,就是支持任何企业、创办人或创作者去部署 AI,把 AI 微调并规模化。不管是模型训练、推理,还是需要应用或简单 API,我们都能快速提供相应解决方案。


    霍太稳:是在怎样的契机下创建 GMI Cloud 的?

    Alex:超过 3 年半前,我原本从事 VC 和 PE 投资。当时投了朋友的比特币矿场,后来 2020 年 5 月因为一些原因,我面临很大损失。当时我有两个选择,要么直接承受投资损,要么出海找解决方案,我选择了后者。去纽约找数据中心没人理我,我就决定自己盖。花了两年时间盖了三个数据中心和矿场,在阿肯色州等地,还建了大量电力设备和厂房建设。后来在硅谷,朋友和 VC 跟我要 GPU,我才发现需求很大,就转型做 GPU 租赁业务。随着和客户接触越来越多,发现他们做云或 AI 项目有很多难题,像基础设施、安全防护、人才等问题,尤其是人才问题很突出,懂 AI 软件又懂基础设施的人太少了。所以我们 GMI Cloud 最后就定位于帮助想做 AI 的客户,提供他们需要的各种基础设施,助力他们往 AGI 发展。


    霍太稳:GMI Cloud 在服务上和其他提供基础设施的企业相比,有什么差异化?

    Alex:我觉得可以从几个层面来讲。从产品角度,我们和其他云服务公司不一样,比如 AWS、Azure 这些大公司,他们就像盖了很高的围墙,希望客户把所有东西都放在他们云上。我们则像乐高积木,底层是 GPU 硬件,中间层是基础设施即服务(IaaS),上层是推理和模型服务层,客户可以按需选择使用其中一层或多层,完全可以自己控制环境和扩展需求,我们不会强制客户依赖我们的生态。


    硬件层,我们是 NCP(NVIDIA Cloud Partner),在全球各个点都有自己的 GPU;IaaS 层,我们能控制到 BIOS level 的 GPU 基础设施,从 CPU、GPU、Memory、RAM,甚至包括温控,以及整个容器开什么端口,这些我们都能控制,而且很酷的地方是我们的 IaaS 层是完全可以独立出去的,就好比是说它是一个 Windows 的操作系统,所以你不需要买我的 GPU,你可以把这个操作系统放在你自己的集群上面使用;推理和模型服务层,我们可以直接为客户提供 API 或模型服务。比如最近有些客户说我只需要一个 API,例如 DeepSeek 或者 Open Sora 的端点,那我就直接提供 API 给你,或是开个端点给你。很多大型企业没办法像我们这样灵活,且优化起来也很痛苦。


    另外,在人才和区域优势方面,除了像 BAT、火山这些大型云厂商外,我们应该算是做云服务比较好的新创公司。我们有中美顶尖的人才,Google X、阿里、IBM、Intel、Red Hat 的原厂工程师都有。在亚太我们有很多节点,总公司在硅谷,所以能得到全球很多客户的支持。而像 Lambda 等一些公司,他们客群基本都在美国,对于中国出海或亚洲公司来说,和他们合作很难建立信任关系,且他们在亚洲没有集群,这方面我们比他们有优势。还有就是当前比较特殊的全球局势,也让我们这样以硅谷为中心的华人公司有了生存空间。


    DeepSeek 引发的蝴蝶效应


    霍太稳:DeepSeek 推动的轻量化、低成本技术路线,对产品商业化和 AI 基础设施构建有什么影响?

    Alex:我觉得这是个革命性的事情。在美国这边,很多人说这是国际关系之间的较量,但我觉得这本质上是开源和闭源的较量,DeepSeek 让开源模型超越了闭源模型,这是值得关注的重点。


    对于客户来说,分为企业型用户和新创公司。新创公司最需要的就是“快”,比如 OpenAI 的 Sora,刚推出时很惊艳,但 6 个月后竞争就很激烈了。对新创公司或任何企业而言,都是先要有产品,再去追求完美。新创公司永远追求快和好,我们提供一整套服务,能让他们快速使用。轻量化很重要,特别是因为它是开源的。


    对于企业用户,像美国很多世界 500 强公司,他们想做一些和大模型相关的事情,比如把 PDF 塞进大模型,想法简单但实现起来很难,涉及基础建设、Scaling(Law)、隐私和权限管理等问题。所以我们尽量提供不同模块让他们自己选择去使用。其实 DeepSeek 和我们的初衷一样——能让客户完全控制环境。以前大家选择模型,比较好的基本是 OpenAI、Anthropic 这些闭源的,不仅要交 API 费用,数据还会流向这些公司,新创公司可能无所谓,能用就行,但大企业肯定不行,像银行、保险公司就不能接受。有了开源的 DeepSeek,企业可以把它移到自己服务器上,放在本地或自己的云上面都可以,环境和模型位置都能自己掌控。所以,DeepSeek 对开源模型发展是个很大的推动,能让大小公司都能完全控制自己的模型和未来产品走向。


    霍太稳:面对类似 DeepSeek 这样因火爆导致的服务器繁忙、API 服务暂停等问题,以及 AI 基础设施在应对海量访问和市场竞争时的挑战,GMI Cloud 有哪些解决办法?

    Alex:我觉得新创公司在这种情况下,最重要的就是速度。有像发现了 DeepSeek 这么好的武器,就要赶紧拿起来做出产品卖给客户。比如美国的 Mistral 和 Cursor,把开源和闭源模型结合,做了自己的 UI/UX,四个月就达到 100 万亿美金的 AR,就是快速规模化的例子。不要想着自己盖机房、抠成本,要找稳定可靠的算力服务商一起成长,根据业务需求随时调整。


    除了速度,稳定性也很关键。在硬件方面,前面也提到了我们是 NCP,每两周会和 Nvidia 的工程部探讨新一代 GPU 硬件和软件架构,以及遇到的各种问题,他们会帮我们解决。而且我们自己对服务器有 8 层 QC(质量检查)过程,从 CPU 性能、GPU、内存到网络等都要检查,还要做压力测试,拿 LLAMA3 跑 GPU 测试,在交付给客户前确保机器质量,哪怕 OEM 说机器没问题,我们也都会自己测试完确认质量后再交给客户。


    关于速度和稳定,还有一个建议就是一定是要找到专业的团队 ,让你去节省工程师去调试基础设施的时间,把更多精力集中在 build 这个应用上,这很重要。你想象一下,假设一个训练进行了五六天,突然断掉了。一个礼拜的训练结果全部不见了,工程师真的会疯掉。所以最终还是需要稳定,还有速度,我觉得这两个是缺一不可的事情。


    另外在容错方面,我们测试 OK 的机器交付给客户后,也可能出现各种突发问题,进而影响算力良率。所以我们会在客户租用机器数量基础上多准备几台,比如客户租 100 台,我们准备 103 台或 105 台,有机器坏了马上替换,保证客户整包算力稳定,让客户感觉不到机器有问题等等。


    霍太稳:GMI Cloud 的典型客户希望你们帮助解决哪些问题?

    Alex:我们的客户主要分三类,其实就是对应我前面说的三层。


    第一类是大模型公司,他们就是来训练模型的,不管是视频模型、语言模型还是多模态模型。对他们来说,我们只要保证集群稳定就行,因为他们技术很强,比我们大数倍甚至数百倍。


    第二类客户是有一定技术能力,但没有基础设施运维团队的公司。一般公司大多只有前端、后端人员,很少有懂网络这些基础设施的人。我们给这类客户提供容器选项,让他们能方便地进行模型微调(fine tune)和推理(inference)。另外他们还需要很多不同服务,像不同的机器学习框架,模型训练好或调整好后要推广,客户可能分布在全球,就需要全球推理服务。比如他们自己做的话,如果集群设在美国中部,欧洲或亚洲客户访问延迟可能很高,像做游戏就根本不行。我们会根据客户需求,提供全球不同节点的服务,让客户的延迟控制在一定范围内,并且能自动扩容延展,就像一个超大型的 model CDN 网络,自动帮他们切换到对应数据中心,保证服务质量。


    第三类是传统非 AI 公司,他们有成熟产品,想导入 AI,但不知道怎么执行,我们就给他们提供模型让他们使用。


    霍太稳:GMI Cloud 的定价策略是怎样的?/ 如果客户想试用,有相关渠道吗?

    Alex:我们 GMI Cloud 是以美国定价,因为成本差异很大,特别是 GPU 所在位置对成本影响很大。而且我们在国内没办法提供集群,因为涉及 Nvidia 提供商的一些法律问题,我们只能给客户提供海外的服务。虽然定价基于美国,但我们能保证服务的可靠性、提供不同地点的选择,还有服务速度。


    对于想要试用的客户,我们有 POC(概念验证)服务。现在 DeepSeek 很火,我们推出了基于 H200 的满血版的 R1 API 和端点,做了深度优化,好用的同时,价格还与业界相当。如果有伙伴需要可以联系我们,一个月后我们还会提供自助服务选项,想试用的小伙伴到时候就可以开始使用我们的产品了。


    全球化竞争中不可忽视的生存法则


    霍太稳:如何看待当下的出海热,AI 应用出海在基础设施和商业模式上面临哪些挑战,又有什么解决方案?

    Alex:我觉得出海要先看自己的优势。就像在美国,你要申请好的大学,你肯定不要去跟别人拼游泳、拼跑步,肯定得拿个工具,比如拿个乒乓或者羽毛球拍子,就厉害了。所以得找自己的优势点。我觉得 中国非常厉害的一点就在于硬件的供应链上,深圳做的东西又好又便宜。另一点则是营销,中国 2C 端做得非常好,像抖音、小红书比美国的 Instagram 强太多了,差不多超越两代以上。


    在 AI 交互方面,未来几年硬件交互会有很大改变,比如视觉方面的 AR、VR 眼镜,声音方面的耳机,还有机器人等等,和大模型、语音转文字模型结合一下,就能做出很好的产品。中国企业可以做这些结合 AI 组件的硬件产品,通过营销推向 2C 市场。特别是美国市场,他们在这方面接受度很高。当然,做 SaaS 化产品也可以,像简单的会议纪要软件,没什么技术难度,靠打品牌、扩大规模,你跟每个客户说每个月收 10 美金或者 5 美金,对他们而言其实不痛不痒,但盈利空间也非常大。


    当然,如果你的产品突然火了,也可能会遇到像 DeepSeek 那样的算力不足、服务器优化和网络架构升级等问题,所以从一开始,在基础设施的构建和选择上,寻找稳定可靠的算力服务商合作会更好。


    霍太稳:在 AI 全球化竞争中,技术突破、商业场景、生态建设这三个关键点,对于企业来说优先级是怎样的?

    Alex:这得看公司做的产品和面向的客户。对于生态建设,它更适合大公司和模型构建者,比如做游戏大模型的公司,需要很多开发者在平台上开发,就像 DeepSeek 靠技术驱动建立生态,但技术只是切入点,最后还是要开发生态。


    很多小公司,生态建设不是首选。小公司首先要有商业逻辑,了解客户需求,虽然也可以做技术突破,但不是像 DeepSeek 那样烧钱搞研发。小公司可以利用现有的成熟模型,比如 OpenAI、阿里的千问等等,在上面做 UI/UX 模块,根据客户问题选择合适的模型。对于小公司来说,生态建设应该放在第三步,因为生态是建立在有好产品的基础上,小公司得先活下来。所以对大部分公司来说,更好的做法是先了解客户需求,做出好产品。


    对于新创公司,先满足客户需求最重要,不用急着谈技术突破,因为大厂可能已经提供了相应技术,也不用谈生态建设。等公司发展到一定规模,最好有自己的技术含量,寻求商业场景突破,生态建设可以放在后面。


    而对于大公司或巨型公司,很多客户已经在使用他们的产品,商业场景已经有了,技术也有一定基础,这时候生态建设可以放在首位,投入资源做技术突破,进一步拓展商业场景。


    霍太稳:国外在 AI 生态合作上有什么特点,中国出海企业做生态合作需要做哪些储备?

    Alex:国外在 AI 生态合作上,大多是根据自身需求,有什么资源就用什么资源。比如需要基础设施、数据标注、接入不同模型等,就找专业的公司合作,把这些资源拼起来,先找到产品市场契合度,再扩大规模建立生态。


    中国出海企业不要想着什么都自己做,要找专业的公司做专业的事。先专注打造自己的核心产品,快速找到产品与市场的契合点,再逐步扩大规模、建立生态。


    霍太稳:用一句话给中国 AI 出海团队提建议,最不可忽视的生存法则是什么?

    Alex:一句话概括就是“Focus on building your product”,专注打造你的产品。深入了解客户需求,做出能精准解决客户痛点的产品就行,哪怕只解决一个痛点。同时要充分利用周围资源,不要想着什么都自己做,以最快速度实现产品市场契合,安全且快速地达到目标。



    更多关于 GMI Cloud 的内容,请戳👉InfoQ 独家对话 GMI Cloud 创始人:我看到的 GPU 云市场的现在和未来


    ※ GMI Cloud 限时开放惊喜福利,扫描下方二维码👇立即参与。



    2025-03-06 15:0610226

    评论

    发布
    暂无评论

    JDK动态代理的实现机制

    xzy

    Java 动态代理 原理分析

    分布式事务

    insight

    分布式事务 3月日更

    寻找被遗忘的勇气(十四)

    Changing Lin

    3月日更

    Docker 教程(二):Dockerfile

    看山

    Docker Dockerfile

    面试官再问你优先级队列,请把这篇文章丢给他

    Silently9527

    Java 优先级队列 二叉堆

    如何打造一款全球化的App?

    故胤道长

    硅谷 国际化 ios开发 Android开发 硅谷问道

    哈希吧,滚雪球学 Python 哈希表与可哈希对象

    梦想橡皮擦

    28天写作 3月日更

    最新版Swagger 3升级指南和新功能体验!

    王磊

    Java swagger

    大作业

    瑾瑾呀

    52条SQL语句性能优化策略,建议收藏

    Java小咖秀

    MySQL 性能优化 后端 MySQL性能优化

    写代码这件事

    ES_her0

    28天写作 3月日更

    初识Golang之聊聊类型

    Kylin

    3月日更 21天挑战 Java转go Go 语言

    javascript中的Strict模式

    程序那些事

    JavaScript ES6 程序那些事

    Hadoop之YARN的内部机制

    hanke

    大数据 hadoop 开源 YARN

    【LeetCode】设计哈希映射Java题解

    Albert

    算法 LeetCode 28天写作 3月日更

    大作业-附件3

    曾烧麦

    产品训练营

    容器引擎学习笔记

    lenka

    3月日更

    架构师训练营-Web 攻击与防护

    引花眠

    架构师训练营 4 期

    优雅编程 | 24个Javascript代码优化技巧

    devpoint

    js 空值运算符 高级函数 模板字面量

    高并发HTTP请求实践

    高性能架构探索

    利用深度元学习对城市销量进行预测 | AAAI 2021论文解读

    京东科技开发者

    零售 预测

    大作业-附件4

    曾烧麦

    产品训练营

    架构师训练营 4 期 第11周

    引花眠

    架构师训练营 4 期

    卡梅隆和他的《阿凡达》「Day 22」

    道伟

    28天写作

    大作业-附件1

    曾烧麦

    产品训练营

    大作业-附件2

    曾烧麦

    产品训练营

    大作业-附件5

    曾烧麦

    产品训练营

    Google面试题-怎样实现拼写纠错的功能?

    Nick

    数据结构 二分查找 数据结构与算法

    源码分析-Netty: 并发编程的实践(二)

    程序员架构进阶

    源码分析 Netty 多线程高并发 28天写作 3月日更

    通用中间件模型

    型火🔥

    架构 分布式 抽象 中间件 模型

    jdk 源码系列之 TheadPoolExecutor

    sinsy

    jdk ThreadPoolExecutor

    DeepSeek蝴蝶振翅,会掀起AI出海的狂风巨浪吗?_云计算_InfoQ精选文章