写点什么

InfoQ 独家对话 GMI Cloud 创始人:我看到的 GPU 云市场的现在和未来

  • 2024-11-20
    北京
  • 本文字数:9213 字

    阅读完需:约 30 分钟

大小:4.46M时长:26:00
InfoQ 独家对话 GMI Cloud 创始人:我看到的 GPU 云市场的现在和未来

采访嘉宾|Alex Yeh,GMI Cloud 创始人兼首席执行官

 

在数字化时代,云服务已经成为各行各业不可或缺的基础设施,随着 AI 技术的快速演进, GPU 云技术的发展更是进入了深水区,迎来了前所未有的机遇。在这样的背景下,GPU 云计算提供商 GMI Cloud 在 10 月底宣布完成了 8200 万美元的 A 轮融资,这一数额在当前市场环境下显得尤为不易。

 

据悉,GMI Cloud 的 A 轮融资由 Headline Asia 主导,并得到了 Banpu Next 和纬创资通等知名合作伙伴的支持。GMI Cloud 的成立初衷是为了让更多的企业能够轻松接入先进的 AI 基础设施。公司的目标是简化全球 AI 的部署,提供一个垂直整合的平台,结合顶级硬件和强大的软件解决方案,确保企业能够高效便捷地构建、部署和扩展 AI。GMI Cloud 的平台为 AI 项目提供了一个完整的生态系统,整合了先进的 GPU 基础设施、专有的资源调度系统,以及管理和部署模型的工具。这些综合解决方案有效消除了许多传统基础设施所面临的挑战。例如,用户可以快速访问 NVIDIA 的 GPU,选择按需或私有云实例,适应从小型项目到企业级机器学习工作负载的各种需求。

 

以上这些只是公开信息,为了更加深入地了解这家公司迅速扩张的背后,以及探清 GPU 云计算市场的机遇与挑战,InfoQ 特别约访了 GMI Cloud 公司创始人 Alex Yeh ,进行了一次深入的对话。

 

在这次对话中,我们了解到,Alex Yeh 的创业经历充满了传奇色彩。譬如,从最初的“挖矿”到创办专注于 GPU 云业务的公司,他经历了市场的剧烈波动、创业的艰难与挑战,但凭借着坚定的信念和不懈的努力,最终实现了从 0 到 1 的突破……

 

让我们一起来看: 

一、Alex 的创业初心:“爱丽丝掉进兔子洞”后的快速决策与探索

 

InfoQ:很高兴采访到您,首先能跟您聊聊最初为何想到要创办一家专注于 GPU 云业务的企业的?是哪些因素激发了您的创业热情?

 

Alex Yeh:我当时并没有预见到这会是一个巨大的市场,更像是误打误撞,就像爱丽丝掉进了兔子洞一样,我只是一步步地向前走。我认为最重要的事情是,永不言弃,并坚定地在逆境中寻找转机。

 

我过去的经历,实际上是从“挖矿”开始的。在创办这家公司之前,我在内蒙古“挖矿”。虽然我有工程背景,但实际上更多的是在做投资,主要是区块链和私募股权投资。一开始市场很好,比特币价格一路上涨。但到了 2020 年,比特币市场在一天之内崩溃了。我记得非常清楚,那是 5 月 23 日,我此前所有的投资瞬间消失。那时候,我面临两个选择:要么接受归零,要么在美国或其他地区重新开始。最终,我选择了后者,买了单程机票飞往纽约,开始寻找数据中心,尝试重启新事业。我始终坚信,无论遇到何种挑战,都能找到解决之道。

 

尽管当时我在行业内尚属小角色,但我在能源电力领域拥有深厚的知识背景。因此,我花费了大约半年时间,深入研究了美国、加拿大以及欧洲多个国家的电力结构,包括私营企业、州政府以及半官方半私营等不同形式的电力公司,以及它们各自独特的游戏规则和市场结构。

 

经过广泛的研究和考察,我们最终在阿肯色州找到了合适的地点,并在 3 天的时间内完成了土地购买,没错,做这个决定的速度很快。这一决定得益于我之前对各项条款的深入研究,使我能够迅速识别出具备必要电力结构的可行地块。随着第一个工厂的建立,我们面临了诸多挑战,如 2022 年疫情对全球的影响,导致不时出现的停工停业,给整个过程带来了极大的困难。同时,我还需处理许多其他琐碎事务。

 

到了 2023 年,随着人工智能大模型热度的不断上升,GMI Cloud 成功完成了两轮融资,包括种子轮和 Pre-seed 轮。在深入了解 GPU 领域的过程中,我有幸遇到了一位业界前辈,他现在是我们的投资人,并计划未来加入董事会。这位大佬是 Digital Ocean 的创始人,他在美国创立了一家市值约三四十亿美金的上市公司。这一机遇为 GMI Cloud 带来了新的发展动力。后面的事情就变得顺利多了,因为大家都知道 GMI Cloud 是谁,知道 GMI Cloud 在做什么,我们有了客户,也有了认证。

 

InfoQ:您提到曾经只用了三天的时间就买了块地,最终盖出来一个数据中心,那整个数据中心的建设周期需要多久?投入了多少成本?

 

Alex Yeh:在短短 3 天内,我买下了一块地,而为了这个决定,我花了 6 个月的时间做功课。阿肯色州它是一个非常偏远的地方,也是美国最贫困的几个州之一。想象一下,一个 26 岁的年轻人来到这个州,告诉他们要买地,这听起来可能有些滑稽。

 

通常,建造一个传统的数据中心需要大约一年到一年半的时间。但 GMI Cloud 开创性地采用了集装箱式的模块化方法,这在当时是没有先例的。GMI Cloud 没有采用传统的钢筋混凝土建造方式,而是选择了一种创新的方法,尤其是在美国,当时这种方法还没有被大规模采用。但不幸的是,后来又遇到了疫情,这使得建厂变得更加困难。

 

当时我们已经准备好了土地,然后从中国定制了 40 英尺的海运集装箱,里面所有的线路都已布置完毕。所以当集装箱到达时,只需要插上光纤和网络,就可以立即投入使用。实际上,工期在 30 天内就能完成,最长的时间实际上是在等待海运。我当时几乎就睡在工地上,亲自监督,亲自动手上架服务器,然后大家一起合作,提高速度,最终完成了这个项目。在看到我们取得的成绩后,客户给了 GMI Cloud 很多机会,我们也用好的服务反馈给客户,就这样我们的路越走越宽了。在完成了从 0 到 1 的突破后,接下来的工作就相对轻松了一些。后来有了团队,人们开始知道 GMI Cloud 是谁,会有人主动寻求合作,或者寻求产能扩张等。

 

InfoQ:现在很多人认为云服务市场已经饱和了,因为已经有几大科技巨头抢占了过半市场份额,剩余的市场份额已经很小了,GMI Cloud 是如何看待这种观点的?

 

Alex Yeh:市场还是有很多机会的。大家都以为云服务市场已经被 AWS、谷歌等巨头垄断了,但 Digital Ocean 异军突起,创建了一个任何人都可以使用的云服务,一个能够快速部署的云服务,并且做得非常成功。我们实际上想做的也是一样,就是成为 GPU 领域的 Digital Ocean,这是我发现的市场缺口。

 

一开始,大家都说只要有 GPU 就能满足客户,但我发现了这个市场有一个很大的问题,大家买了这些硬件盒子或租这些硬件盒子只是用它们来做 AI 应用。而 GMI Cloud 要做的是提供一套垂直的 GPU 云解决方案,因为无论是构建 AI 应用程序,构建微调解决方案,或是做模型训练,都需要一套完整的技术解决方案。GMI Cloud 想做的事情就是为 AI 提供垂直解决方案,允许任何人在任何地方部署 AI。

 

首要的事情就是 GPU 自身要非常稳定。大家都知道 GPU 实际上是由 20 多万个零部件组成的一台机器,当上千甚至上万台  GPU 连在一起时,它绝对会在某个地方、某个时间出现问题。

 

在传统的云计算中,大的云厂商掉线一分钟就可能造成几十亿美金的损失。这种事情就像 Meta 在训练 Llama 模型时,它的 SLA(服务水平协议)是 50%,这种事情在传统云计算领域是闻所未闻的。所以 GMI Cloud 要做的事情就是如何把可靠性拉到最高。就像杰夫·贝索斯讲的,云计算是一个运营卓越的领域。也就是说这是一个非常重运营的产业,你需要非常高的 SLA。

 

GMI Cloud 非常重视质量控制,甚至做了 8 道质量控制来保障可靠性。从电源到温度的控制,再到整个内存、CPU,GPU,甚至包括模型层都将质量控制做到了极致。在将任何产品交付给客户之前,都要进行压力测试。GMI Cloud 在软件上面也做了非常多的工作,团队八成以上都是软件工程师。但不可避免的是,即使我们做过大量测试,系统在运行时仍然可能出现问题,我们能做的是一旦发现问题能够立即修复好,确保可靠性始终保持在 99%。我认为可靠性和质量是 GMI Cloud 首先要做的事情。接下来就是从底层“一路往上”做一套全面的垂直解决方案,让大家都可以快速构建 AI 应用。

 

InfoQ:无论是第一次创业还是第二次创业,可以说您都踩在了最火的风口上,但其实这两次创业的方向是不同的,一个偏硬件,一个偏软件,您认为这两次创业对您来说哪一次更具有挑战性?

 

Alex Yeh:我的第二次创业,我认为其难度不亚于我第一次创业。我当时进行了全面的咨询并花了很长时间去了解市场,然后找团队,我觉得找到合适的团队非常重要。那时候我首先要找的是 CTO。我们很幸运,找到了一个来自 Google X Mineral AI 的 CTO。他和我们一起创业、一起为了实现目标而竭尽所能。加入公司后,他迅速组建了 GMI 的技术团队,并快速建立了整个云产品业务线。

 

有了软件,也需要硬件,怎么搭建这个网络架构?Google 的人基本上认为,服务器架设好是再正常不过的事情了,直接开 GCP 就好了,没有人了解网络底层的服务器如何架设。正巧,我们的 COO 是从 Supermicro 出来的,他之前是做 H100 机箱的总监,架设服务器对他来讲太熟悉了,他过去十年都在做这件事情。就这样,软件和硬件的问题都迎刃而解了。

 

当面对各种挑战的时候,我们的技术团队都很顺利地找到了解决方案,这也是 GMI Cloud 技术能力持续提高的一个原因。

二、多年来 GPU 市场的变化趋势:当前的市场属于“专业的人”

 

InfoQ:经过多年的发展,您如何看待 GPU 市场的趋势变化?与最初进入这个市场时相比,GMI Cloud 观察到了哪些变化?

 

Alex Yeh:GPU 市场的变化是巨大的。从美国市场来看,已经从单纯的硬件销售演变成了提供专业化的云服务。现在,每个解决方案可能都是针对特定领域的,许多领域对合规性要求特别多,需要特定的资质,比如加州的某种认证,或者是需要将参数调整到最高级别来满足特定需求。也有专门服务于医疗 AI 的云服务,或者是专门针对金融行业的服务。

 

市场已经开始分化出不同的服务和产品。我们当时面临两个选择:要么服务于学生、教授以及新兴的创业公司,让散户使用我们的服务;要么走企业路线,服务大企业所需的各种需求。这两者的使用行为和需求差异很大。企业客户需要用户管理、高安全性和高可靠性。我们走的是企业路线,服务于那些比较成熟或者已经有很好的基础设施的客户,他们想要实现良好的扩展性和可靠性。我们可能不是最便宜的选择,但我们会保证质量与售卖的价格相匹配。

 

InfoQ:GPU 在计算密集型任务上的优势明显,GMI Cloud 的服务如何利用这些优势为用户提供价值?

 

Alex Yeh:我们提供的是一整套解决方案,包括许多细节方面,比如最基本的监控服务,可以监控 GPU 和 CPU 的波动,你可以看到这些波动,从而预防故障发生。我们通过一整套的管理,可以清晰地看到 GPU 何时开始过热,为什么会过热,是否需要采取措施。这样,当问题出现时,你就可以进行很多程序上的调整。其次,设备损坏是不可避免的,所以需要做备份。我们可以提供不同时间间隔的备份方案,比如每 3 小时、6 小时或每天一次,甚至每周一次。

 

当你需要下载 PB 级别的数据进行训练时,通过网络传输可能会非常慢,而我们实现了一个类似 CDN 的异步分发系统,将下载时间从两周缩短到一天,为客户解决了许多问题。甚至客户需要进行数据处理时,我们已经将流行的机器学习框架集成进去,并将基础设施中的许多问题进行了预处理和参数调整。我们支持不同的框架,如 Paddle 或 LLaMA,使其可以快速部署,这是我们所谓的垂直 AI。

 

GMI Cloud 并不是要从头开始做全新的 LLaMA,这不是 GMI Cloud 的核心业务。GMI Cloud 的核心仍然是保持 GPU 的稳定性,并提供优秀的基础设施,使其可以快速横向扩展,即可以根据需要变大或缩小,同时保持高稳定性和低延迟。我们上面的所有解决方案都与他人整合。GMI Cloud 不自己做存储,因为 Amazon 和 GCP 已经提供了很好的存储服务,我们就直接做一个插件,连接到这些平台上。我们的目的是让你可以在一个平台上完美地完成所有你想做的事情。

 

InfoQ:目前,哪些行业或应用场景最受益于 GMI Cloud 的 GPU 云服务?Alex 能否分享一两个成功案例?

 

Alex Yeh:目前,有几个行业或应用场景最受益于我们的 GPU 云服务。首先,是 SaaS 公司,这些公司在美国可能目前面临一些挑战,因为消费降级和增长放缓,这些传统软件公司的成长并不理想,他们的投资者可能会建议他们引入 AI 技术。所有的创业者都在寻求向 AI 转型,而最快的方式之一就是通过 AI 来提升客户服务或优化公司内部数据库,以提高效率。

 

然而,建立一个 AI 平台并不简单。从整理数据集、找到合适的算法、标记数据,到选择模型,这些步骤都非常复杂。可能最快的方法是选择 OpenAI 或者一些开源的模型,但这些模型的参数通常是固定的,不允许进行太多的微调。

 

接下来,他们可能会转向开源模型,但这时他们会遇到难题,因为他们需要自己处理所有的参数和基础设施,这对于他们来说几乎是不可能完成的任务。因此,SaaS 公司或一些互联网公司在转型和需求方面需要 GPU 云服务,但在实际操作中非常痛苦。他们甚至在产品还未成型、未卖出去之前,就被要求雇佣 30 个人来做运维,这对任何公司来说都是不现实的。

 

但 GPU 市场的现状是,你一次性就需要 30 个人,因为 GPU 的问题太多。你不仅要担心数据问题,还要担心 GPU 随时可能断线的问题,运维工作非常痛苦。大模型公司之所以人数众多,是因为很多情况下都是在重复造轮子,没有人专注于基础设施和运维管理,这是 GPU 云服务应该做的事情,也是我们发现的市场机遇。

 

我们专注于构建最好的 GPU 基础设施,让你只需担心数据问题。我们甚至可以推荐几个与我们的解决方案完美集成的数据库产品。这样,你就可以专注于你的业务,而不必担心底层的复杂性。

 

三、技术挑战与解决方案:8 道质量控制工具+绝对的 GPU 集群稳定性

 

InfoQ:您能聊聊在开发 GPU 云产品的过程中,GMI Cloud 遇到过哪些技术难题?技术团队是如何克服这些挑战的?

 

Alex Yeh:在开发 GPU 云产品的过程中,我们遇到了许多技术难题。比如在 CDN 这个问题上,客户不会告诉我们怎么解决,他们只会说下载速度太慢,需要两周时间,这怎么能行。面对这样的问题,我们的工程师会开始思考解决方案。我们会查阅开源文献,寻找解决办法,因为很多时候大家都是第一次遇到这样的问题。幸运的是,我们的工程师非常有经验,所以能够迅速采取行动。曾经有几个项目,为了解决客户问题,工程师们发挥极客精神,连续工作了几天,几乎不眠不休,最终在一周内就完成了解决方案,并将其集成到我们的解决方案中进行压力测试并交付。

 

另一个挑战是存储问题,以及如何实现横向扩展和灵活负载均衡。客户的使用量实际上是波动的,不是恒定的,所以我们需要找到一种方法来实现 GPU 之间的协同负载均衡。这是一项巨大的工作,还有如何实现高速传输网络的问题,这在当时连英伟达都没有解决。

 

我们是世界上第一家解决这个问题的公司,我们花了两个月的时间才解决这个问题。GPU 虚拟化的技术门槛非常高,因为市场才刚刚开始,大约是一年前,H100 才刚上市,基本上每家公司都只关注硬件,没有人如何将虚拟化做得更好以便客户使用。我们解决了这个问题,甚至在解决之后,英伟达都感到非常惊讶。他们没想到我们能做到这一点,这让我们感到非常自豪。

 

InfoQ:我们知道,现在对于云服务而言,安全性和稳定性至关重要。GMI Cloud 采取了哪些措施来保障用户数据的安全和服务的稳定运行?

 

Alex Yeh:在硬件层面,我们实施了 8 道质量控制工具,确保硬件的可靠性。在软件层面,我们的架构基于 OpenStack 和 Kubernetes,构建了我们的产品,名为 Cluster Engine。这个引擎基本上提供了持续计算的能力。不是租用具体的卡片或机器,而是提供计算能力,用户不需要关心这些计算资源在哪里,我们保证有这样的计算能力,并且已经实现了虚拟化。用户可以控制资源的地域分布,比如只在泰国或者美国使用,我们负责调度所有资源,确保稳定的计算能力可用。在后台,如果一台机器断电,我们马上可以为用户提供另一台,对用户来说没有任何差别,他们不会察觉,但使用起来非常舒适,因为他们再也不会遇到断线的问题。这就是我们确保产品稳定性的方式。

 

在安全性方面,我们确保数据在静态和传输过程中都是安全的。我们与防火墙公司合作,使用 Fortinet 等合作伙伴的产品来保护数据。我们还有自己的 Air Gap 系统,确保即使客户 A 和客户 B 使用同一个共享驱动器,他们也无法看到对方的信息。

 

InfoQ:目前很多大模型企业的 GPU 的需求都是有增无减的,GPU 资源相对昂贵,GMI Cloud 是如何在保证性能的同时,优化成本结构,使服务既能满足客户需求又更具性价比的?

 

Alex Yeh:面对大模型企业对 GPU 需求的持续增长以及 GPU 资源的相对昂贵性,我们通过持续开发和优化来保证性能的同时降低成本,提高服务的性价比。

 

GMI Cloud 通过实现灵活的计算服务来达到这一目标,这意味着客户不再需要全天租用一整台机器。如果客户只使用了 16 小时,那么剩下的 8 小时我可以租给其他客户。这样,成本就得以分摊,我原本可能要收 20 块钱,现在可能只需要收 12 块钱,因为我可以把剩余的时间租给别人。关键在于我们能否将 GPU 资源切分得更细致,这样客户就可以根据需要快速扩展或缩减资源使用,使得资源使用更加高效。通过这种方式,GMI Cloud 能够为客户提供更具成本效益的服务,同时也优化了资源利用率,降低了总体成本。

 

InfoQ:GPU 集群已经成为 AI 发展的一个重要趋势。GMI Cloud 的集群引擎解决了行业内的哪些痛点问题?

 

Alex Yeh:稳定性是基础,我们确保了这一点。在安全性方面,GMI Cloud 不仅关注数据安全,还关注用户控制。对于大型企业,它们通常分为多个部门,有些部门之间可能存在竞争关系,或者在金融行业,风控、ID 管理和交易部门不能互相访问对方的数据。

 

这些部门都有自己的数据和算法,甚至对冲基金中的一行代码可能价值上亿美金,因此这些信息必须在小团体内部保密。我们实施了良好的权限管理,允许公司采购 100 个单位的 GPU 资源,然后根据不同部门的需求进行分配。每个部门都有自己的权限,并且可以看到自己被授权的内容。

 

GMI Cloud 建立了三层权限体系,这对于企业来说非常有益。我们实现了数据隔离,而上层管理者可以使用“天眼模式”查看所有 GPU 的使用情况。他们可以了解到公司内部如何分配这些昂贵的算力资源。如果员工获得了算力资源却没有用于工作,比如去挖比特币,公司以前是无法监控和管理这种情况的。但现在,GMI Cloud 可以确保所有活动都可见、可管理。所有用户的登录和登出都有历史记录,因此可以进行更好的权限管理和安全管理,记录用户查看和执行的所有操作。

 

除了稳定性和安全性,我们还关注许多细节问题,从我们之前提到的 CDN 到备份,再到整个机器学习框架的预配置,我们都为客户准备好了。这些解决方案帮助企业更有效地管理和使用 GPU 资源,同时确保了操作的透明度和安全性。

 

InfoQ:在全球市场中,GMI Cloud 采取了哪些本地化策略来适应不同地区的法律、文化和用户需求?

 

Alex Yeh:在全球市场中,我们采取了多种本地化策略来适应不同地区的法律、文化和用户需求。以下是我们实施的一些策略:

 

  • API 接口本地化:我们认识到有些公司需要 API 接口,它们可能不需要直接在我们的平台上操作,而是希望在自己的系统中使用。因此,我们开发了 API 接口,允许这些公司通过 API 进行按需使用我们的 GPU 资源。

  • 全权委托服务:有些公司选择完全委托给我们,即 100%由我们来负责。这些公司可能购买了 GPU 但不知道如何安装和配置,我们会提供从物理架构搭建到软件安装,以及机器学习框架配置的全套服务。

  • 灵活的容器服务:对于初创公司或需要快速启动和运行的业务,我们提供了容器化的服务。这些公司可以快速开始使用我们的平台,无需担心底层架构的复杂性。

四、GMI Cloud 的未来规划:打造 AI 时代专业的基础设施和解决方案

 

InfoQ:接下来的一年内,GMI Cloud 公司的主要发展目标是什么?有哪些新产品或服务计划推出?

 

Alex Yeh:在接下来的一年内,公司的主要发展目标是继续提升跨引擎的性能和稳定性。我们将重点发展 Inference Engine,即持续计算,目前我们还处于初级阶段,但已经具备了必要的监控功能。GMI Cloud 的目标是将 Inference 虚拟化,用户不再需要选择特定的机器,而是能够虚拟化地使用 H100 等资源,同时保证 SLA。GMI Cloud 下一代产品预计将在年底到明年第一季度之前推出。

 

我们与大厂的主要区别在于,大厂拥有更多的资金和人力,但 GMI Cloud 的优势在于速度更快。我们能够迅速响应客户的需求,提供他们想要的解决方案和功能。例如,如果客户向大厂提出需求,他们可能只能得到标准化的服务,而且要花费大量资金才能得到定制服务。相比之下,GMI Cloud 能够更迅速地与客户沟通,将他们的需求排定优先级,快速完成上线。GMI Cloud 的企业的响应速度之快,让那些已经和我们有过合作的客户们感到震惊。GMI Cloud 团队对自身的服务能力充满信心。

 

InfoQ:从长远来看,有哪些愿景或使命驱动着您和团队前进?

 

Alex Yeh:从长远来看,GMI Cloud 团队的愿景是“以 AI-TSMC 之姿,引领智算革命”,而我们也一直以“铸就全球领先的 AI CLOUD”为使命去努力完成这一愿景。我们希望在未来,无论人们使用何种 AI 应用,都可能“坐”在 GMI Cloud 构建的基础设施之上,虽然我们是无形的,但无处不在。我认为这才是最酷的事情。

 

目前,我们所有的网络都是建立在思科(Cisco)之上,在美国,思科是一个基础设施公司,它在市场中占据最大份额,做得非常好。从美国的建设来看,无论是石油、钢铁还是铁路,都有他们的身影。到了 2000 年,这种模式延续到了像 IBM 这样的公司,它做的是比较底层的架构,然后再到后来的亚马逊和微软,他们都在创造 IT 时代的基础设施。

 

而 GMI Cloud 在做的事情是打造 AI 时代专业的基础设施。GMI Cloud 的目标是成为 AI 应用背后的强大支持,为未来 AI 应用的构建提供稳定、可靠的基础。

五、结语

 

在这次深入的访谈中,我们不仅见证了 GMI Cloud 在 GPU 云服务领域的专业实力和前瞻性布局,还感受到了 Alex Yeh 及其团队对于技术创新和市场洞察的深刻理解。GMI Cloud 作为 NVIDIA Global Top 10 的 NCP,通过集成 NVIDIA H100 和 H200 等先进 GPU,展现了其在提供高性能计算解决方案方面的先进性。这种合作不仅为客户提供了强大的计算能力,也为 AI 和机器学习的发展注入了新的活力。

 

未来,随着以 GPU 云主机为基础的异构计算架构和高速互联技术的演进,AI 时代对于计算效率和数据处理需求将进一步提高。技术的演进,将为各行各业带来革命性的变化。

 

在采访的最后,我们不禁对 GMI Cloud 的未来发展充满期待。可以看出,GMI Cloud 目前已经在竞争激烈的市场中找到了专属于自己的定位,他们仅用了一年的时间就实现了“从 0 到 1” 的快速进化,并持续在完成“从 1 到 100”的敏捷迭代。这种进化不仅是技术上的,更是战略上的,这种敏捷迭代、产品至上的极客精神在当今快速变化的 GPU 云市场中显得尤为珍贵。

 

我们期待看到 GMI Cloud 通过不断的技术创新,为客户提供更加稳定、安全、高效的云服务。同时,我们也相信,在 Alex Yeh 和团队的共同努力下,GMI Cloud 将能够在复杂多变的市场环境中,把握住机遇,迎接挑战,实现持续增长。

2024-11-20 15:358910
用户头像
李冬梅 加V:busulishang4668

发布了 963 篇内容, 共 560.5 次阅读, 收获喜欢 1119 次。

关注

评论

发布
暂无评论
发现更多内容

TechEmpower 22轮Web框架 性能评测:.NET 8 战绩斐然

不在线第一只蜗牛

测评 .NET 7

重磅!天翼云发布一站式智算服务平台“慧聚”

天翼云开发者社区

人工智能 云计算 云服务 云平台

Util应用框架基础(六)- 日志记录 - Exceptionless

何镇汐

开源 后端 软件开发

Util应用框架基础(六)- 日志记录

何镇汐

开源 后端 软件开发

C++初始化列表:探索多种初始化方式

树上有只程序猿

初始化列表 C++

Kubernetes Operator可以做什么?

高端章鱼哥

kubernetes 运维

为什么 Amazon Bedrock 中的模型只有部分可用?

花花

亚马逊云科技

紧密合作三周年,Elastic颁发腾讯云2022年杰出开源贡献奖

腾讯云大数据

ES

Tetris Native揭秘|有道词典动态化运营引擎

申国骏

ios android 跨端框架

Util应用框架基础(六)- 日志记录 - Seq

何镇汐

开源 后端 软件开发

Util应用框架基础(六)- 日志记录 - File

何镇汐

开源 后端 软件开发

DAZ Studio for Mac(专业三维人物动画制作工具) 4.20.0.17永久激活版

mac

苹果mac Windows软件 DAZ Studio 3D造型渲染软件

崩溃的阿里云,并非是单纯的坏事?

ToB行业头条

「我在淘天做技术」假如你五行属商家,如何算好账?

阿里技术

财务 算好账 财务开发

数据结构与算法 | 记忆化搜索(Memorize Search)

不在线第一只蜗牛

数据结构 算法 数据

全域全自主建设,亚信科技AntDB数据库助力广电5G业务上线运行

亚信AntDB数据库

数据库 AntDB AntDB数据库

ETH2049单币丨双币DAPP公链质押挖矿系统开发

l8l259l3365

从HumanEval到CoderEval: 你的代码生成模型真的work吗?

华为云开发者联盟

人工智能 华为云 华为云开发者联盟 代码生成大模型

云图说|华为云主机安全新版本上线

华为云开发者联盟

华为云 华为云开发者联盟 华为云云图说

文心一言 VS 讯飞星火 VS chatgpt (134)-- 算法导论11.2 6题

福大大架构师每日一题

福大大架构师每日一题

VPC终端节点的实现架构和原理

天翼云开发者社区

VPC终端节点

Vue等轻量前端框架是如何与小程序结合的?

Geek_2305a8

重磅!科技感拉满!

天翼云开发者社区

人工智能 云计算

InfoQ 独家对话 GMI Cloud 创始人:我看到的 GPU 云市场的现在和未来_芯片&算力_李冬梅_InfoQ精选文章