• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.
  • 元宇宙
  • AI
  • AI资讯
  • 为降低ChatGPT运行成本,微软秘密自研AI芯片4年,今年或发布

为降低ChatGPT运行成本,微软秘密自研AI芯片4年,今年或发布

  • 2023年4月26日 10:51

ChatGPT巨额每日运行费用引关注

大型AI模型如ChatGPT的需求持续攀升,每天都有数百万用户使用。这导致了运行成本居高不下。据研究公司SemiAnalysis首席分析师Dylan Patel透露,ChatGPT的运行成本可能高达每天70万美元,每次查询需3.6美分。成本主要来自AI模型所依赖的昂贵服务器。


ChatGPT的活跃用户数量在短短两个月内飙升至1亿。而根据专家分析,大语言模型的训练、运营和推理成本可能已达数千万元。事实上,ChatGPT的每周推理成本已经超过了当初的训练成本。

为应对高访问量问题,ChatGPT引入了每月20美元的付费ChatGPT Plus服务,但并未吸引大量用户。同时,使用OpenAI语言模型的企业也在支付高昂的服务费。如AI地牢游戏初创公司Latitude,其2021年每月的运行模型和租用亚马逊云科技服务器费用高达20万美元。

为降低成本,Latitude转向Al21 Labs支持的语言软件服务商,将AI成本削减至每月10万美元。目前,OpenAI依赖英伟达GPU来维持运行,预计2023年可能需要额外3万个英伟达GPU以维持商业性能。

微软自研AI芯片助力降成本

面对高昂运行成本,微软正在开发自家AI芯片,协助维护OpenAI的ChatGPT运行并降低成本。据The Information报道,微软自研AI芯片名为Athena“雅典娜”,项目始于2019年,当时微软与OpenAI达成10亿美元交易。

如今,300多名微软员工正在研发Athena芯片,以期性能超越现有供应商芯片。其他科技巨头如亚马逊和谷歌也已推出自研AI芯片。Patel表示,与英伟达产品相比,Athena具有竞争力的话,每个芯片成本可能降低三分之一。

微软自研AI芯片的原因有二

一是意识到在自主研发芯片方面落后于谷歌和亚马逊;
二是寻找英伟达替代方案,降低依赖。

微软计划在Azure云服务中部署Athena芯片,为OpenAI提供强大的计算支持。据了解,微软的Athena芯片将在2023年发布,届时将大幅降低ChatGPT运行成本。

微软与其他巨头竞争加剧

在AI芯片市场,微软、谷歌和亚马逊展开了激烈竞争。谷歌已经研发了Tensor Processing Unit (TPU),专门用于AI和机器学习任务。而亚马逊则推出了Inferentia,一款高性能、低成本的AI芯片。微软迎头赶上,力求在AI市场站稳脚跟。

同时,随着市场需求的快速增长,尤其是云计算和AI领域的需求,芯片产业的竞争日益激烈。微软也在积极寻求与其他公司的合作,以确保在AI芯片市场占据有利地位。

微软为降低ChatGPT运行成本,秘密自研AI芯片Athena四年,预计将在2023年发布。成功研发将有望降低每个芯片成本三分之一,大幅减轻用户和企业的负担。在与谷歌和亚马逊等科技巨头的竞争中,微软通过自研AI芯片谋求市场份额,期待在AI市场站稳脚跟。

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM