会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 ChatGPT有多烧钱?大模型训练一次200-1200万美元!

ChatGPT有多烧钱?大模型训练一次200-1200万美元

时间:2025-07-09 09:20:53 来源:郁郁不乐网 作者:综合 阅读:566次

来源:IT之家 

IT之家 2 月 19 日消息,多烧ChatGPT 风靡全球后,模型美元科技巨头们纷纷入局,训练生成式 AI 其背后以大模型为基础的次万人工智能成为业界投入的方向。

IT之家了解到,多烧所谓“大模型”,模型美元通常是训练在无标注的大数据集上,采用自监督学习的次万方法进行训练。之后在其他场景的多烧应用中,开发者只需要对模型进行微调,模型美元或采用少量数据进行二次训练,训练就可以满足新应用场景的次万需要。

然而,多烧训练通用大模型非常“烧钱”。模型美元据国盛证券报告《ChatGPT 需要多少算力》估算,训练GPT-3 训练一次的成本约为 140 万美元,对于一些更大的 LLM(大型语言模型),训练成本介于 200 万美元至 1200 万美元之间。以 ChatGPT 在 1 月的独立访客平均数 1300 万计算,其对应芯片需求为 3 万多片英伟达 A100 GPU,初始投入成本约为 8 亿美元,每日电费在 5 万美元左右。

如果将当前的 ChatGPT 部署到谷歌进行的每次搜索中,需要 512820.51 台 A100 HGX 服务器和总共 4102568 个 A100 GPU,这些服务器和网络的总成本仅资本支出就超过 1000 亿美元。

国盛证券认为,在公有云上,对于以谷歌等全球科技大企业而言,百万至千万美元级别的训练成本并不便宜,但尚在可接受范围内、并非昂贵。

(责任编辑:综合)

相关内容
  • 重庆农商行遭1285万重罚,涉掩盖不良贷款、拨备覆盖率指标虚假等9项重大违规
  • 突发利空!200亿盐湖提锂龙头,大项目又终止!
  • 证券日报头版:进博会已成企业创新展示大舞台
  • 数评新时代中国经济历史性跃升
  • 快手商业化进入阵痛期
  • 百度智能云赵坦:以产融智合打造数字化普惠金融的差异化特色丨金融新未来
  • 动力电池中场战事:各路诸侯围剿“宁王” 势力版图大地震?
  • 曾用“反垄断”搅黄英伟达收购ARM,微软买动视暴雪面临相似尴尬 | 海外周选
推荐内容
  • 经合组织预测2023年全球经济增长将从3.1%放缓至2.2%
  • 菜百股份全国首发、北京地区独家销售中国金币集团有限公司2023癸卯(兔)年贺岁金条
  • 前10月产销同比增幅均超170% 新能源车混动技术路线在壮大
  • 曾经的医药业“野蛮人”惨淡落幕:誉衡药业控股股东誉衡集团被裁定破产
  • 将自己虚拟化,世界人工智能大会带你进入元宇宙逛展
  • 午盘:美股维持涨势 道指涨逾1000点