[DIY详解] AMEYA360报道:存算一体技术如何突破算力瓶颈

[复制链接]
查看2988 | 回复6 | 2023-4-3 11:01:25 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区

您需要 登录 才可以下载或查看,没有账号?立即注册

×
  算力即计算能力,具体指硬件对数据收集、传输、计算和存储的能力,算力的大小表明了对数字化信息处理能力的强弱,常用计量单位是FLOPS(Floating-pointoperationspersecond),表示每秒浮点运算次数。

  当前大模型的训练和推理多采用GPGPU。GPGPU是一种由GPU去除图形处理和输出,仅保留科学计算、AI训练和推理功能的GPU。GPU芯片最初用于计算机系统图像显示的运算,但因其相比于擅长横向计算的CPU更擅长于并行计算,在涉及到大量的矩阵或向量计算的AI计算中很有优势,GPGPU应运而生。

  在这波ChatGPT浪潮中长期押注AI的英伟达可以说受益最多,ChatGPT、包括各种大模型的训练和推理,基本都采用英伟达的GPU。目前国内多个厂商都在布局GPGPU,包括天数智芯、燧原科技、壁仞科技、登临科技等,不过当前还较少能够应用于大模型。

  事实上业界认为,随着模型参数越来越大,GPU在提供算力支持上也存在瓶颈。在GPT-2之前的模型时代,GPU内存还能满足AI大模型的需求,近年来,随着Transformer模型的大规模发展和应用,模型大小每两年平均增长240倍,实际上GPT-3等大模型的参数增长已经超过了GPU内存的增长。传统的设计趋势已经不能适应当前的需求,芯片内部、芯片之间或AI加速器之间的通信成为了AI计算的瓶颈。而存算一体作为一种新型架构形式受到关注,存算一体将存储和计算有机结合,直接在存储单元中处理数据,避免了在存储单元和计算单元之间频繁转移数据,减少了不必要的数据搬移造成的开销,不仅大幅降低了功耗,还可以利用存储单元进行逻辑计算提高算力,显著提升计算效率。

  大模型的训练和部署不仅对算力提出了高要求,对能耗的要求也很高,从这个角度来看,存算一体降低功耗,提升计算效率等特性在大模型方面确实更具优势。

  因为独具优势,过去几年已经有众多企业进入到存算一体领域,包括知存科技、千芯科技、苹芯科技、后摩智能、亿铸科技等。各企业的技术方向也有所不同,从介质层面来看,有的采用NORFlash,有的采用SRAM,也有的采用RRAM。
回复

使用道具 举报

mj8abcd | 2023-4-3 16:03:03 | 显示全部楼层
回复

使用道具 举报

weiziushi | 2023-4-4 12:35:23 | 显示全部楼层
回复

使用道具 举报

windowsxp2012 | 2023-4-10 13:08:52 | 显示全部楼层
回复

使用道具 举报

kof2000 | 2023-4-14 08:54:51 | 显示全部楼层
回复

使用道具 举报

mikhop | 2023-5-9 14:12:49 | 显示全部楼层
当别人认定了你是错的,就算你冷静地解释了也会越描越黑,还会被认为是在狡辩。当别人对你万般的误会,你只能暂且默默忍受。只要做好自己的本分,用实力证明自己,时间会为你说话。
幸运时时彩走势图台湾宾果走势图SG飞艇走势图
回复

使用道具 举报

wbb060810 | 2023-6-21 09:56:00 | 显示全部楼层
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

198

主题

0

回帖

428

积分

二级逆天

积分
428

终身成就奖特殊贡献奖金点子奖原创先锋奖