异数os吧
关注: 2 贴子: 30

  • 目录:
  • 电脑及硬件
  • 0
    最近传出某初创dpu厂股票跌停97%惨遭退市,究其原因还在于从过去的千兆多队列rss网卡到智能网卡,再到前两年骗了很多资本的NPU DPU,没有一个成功加速tcpip的技术,导致各家云计算大厂的服务器一直只能停留在1998年百兆以太网时代。 原因是tcpip的意义在于调度操作系统应用io栈,他是操作系统的心脏,所以不可能由硬件来实现并代替整个应用io栈,这属于基本伦理逻辑问题,因此tcpip的性能直接由操作系统的io性能决定,无论网卡做到千兆还是万兆十
  • 0
    为何一座国产超算中心打不过8张nvidia A100计算卡?(三) (接上篇) 在与nvlink性能差5个数量级的情况下,超算中心居然能战平8张nvidia A100,说明中国的软件优化团队确实很给力,从5个数量级的性能差距提高到了3个数量级的性能差距。但是Nvlink的不足是他只能小规模分布式场景,无法堆8张以上卡,因此他只能保持3个数量级的性能优势,而无法再扩充提高gpt参数规模和算力,如需要扩充算力和存储规模,则还需要打破无法绕的过分布式存储墙,除了CPU
  • 0
    为何一座国产超算中心打不过8张nvidia A100计算卡?(二) (接上篇) 在与nvlink性能差5个数量级的情况下,超算中心居然能战平8张nvidia A100,说明中国的软件优化团队确实很给力,从5个数量级的性能差距提高到了3个数量级的性能差距。但是在无力改变cpu计算性能依然只能依赖分布式结构的情况下,只能想办法提高网络的iops性能,那么方案只能是唯一的如下所示。 1.使用eth网络提高细粒度任务调度效率,eth可以实现64字节小包,因此相比4K甚至64K的IB,他
  • 0
    为何一座国产超算中心打不过8张nvidia A100计算卡? (一) 近日有消息称在gpt大模型训练中,无锡超算中心的模型训练速度败给了8张a100计算卡,无锡超算中心算力125P,8张A100算力160T,因此无锡超算中心的计算效率不足a100的千分之一,下面刨析下无锡超算中心算力破产的原因。 一个17B权值规模的大模型,如果按照GPU内存16字节粒度计算,仅需要300G内存,在目前超算中心单节点数T内存的时代这并不算大,也正因如此,大模型是一个细粒度任务密集的计算,而
  • 8
    需要在服务器领域提高竞争力的程序员可以报名经营,都是干货,面向云计算,元宇宙,数据库,操作系统,游戏,物联网等领域35岁以上资深后端研发,基础技术研发。课程连接见二楼。
  • 7
    亲爱的各位吧友:欢迎来到异数os

  • 发贴红色标题
  • 显示红名
  • 签到六倍经验

赠送补签卡1张,获得[经验书购买权]

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!

本吧信息 查看详情>>

会员: 会员

目录: 电脑及硬件