对的,不知道哪里冒出了一个推特长文,对hbm,nand,ddr做出了完全不合常理的区分 本来hbm就是ddr堆起来的,而nand是为了给超大上下文推理任务offload用的 也就是说,如果你这个agentic inference任务上下文超出了一个gpu所附带HBM的大小,他就得把一部分先存到nand上去 这不就是一条绳子上的蚂蚱吗? 而且因为wafer利用率和产能问题,nand,ddr现在更为紧缺,涨价更严重 这到底有啥好分的?
只需要几秒!
创建帐户
已拥有账号并想要登录?
登陆 忘记密码?