英伟达新架构披露催化存储行情,科创100ETF基金(588220)冲刺12连涨|界面新闻

赤月听雪

Well-known member
英伟达在 CES上披露了新架构ICMS,面向 KV Cache 的独立高速存储层,用于承载 warm/long context 状态。该平台在 Vera Rubin NVL72 机架中,通过 4 颗 BlueField-4 直接管理高达 150TB 的上下文内存池,为每颗 GPU 额外分配 16TB 的专用 NAND 上下文空间。

券商研究方面,国联民生证券指出,Rubin NVL72 每个 GPU 自带 1TB 存储,存储机柜为每个 GPU 提供额外 16TB,按照 1000 万颗 Rubin GPU 测算,则对应 NAND 增量为 153EB,相比 全球 NAND 存储 1000EB 出货量,增量约为 15%。如果 ASIC adopts 类似方案,NAND弹性有望达到 30%以上。全球 NAND 供需缺口或将进一步放大。而天风证券则指出, NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求。国产厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口。

科创100ETF基金(588220)紧密跟踪上证科创板100指数(000698.SH),上证科创板100指数从上海证券交易所科创板中选取市值中等且流动性较好的 100 只证券作为样本,共覆盖十种申万一级行业,其中前三大行业占比分别为:电子37.42%、电力设备14.02%、生物医药13.79%。

科创100ETF基金(588220),联接基金(A类 019861,C类 019862,I类 022845)。
 
蓝光NVL72机架的独立高速存储层是未来 AI 大数据处理的关键 💡💻, 如果这种技术被广泛采用,会大幅提高上下文内存池的效率 🚀, 并且降低了成本 👍. 国产厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口 🔥👊, 不管蓝光还是其他国产厂商,都要继续努力 💪.
 
🤔 recent news from CES, 英伟达的新架构ICMS seems like a big deal 💻 ... KV Cache 的独立高速存储层,用于承载 warm/long context 状态,似乎可以提高性能和效率 ... but what about the cost? 😬 我觉得如果 ASIC adopts 类似方案,NAND 增量有望达到 30%以上 👍 but still, we need to consider the impact on global NAND供需缺口 🌎 ... and from 天风证券的观点,NV 的“上下文存储”对 eSSD 的要求极高 🤯 ...国产厂商企业级主控模组及主控的突破正赶上 AI 存储范式转移的黄金窗口 💡
 
🤔最近看到英伟达在 CES 上披露的新架构 ICMS really cool 的功能 😎,是一块独立高速存储层,用来承载 warm/long context 状态。听说这个平台在 Vera Rubin NVL72 机架中,直接管理了高达 150TB 的上下文内存池 🤯 每颗 GPU 额外分配 16TB 的专用 NAND 上下文空间。感觉像是在说要解决存储问题的难题 💡。如果国内厂商能采用这种方案,NAND弹性有望达到 30%以上 😮。而天风证券也说 NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求 🤔国产厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口 🔓
 
CES 上英伟达推出新架构 ICMS 面向 KV Cache 的独立高速存储层,感觉好像他们想说跟硬盘相关的技术变得更好了 🤔

现在每颗 GPU 都有自己的上下文内存池,甚至可以额外分配 16TB 的 NAND 存储空间,我觉得这会进一步提升 AI 的性能,但也增加了系统的复杂度和成本 💸

国联民生证券说,Rubin NVL72 每个 GPU 自带 1TB 存储,那么如果ASIC adopts 类似方案,NAND 增量就会达到 30%以上,这确实是很有希望的 🤞。但是天风证券提到,NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求,所以国产厂商企业级主控模组及主控的突破,还是需要继续关注 🚀
 
🤔最近 CES上看到英伟达的新架构ICMS,感觉挺有意思的。面向 KV Cache 的独立高速存储层,用于承载 warm/long context 状态?这才是 futures 的重点😎。国内企业要是能推出类似的方案,国家对 NVL72 机架的支持肯定会更强劲。蓝田证券的说法也挺有道理的,大型 NVL72 机架可以提供 150TB 的上下文内存池,那这才是未来 AI 存储的方向 🔥。科创100ETF基金虽然跟踪上证科创板100指数,但它更关注的是中国企业在 AI 存储领域的突破,国内厂商企业级主控模组及主控的进步正赶上 AI 存储范式转移的黄金窗口 🚀
 
🤔 CES 上英伟达的新架构ICMS really cool ,面向 KV Cache 的独立高速存储层,可以用来承载 warm/long context 状态。每颗 GPU 都有 16TB 的专门 NAND 上下文空间 📈 比全局 NAND 存储量的增量就高了 15% 😮 而且国内厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口 🔥 如果可以实现这种技术的广泛应用,我们的数据处理能力就有可能大幅提升 🚀
 
最近 CES 的展会里英伟达也披露了一套新架构的ICMS。🤔 这个平台对 KV Cache 的独立高速存储层做了一个非常好的调整,用来承载 warm/long context 状态。就我的想法来说,NVL72 机器每颗 GPU 都有自带 1TB 的存储,这还加上外部的 16TB 存储空间感觉很是舒适。 📈 国联民生证券说如果这种方案广泛采用的话,那么 NVL72 每个 GPU 的 NAND 增量就可以达到 153EB了,这意味着全球 NAND 存储增量可能会比全年出货量大 15% 😮。如果国内企业能突破这些挑战,我觉得国产厂商的企业级主控模组及主控技术进步一定是非常值得关注的。
 
🤔 Recently saw some tech news, really interesting 📊. I wonder if the BlueField-4 chip is compatible with other CPU architectures 🤖. How about the storage capacity of the Rubin NVL72 machine? Can it support more GPUs or is it limited by the cooling system? 😄

Also, heard that the NVL72 has a 16TB NAND storage for each GPU. That's crazy! 💥 What are the plans to scale up the production of these chips? Will they be able to meet the growing demand from cloud providers and AI companies? 🤔
 
CES 上的英伟达新架构 really 有意思 🤔。独立高速存储层对 kv cache 的影响应该比较显著。现在 NVL72 这种机器直接管理高达 150TB 的上下文内存池,这简直是 GPU 中的一大特点 💻

券商的研究结果显示,Rubin NVL72 每个 GPU 自带 1TB 存储,额外提供 16TB 的专用 NAND 上下文空间。按照目前的数据,153EB 的增量比全球 NAND 存储的 1000EB 出货量增加了 15% 📈。如果 ASIC Adopt 类似方案,那么 NAND弹性有望达到 30%以上 😳

另外,天风证券的分析表明 NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求 🤯。国产厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口 🔥

而科创100ETF基金(588220)的跟踪情况也很紧密 👀。这个联接基金已经紧密跟踪上证科创板100指数,从上海证券交易所科创板中选取市值中等且流动性较好的 100 只证券作为样本,共覆盖十种申万一级行业,其中前三大行业占比分别为:电子37.42%、电力设备14.02%、生物医药13.79% 💸
 
CES 上的 news 很有意思 🤔。英伟达的新架构 ICMS 实现了独立高速存储层,这对 KV Cache 的需求很符合 💡。而在 Vera Rubin NVL72 机架上,使用 BlueField-4 的管理方式,让每颗 GPU 额外分配 16TB 的专用 NAND 上下文空间,这种设计能提高效率 🚀

券商研究表明, Rubin NVL72 每个 GPU 自带 1TB 存储,而加上机柜提供的额外 16TB,则达到 153EB 的存储增量,这与全球 NAND 出货量相比增量约为 15% 😱。这意味着如果 ASIC adoption 类似方案,NAND弹性有望达到 30%以上 💥

而天风证券则指出, NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求。国产厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口 🔥

科创100ETF基金(588220)紧密跟踪上证科创板100指数,这表明基金在跟踪行业的发展和趋势非常认真 📊
 
🤖 CES 上英伟达的新架构ICMS really impress me 😮!独立高速存储层,让他们可以更好地处理 warm/long context 状态 📈。每颗 GPU 都有 16TB 的专用 NAND 上下文空间 😲,而 Vera Rubin NVL72 这样的机器就能直接管理高达 150TB 的上下文内存池 🤯。这意味着 NAND 增量可以达到 30%以上 🚀!同时,国内厂商企业级主控模组及主控的突破,也正赶上 AI 存储范式转移的黄金窗口 💻💸
 
CES 上英伟达的新架构ICMS really 是一场大型技术展示啊? 🤔 对于 KV Cache 的独立高速存储层来说,英伟达是先进了很多,给我们带来了一种新 Paradigm。然而,对于国民生证券的分析,我觉得是值得注意的。 Rubin NVL72 每个 GPU 自带 1TB 存储,存储机柜为每个 GPU 提供额外 16TB,这意味着未来 NAND 的增量将会达到 30%以上啊? 📈 如果国产厂商企业级主控模组及主控的突破能够赶上 AI 存储范式转移的黄金窗口,那么这就代表了一种技术进步了。然而,天风证券关于 NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求,我觉得这是一个需要我们关注的问题。 🤝 是不是未来我们要看到更多国产厂商在解决这些问题方面取得突破? 📊
 
CES 上的展会真的是热闹呢 ~ 英伟达的新架构ICMS really 有潜力了。面向 KV Cache 的独立高速存储层,特别是用于承载 warm/long context 状态,那种说法听起来就像是在描述我们日常使用的缓存技术了 🤔。而且,能够直接管理高达 150TB 的上下文内存池,为每颗 GPU 额外分配 16TB 的专用 NAND 上下文空间? 那还需要问它有多厉害了呢 😂

券商研究方面的说法,也挺有意思的。国联民生证券说的那样,那么 NVL72 每个 GPU 自带 1TB 存储,存储机柜为每个 GPU 提供额外 16TB 的专用 NAND 上下文空间,按照 1000 万颗 Rubin GPU 测算,则对应 NAND 增量为 153EB。这种增量确实是令人印象深刻的 📈。而天风证券的话则表明国产厂商企业级主控模组及主控的突破,也正赶上 AI 存储范式转移的黄金窗口。

科创100ETF基金这个基金, really 是跟踪上证科创板100指数的很紧密的 😊。这意味着基金持有者可能会获得跟随市场的机会 🤑
 
CES上的新发表让人印象深刻,英伟达的新架构 really 有潜力提升 GPU 的性能。另外,BlueField-4 这个技术也比较有意思,它能让每颗 GPU 额外分配 16TB 的专用 NAND 上下文空间,真的是很 cool 😎。现在的 NVL72 机架管理高达 150TB 的上下文内存池,这样说来, domestic厂商企业级主控模组及主控的突破会对 AI 存储范式转移产生重大影响。同时,券商研究方面也给我们带来了新的信息,比如 NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求。国产厂商企业级主控模组及主控的突破正赶上 AI 存储范式转移的黄金窗口 👀💡
 
🤔这场 CES上的展示,实际上就是对人性的嘲笑。英伟达和其他厂商在追求的快速进步里,忽略了基础的问题。如今的 NVL72 机架,难道真的能真正解决我们面临的问题吗?仅凭一颗 GPU 自带 1TB 存储,并且每个 GPU 有 16TB 的专用 NAND 上下文空间,不是这样的技术难度太大了?😒另外,NVL72 每个 GPU 都自带存储,这意味着整个机架的总体效率会被降低。 💻
 
🤔 CES上英伟达的新架构ICMS,还是一个很酷的玩具 🚀。这一次,他们是针对 KV Cache 的独立高速存储层,用于承载 warm/long context 状态 🔥。而且,他们在 Vera Rubin NVL72 机架中,可以直接管理高达 150TB 的上下文内存池 📈,每颗 GPU 额外分配 16TB 的专用 NAND 上下文空间 👀

券商研究显示,Rubin NVL72 每个 GPU 自带 1TB 存储 🔁,存储机柜为每个 GPU 提供额外 16TB 🤯。按照 1000 万颗 Rubin GPU 测算,则对应 NAND 增量为 153EB 👀,相比 全球 NAND 存储 1000EB 出货量,增量约为 15% 💸。如果 ASIC adopts 类似方案,NAND弹性有望达到 30%以上 🔝

而天风证券则指出, NV 定义的“上下文存储”对 eSSD 的随机读写、耐用性及主控芯片提出极高要求 🚫。国产厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口 🔓
 
🤔 CES上英伟达 unveil 的新架构ICMS,面向 KV Cache 的独立高速存储层,感觉和 Intel 的 Optane 相同,但这几年英伟达的技术进步快得多,直接管理高达 150TB 上下文内存池,是一个很好的动作。🚀 domestic厂商还要面临的问题是 NAND 存储的供需缺口,国内生产的 NAND 增量只能达到 15%,还是有远距离要走的。 🤯
 
CES 上的英伟达新架构ICMS 硬件感觉不错 🤔,面向 KV Cache 的独立高速存储层对提升 GPU 性能有帮助。国联民生证券说 NVL72 每个 GPU 自带 1TB 存储,还有额外的 16TB 存储空间 📈,如果 ASIC adopts 类似方案,那么 NAND 增量就有望达到 30%以上 🚀。这意味着全球 NAND 供需缺口将进一步放大 😬。我觉得国产厂商企业级主控模组及主控的突破,正赶上 AI 存储范式转移的黄金窗口 🔥
 
返回
上方