英特尔副总裁Kristie Mann近日在Storage Field Day活动中透露,英特尔很快即将发布第三代Optane产品,并且正在开发Optane系列的另一个迭代版本。
Optane是英特尔对3D XPoint技术的一种实施,该技术最终是英特尔与美光合作开发的。去年,美光退出了3D XPoint芯片和驱动器制造业务,并出售了位于美国犹他州莱希的XPoint代工厂,此前这个代工厂主要是为英特尔提供组件。第一代XPoint之后,第二代于2020年推出,用于SSD版本代号为Alder Stream,用于持久内存的版本代号为Barlow Pass。
Mann在演讲中表示,英特尔“即将公布第三代技术,并致力于开发下一代支持CXL内存分层的产品”,这与英特尔本月早些时候透露的信息是吻合的。Mann的团队上周五还谈到了两个新的Optane用例,但没有给出更多关于第二代和第三代产品或者时间表的信息。
英特尔内存分层技术的时间线
据悉,英特尔正在与VMware展开密切合作,开发使用Optane持久内存的vSphere和相关软件。英特尔方面提及了Capitola项目,并且英特尔也在与其他虚拟机管理程序厂商进行合作。当被问及这些合作伙伴关系时,英特尔云架构顾问Flavio Fomin说,“是的,除了VMware之外还有很多”。在他看来,“分层内存将是新常态”,这意味着DRAM将被视为零层内存,Optane持久内存作为第一层。
估计虚拟机管理程序需要进行调整,利用DRAM和XPoint内存之间的差异,而无需更改应用级的代码,我们猜测有微软Hyper-V、Nutanix AOS和Red Hat KVM可能都在与英特尔合作支持Optane持久内存。
使用实例
第一个新的使用实例,是英特尔内部的示例,涉及搜索通过Kafka和Splunk摄取的数据,并将信息存储在具有650TB Optane SSD和QLC NAND SSD的VAST Data系统中。在使用直连SSD的HP Ezmeral系统上搜索这些数据需要29.5秒,在英特尔配置的系统上需要25.1秒。我们注意到,VAST的软件减少了已经压缩过的Splunk数据量,650TB VAST Box可以存储超过1.6PB的Splunk数据。
第二个使用实例是大规模的相似度搜索,百度、eBay、亚马逊、YouTube等网站通过这种方法进行搜索推荐,这个过程涉及到要搜索十亿到万亿个项目的数据集,数据存储为特征向量,单独存储为图形。英特尔首席工程师Jawad Khan博士表示,英特尔在NeurlPS 2021 的Billion-Scale Approximate Nearest Neighbor Search Challenge中赢得了一项指标冠军。
英特尔的技术与竞争对手相比较
他对比了配备512GB DRAM和2TB Optane持久内存的双路28核英特尔至强服务器,市价为14,664美元,以及配备Nvidia A100 GPU、双64核AMD主机处理器、2TB DRAM的服务器,总系统成本约150,000美元。
在相同的性能水平下,Optane系统的成本比Nvidia系统低8到19倍。
我们认为,英特尔仍然致力于推动Optane及其3D XPoint技术的发展,大力扩展支持合作伙伴生态系统,推进密度更高的第三代和第四代XPoint技术,这意味着英特尔正在制定或者已经制定了相关的生产计划,已经有了关于第二代持久内存和SSD产品系列的详细计划,以及概览了第四代同类产品。
Optane路线图
本月晚些时候或者四月将会有更多的信息,预计届时Crow Pass XPoint产品将亮相。
好文章,需要你的鼓励
英特尔CEO陈立武警告,除非有"重要外部客户"保证利润,否则可能停止14A半导体制程投资。他表示,英特尔18A前的制程可仅靠自有产品获得合理回报,但14A制程的资本成本增加,需要外部客户才能实现可接受回报。如果实施这一决定,可能意味着英特尔无法继续遵循摩尔定律,这对半导体行业将产生深远影响。
斯坦福大学NLP研究小组发布了全新的2024版GloVe词向量,这是对2014年原版的重大升级。新版本使用维基百科、Gigaword新闻数据和Dolma语料库进行训练,新增超过70万词汇,涵盖疫情、科技、网络文化等现代概念。测试显示新版本在处理当代文本、非西方人名地名和社交媒体内容方面表现显著优于旧版本,为自然语言处理应用提供了更准确的语言理解工具。
Dispo社交网络和约会应用Teaser AI联合创始人Daniel Liss创立了钢铁制造公司Nemo Industries。该公司计划利用AI技术优化生铁生产,并自建熔炉设施。Liss认为从创立之初就使用AI的公司将比竞争对手拥有20%-30%的利润优势。公司此前已融资2820万美元,目前正与现有投资者洽谈1亿美元A轮融资,并获得两个南方州超过10亿美元的激励措施承诺。
TeleAI团队发布TeleChat2、TeleChat2.5和T1三款大语言模型的技术报告,详述了从10万亿tokens预训练到强化学习优化的完整开发过程。T1-115B在数学推理上超越OpenAI o1-mini,展现了国产AI模型的技术突破。研究采用4D并行训练策略,在8000个华为昇腾NPU上完成训练,并全面开源以促进AI技术发展。