完成更名后的铠侠首次独立参展进博会,以先进的存储技术助力中国社会开启存储新时代
2020年11月6日,中国上海讯—存储解决方案领域的全球领导者铠侠株式会社(KIOXIA Corporation) 携其领先的创新存储产品组合于11月5日至10日正式亮相第三届中国国际进口博览会(以下简称“进博会”)。以“记忆由芯,世界尤新”为使命,铠侠(KIOXIA)在进博会向全世界展示了5G与通信、家庭与消费电子、物联网与工业、服务器与数据中心、汽车电子、个人存储六大领域的领先存储器解决方案。
作为全球领先的闪存厂商,此次是铠侠由东芝存储更名后的首次进博会之旅。自1987年发明NAND闪存产品,到2007年全球首发BiCS FLASHT 三维(3D)闪存,再到2015年全球最早量产48层3D闪存,铠侠的前身东芝存储器株式会社极大地推动了闪存技术的发展。2017年4月,东芝存储器株式会社从东芝株式会社剥离。2019年,东芝存储器株式会社正式更名为铠侠株式会社。独具特色的品牌名称融合了日语的“记忆(kioku)”和希腊语的“价值(axia)”二词,代表了公司“记忆由芯,世界尤新”的使命。新的品牌名同时代表着公司愿景的基石,即“以不断进化的记忆科技为核心,通过提供卓越的产品、服务和系统,让每个人的未来可期” 。
在全球新冠肺炎疫情的影响下,基于网络的会议、课程、医疗服务、游戏等在线服务需求激增。与此同时,由于5G、物联网和云计算等新兴科技的持续高速发展,数据存储和处理需求呈指数级增长趋势。随着中国新基建驶入发展“快车道”,中国数据存储市场也将在数据中心、工业互联网等领域迎来新一轮的增长机会。铠侠秉持 “在中国,为中国” 的信念,将不断探索记忆科技的可能性,提供满足数字社会新兴需求的存储产品,助力中国市场进入存储新时代。
铠侠电子(中国)有限公司董事长兼总裁岡本成之先生表示: “面对全球疫情的冲击,如期举办的进博会不仅为全球企业提供了展示品牌实力的绝佳平台与合作机会,也为整个市场注入了‘强心剂’。铠侠对中国市场的发展前景充满信心,此次也是去年10月由东芝存储更名以来,铠侠以全新品牌面貌首次亮相进博会。我们期待以进博会为契机,进一步深化与中国合作伙伴及消费者的交流,致力于长期深耕中国市场并将持续为中国社会做贡献。”
本届进博会,铠侠带来了多款面向企业、数据中心等关键领域的领先SSD产品,所有产品皆配备了铠侠自行开发的闪存、固件和控制器。CM6(PCIe Gen4)和PM6(SAS Gen4)系列企业级固态硬盘适用于需要高阶效能和可靠性的运算、服务器和储存系统;CD6系列数据中心固态硬盘采用最新的PCIe 4.0高数据传输带宽,适用于需要低功耗和高性能的服务器和云数据中心,通过断电保护提供数据保护功能,并通过加密技术选项增强安全性;XG6-P系列采用铠侠96层BiCS FLASH 3D TLC(3-bit-per-cell)闪存,适用于需要高速访问高容量数据的视频/CG内容制作、AI/机器学习应用、工作站和高端PC。
随着电动化、网联化、智能化成为汽车产业发展趋势,汽车电子领域对存储的需求持续攀升。铠侠可提供全系列的UFS和eMMC存储器,以满足在诸如自动驾驶辅助系统(ADAS)的路线设计判断、图像识别、远程信息处理等高级应用中日益提高的存储性能要求,增强驾驶体验。同时,铠侠的UFS和eMMC亦可支持宽温工作,满足AEC-Q100 Grade2要求。业界领先的UFS系列产品读写速度更高,响应更快,并且支持过热保护及扩展诊断等功能,可以为主机控制器提供更丰富的状态信息,具备汽车应用所需的高可靠性。
好文章,需要你的鼓励
本文探讨了达成人工通用智能(AGI)七大路线中的线性进阶路径,预测了从2025年至2040年 AI 技术与社会效应的关键年度节点。
这项研究介绍了一种新型多模态扩散模型,能够同时生成量子电路的离散结构和连续参数。由因斯布鲁克大学和NVIDIA公司研究人员开发,该模型利用两个独立但协同工作的扩散过程处理门类型选择和参数预测,克服了传统量子电路编译方法的效率瓶颈。研究证明了该模型在不同量子比特数量、电路深度和参数化门比例下的有效性,并通过快速电路生成创建了数据集,从中提取出有价值的结构见解,为量子电路合成提供了新方向。
SenseFlow是香港科技大学等机构联合开发的文本到图像蒸馏技术,解决了大型流匹配模型蒸馏的三大难题。研究团队提出隐式分布对齐(IDA)稳定训练过程,段内引导(ISG)优化时间步重要性分配,并设计基于视觉基础模型的判别器提升生成质量。实验表明,SenseFlow能将SD 3.5和FLUX等12B参数级模型成功蒸馏为仅需4步生成的高效版本,同时保持甚至超越原模型在多项指标上的表现,代表了AI图像生成效率提升的重要突破。
MASKSEARCH是阿里巴巴集团同义实验室开发的新型预训练框架,通过创新的"检索增强掩码预测"任务,训练大型语言模型像人类一样主动使用搜索工具获取信息。这项框架包含两个阶段:首先在掩码预测任务上预训练,然后在下游任务上微调,大幅提升模型在开放域问答中的表现。研究采用监督微调和强化学习两种方法,结合多代理系统和课程学习策略,使AI能够自主分解问题、使用搜索工具并基于搜索结果进行推理。