ZD至顶网服务器频道 06月12日 新闻消息:思杰公司于去年12月推出了其NetScaler应用交付控制器,而就在数周之后,其容器化版本也即将与广大用户见面。
“NetScaler CPX”于上月在悉尼召开的思杰公司会议上正式亮相,但NetScaler副总裁兼总经理Ash Chowdappa在采访中表示,“如果客户的需求非常迫切,也可以马上开始销售”,且通用版本将于本月末推出。
Chowdappa指出,快速发布是考虑到市场的旺盛需求:容器使用者明显开始意识到容器之间产生的大量往来流量已经令其疲于应对。NetScaler的流量疏导功能则可以很好地解决容器数量攀升时所带来的局域网崩溃问题。
NetScaler CPX是一套Docker容器。Chowdappa解释称,在理想情况下由Kubernetes等方案创建及/或编排的容器都应同时匹配一套CPX容器,这样微服务架构内的各容器将能够享受到良好的通信效果。
这样的定位听起来非常合理,但其中也存在着一个小小的陷阱。问题在于,思杰公司显然假定大家会以规模化方式使用容器,因此需要对相关日志文件管理以确保一切突发情况皆有记录可查,另外利用分析手段了解日志文件的实际内容。不出所料,思杰方面在NetScaler中也给出了针对性的日志管理与分析方案。
而购买了NetScaler CPX的客户也有充分的理由考虑是否要引入完整的NetScaler套件。正因为如此,Chowdappa才在采访中认定NetScaler将成为思杰公司的营收提振利器。不过他同时补充称,思杰方面很清楚其在销售团队规模及覆盖能力上仍然弱于竞争对手。关于这一短板,他强调称思杰公司正在进行结构重组来加以解决。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。