近日,华邦宣布Kneron最新的KL720系统单芯片(SoC)将搭载华邦的1Gb LPDDR3 DRAM KGD,为人工智能和机器学习技术开启更多应用可能性。
随着5G商用化进程的进一步推进,人工智能、自动驾驶与智能物流等行业进入上升期,这也对现有存储产品与方案提出了新的要求。就此,全球半导体存储解决方案领导厂商华邦电子今日在线上与媒体分享了公司三大创新型存储解决方案及相关应用。
近年来,人工智能与物联网的整合,大幅度推升AIoT技术的进程,尤其视讯监控与多样化的智能家庭使用范例产生了众多的新型态的智能型应用。以新一代家居安防监控摄像头为例,它采用计算机型态的架构,并配备充足的高速DRAM内存以存储容纳复杂的推论引擎及其他应用程序代码。但区别于平板计算机、智能手机或其他通用型计算机,制造商发现专用的低容量或中容量LPDRAM更符合家居安防摄像头对节能、续航及可靠性的更高要求。
(NetGear Arlo,早期的AI型家居安防摄像头之一出处:Scott Lewis,根据创作共享授权)
为了进一步简化家居智能安防监控系统制造商的系统整合,华邦与ISP芯片组制造商合作,为多智能监控摄像头的参考设计板提供支持。近日,华邦宣布了Kneron最新的KL720系统单芯片(SoC)将搭载华邦的1Gb LPDDR3 KGD,为人工智能和机器学习技术开启更多应用可能性。“华邦的1Gb LPDDR3是高带宽和低耗电的最佳组合,可以满足KL720在最新高需求边缘计算AI上的应用。”Kneron创始人兼CEO刘峻诚表示。
除了家居安防摄像头,自动驾驶也是近年来人工智能和机器学习的热门应用之一。作为全球首款采用x8串口的NAND Flash,华邦OctalNAND Flash产品有望以比同级NOR更优的价格提供车用电子与工业制造商高容量的存储内存产品。鉴于NOR Flash在512Mb以上的存储容量成本扩充效益不佳,华邦OctalNAND Flash可部分兼容于Octal NOR Flash,以简化在现有设计中更换NOR Flash装置的过程。
华邦电子OctalNAND Flash
W35N-JW OctalNAND Flash采用华邦通过验证的46nm SLC NAND制程,数据保存期更可达10年以上。这款产品写入/抹除次数可达10万次以上,满足关键任务型车用与工业应用所需的高耐用性与高可靠性。“车用与工业市场的客户现在只需支付远低于Octal NOR Flash的费用,便能在1Gb至4Gb容量装置上获得每秒240MB读写效能。”华邦闪存产品企划经理黄信伟表示。
人工智能、自动驾驶等前沿技术的发展,都离不开物联网技术的普及。在物联网价值链与生态系统之下,网络安全认证对产品、服务及制程的信任度和安全性都起着重要的作用。要从根本上解决各种物联网环境的安全问题,就必需在产品设计阶段开始着手,注重设计的安全。经过认证,华邦的W77Q安全闪存是与标准型闪存装置兼容的即插即用型产品,支持安全启动,提供硬件信任根(root-of-trust)以及优秀的恢复能力、加密数据存储能力和传输的能力。
华邦电子TrustME安全闪存
“身处安全意识日益提升的世界里,为可信赖启动与固件更新打造的稳健解决方案,是物联网安全发展不可或缺的。”华邦安全解决方案行销处处长陈宏玮先生指出。W77Q系列安全闪存可应用于消费性与工业物联网装置,而这些装置必须符合《欧盟网络安全法》制定的Substantial与Basic认证级别所需的安全功能。W77Q符合共同安全准则的EAL2认证等级、SESIP认证,以及ARM平台安全架构(PSA)规范。
作为市场上独具研发、制造、营销能力的内存整合组件制造商,未来,华邦将积极研发更多高质量以及更具竞争力的存储解决方案,满足愈来愈多样化的市场需求与应用需要。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。