ZDNet至顶网服务器频道 04月10日 新闻消息:全球领先的信息技术研究和顾问公司Gartner最终统计结果显示,2014年全球半导体营收总额达3403亿美元,与2013年的3154亿美元相比增长7.9%。前25大半导体厂商合计营收增长11.7%,高于行业整体增长率。前25大半导体厂商占整体市场营收的72.4%,亦高于2013年的69.9%。
Gartner研究副总裁Andrew Norwood表示:“2014年各类设备元件均呈现出积极增长,而不像2013年,特殊应用集成电路(ASIC)、离散元件(discrete)与微组件(microcomponent)均呈现出衰退。内存市场连续第二年成为业绩最佳的领域,增幅达16.6%,于此同时其余的领域增幅仅为4.9%。整体来说,DRAM厂商业绩最佳,主要因为DRAM市场蓬勃发展,年营收激增32%从而达到461亿美元,甚至超过了1995年所创下的418亿美元的历史最高纪录。”
在历经连续两年的营收衰退后,英特尔终于因个人电脑(PC)生产复苏而重新实现增长,年营收增长7.7%(参见表一)。该公司市占率为15.4%,第23年蝉联全球第一,但与上一年相比仍略微下滑。
2014年大型半导体厂商之间的并购活动与上一相比更为热络,部分已公开的并购案要待2015年才会完成交易。最受瞩目的并购安包括Avago并购LSI后,首度跻身全球前25半导体厂商。晨星半导体(MStar Semiconductor)经过长时间磨合终于并入联发科技(MediaTek),ON Semicondcutor则并购了Aptina Imaging。根据这波已定案的并购潮调整数据后,全球前25大半导体厂商全年营收增长9.1%。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。