扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共6页)
● 适用于加速器的共享虚拟内存
CPU和Larrabee中都有一个内存,CPU通过协同处理器单元来处理数据,而Larrabee是通过PCI-E处理数据的。
CPU与GPU之间的数据传输是编程方面的最大瓶颈,而共享虚拟内存带来了一种帮助Larrabee消除这一瓶颈的机制。这样你只需要很少一部分成本就可以实现CPU和GPU之间的内存共享。
10月的时候Rattner曾在日本召开的新闻发布会上进行了如下说明:“内存共享是损耗所有加速器架构的一个常见问题,从第一个浮点运算加速器问世以来就存在了。因此,多年来我们一直在研究如何攻克这一难题。”
SVM概述
虚拟内存实现了与不同IA的有效内存共享
最终他们发现升级的虚拟内存技术可以解决这一问题。如果数据共享可以在页面层级进行的话,那么就可以在不同类型的IA内核中有效地共享内存。这要比把成本都投入到支持复杂机制的硬件上要好很多。我们将这种技术称之为“Mine, Yours, Ours”(MYO)。
Intel尝试通过在Larrabee和CPU之间引入共享虚拟内存来有效地实现数据共享。尽管Larrabee和CPU都有各自的物理内存,但是虚拟内存机制也可以共享内存。因为两种处理器都共享同一个虚拟内存以及数据结构。
这与NUMA的共享内存系统有些不同,让人有些困惑。Intel设计通过QuickPath Interconnect (QPI)将Larrabee与CPU连接,在Larrabee上加载一个连贯机制,创建一个完全的共享内存。
然而,Intel希望通过引入PCI-E来普及Larrabee。Larrabee既加载了QPI,也加载了一致性内存机制。因此,CPU和Larrabee之间不能采用NUMA,于是就用共享虚拟化内存来代替。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者