ZD至顶网服务器频道 11月17日 新闻消息(文/董培欣):
双11后,相信躲在暖和的被窝里用手机逛京东,上淘宝的依然大有人在。就是这样,在不知不觉间,移动支付已经取代了大部分现金与银行卡的作用。哪怕是上街购物,也很少有不支持微信与支付宝的商家。如果有一天,工资也在用微信或支付宝发放的话,银行恐怕也将会成为历史。由此可知,移动支付正在对银行产生着多么强大的颠覆作用。金融行业肯定不会因此而消亡。但移动支付功能不全面、应用服务体验差的银行,必然会有大量用户流失情况出现。
移动业务的挑战需要如何应对?这个问题并不简单。传统银行客户流量大的时候,采用多增员工、多建网点的方式可以解决。在移动业务问题上,是不是多增加些网络带宽,多增加服务器就可以解决了呢?
首先来看一下金融行业开展移动业务,可能会遇到哪些问题:
一、移动应用业务请求处理问题
刚好看到某宝的双11技术分析文章,其中有些网络业务处理观点还是很客观的,在这里与大家简单分享一下:
通常情况下,双 11 的服务器使用是平时的 3-5 倍,网络带宽是平时 2-4 倍。
在高并发的实际场景下,服务器处于高负载的状态,网络带宽被挤满,在这个时候平均响应时间会被大大增加。随着用户数量的增加,数据库连接进程增加,需要处理的上下文切换也越多,服务器造成负载压力越来越重。
更可怕的问题是,当系统上某个应用因为延迟而变得不可用,用户的点击越频繁,恶性循环最终导致“雪崩”,因为其中一台服务器挂了,导致流量分散到其他正常工作的机器上,再导致正常的机器也挂,然后恶性循环,将整个系统拖垮。
金融行业在拓展移动业务的时候,必然也会不定期推出各类吸引用户的活动。这些活动在举行时,同样也会面临类似双11的高并发应用请求考验。稍有不慎,系统“雪崩”情况必将出现。
二、移动应用业务基础设施负担问题
金融行业在拓展移动应用业务时,所带来的基础设施问题同样也不容小视。移动业务还会对金融行业数据中心的服务器、网络、存储资源提出更多的使用需求,从而带来系统维护、供电、制冷等一系列的新技术挑战。
三、移动应用业务软件、底层系统平台搭建问题
金融行业本身缺乏移动应用开发、底层应用系统搭建的技术积累。难以应对移动应用节构多变、快速、灵活、及时响应的应用需求。呆板、缺乏交互性的移动应用无法满足当前用户灵活多变的应用需求。
上述移动业务问题,金融行业有哪些应对方法?让我们再来分析一下。
移动业务基础设施和系统平台搭建,无非是人材引进和系统建设问题。只要有相应的资金投入,这些问题并不难得到解决。对于金融行业来讲,可以用钱来解决的问题,肯定也不会成为问题。
问题的关键在于,用什么方式去做。越是底层的基础设施,就越难以变动。一但建设成后才发现问题,底层硬件产品无力去进行支撑或适应的话,就不是简单的资金投入问题了。时间成本、客户流失、资金损失等等因素综合叠加后,对金融机构所造成的影响,可能就会至命。
在这里想介绍一下,国外某银行对移动业务的应对方法:
某银行将原来运行在104台服务器上的多渠道系统整合到2台z Systems主机和18台Power服务器上,其中网银的所有业务、电话银行等业务的数据库部分都整合到z Systems主机上,其他业务的应用部分整合到Power上。服务器数量减少81%,占地空间减少40%。与分布式环境相比,投资减少M,维护成本降低20%。采用基于Power服务器实现了中间业务与渠道整合,可以简化基础架构、降低运维复杂度、统一管理、提高应用的部署/推广速度、提升应用和数据的紧密度、主机级别的RAS和容灾水平。
由此可知,在系统Linux化的趋势下,很多较重要的,规模较大的数据库,并不是简单的转向x86即可胜任,利用Power服务器可以支撑起更多要求也更高的外围数据库业务。如果想要了解更多Power协助金融行业数字化转型话题,请进入《CIO陪审团》Power8专题http://www.zdnet.com.cn/ibm/power/p8进行了解。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。