gg
您当前的位置: 首页-> 消费 ->内容

大模型重塑金融业态报告②丨金融基础设施再进化

时间:2024-02-08 07:49来源:证券之星阅读量:19951   

21世纪资管研究院研究员李览青、杨梦雪

大模型重塑金融业态报告②丨金融基础设施再进化

摘要:“大模型”无疑是2023年最热的关键词之一,随着大模型概念的崛起和广泛传播,金融行业因被视作最优落地场景也同步掀起了一轮热潮。大模型究竟会给金融行业带来什么?它会在何种程度上重塑技术和业务,会衍生出怎样的商业价值?21世纪资管研究院调研了三十多家金融机构和科技公司相关负责人,形成了这份《大模型重塑金融业态报告》,通过梳理机构布局情况以及这些领军者们的观点,描绘行业发展趋势。

从电子化到数字化再到智能化,金融机构的基础设施更迭,是其转型发展最重要的环节之一。

过去十年,金融基础设施的改造集中于“上云”,实现了传统“烟囱式”系统架构的平台化,如今,大模型的到来也开启AI原生时代,对金融机构基础设施进化提出新要求。

“大模型的发展路径与云计算在诸多方面表现出很大的相似性,AI基础模型至少在语言领域已经表现出很强的通用性,并且正在像云计算那样成长为新型基础设施。”中国信通院云计算与大数据研究所所长何宝宏在《数字原生》一书中如是说。

大模型时代,数据、算力、算法共同构成金融机构搭建大模型的“三驾马车”。GPT-3的胜利,一度被视作“暴力美学”的胜利,高达1750亿的参数规模让模型性能显著提升,赋予其强大的智能,这就是大模型的能力“涌现”。

但是数据、算力的暴力堆叠,没有与模型的精确画上等号,往往越大的模型在知识量到达一定阶段可能出现“幻觉”问题。因此,在资源有限的背景下,金融机构面临的问题是:如何提高算力的使用效率?如何挖掘可训练的语料库?

大模型时代,金融机构已开始重塑基础设施服务。

AI原生时代降临

据21世纪资管研究院调研,从传统IT的IOE架构到业务平移上云,头部金融机构的“上云”进程已初步完成。特别是大型国有银行与头部股份制银行,在完成以虚拟化为核心的云平台1.0阶段后,从2020年开始发力分布式架构的云平台建设,招商银行、平安银行、中信银行等已基本完成了传统科技架构向云架构的转换。

2021、2022年是行业步入云原生的2.0阶段。云原生源自于云计算,其构建和部署都基于云平台,是一种构建、运行应用程序的技术方法。传统的云计算服务包括基础设施即服务、平台即服务(PaaS)、软件即服务(SaaS)三大方面,在基础设施、平台、软件都已实现上云后,下一步通过统一标准在云上构建应用,就是云原生。云原生应用从架构设计、开发方式到部署维护,都是在云平台上进行的。

相比传统的硬件基础设施,云计算平台打通部门、层级、区域的限制,可以实现资源的高度复用、灵活调度和有效供给。而基于标准化的云原生技术,进一步降低了云上应用开发的难度,将产品不断拆分成为“微服务”,使得开发决策效率更为敏捷。

从提升资源效应到业务敏捷化,如今随着AIGC等技术融合,业务智能化发展对金融机构深度用云提出更高的要求。在云平台本身就具备的稳定可靠、弹性灵活、安全合规等特性之外,将AIGC引入研发设计、生产控制与运营维护等流程,可以实现业务智能化、决策智能化,降低数字化应用的门槛。

值得注意的是,目前金融机构探索大模型落地应用的场景依然是“怎样把已有的事情做得更好”,但在AI驱动下有望获得新的应用创新。大语言模型与传统的小模型不同,不仅可以在规则导向下获得深度学习的能力,实现自主分析、自主决策,生成式AI还可以在全业务领域实现多模态业务内容生成、逆向工程、自然语言交互、自主任务分解等。

优化基础设施突破算力瓶颈

然而,对于金融机构而言,算力资源是布局大模型的最大瓶颈。

有行业专家曾给21世纪资管研究院算过一笔账,如果在金融垂直领域把所有公开数据都训练完,一次达标的预训练,以彭博旗下BloombergGPT的500亿参数计算,需要花费200张以上的英伟达A100显卡,仅一次训练支出就在200万以上,低于这一体量的训练可能效果会不及预期。

与以往的AI训练模型方式不同,大模型的训练任务是“多机多卡”式的,在分布式任务训练下需要消耗大量的资源。微软在2023年的财报中首次将GPU的可用性确定为风险因素,微软表示将继续寻找和评估扩大数据中心位置和增加服务器容量的机会,以满足客户不断变化的需求,特别是考虑到对人工智能服务不断增长的需求。

对于金融机构而言,训练自己的大模型路径包括二次训练精调与联合共创两种方式。在二次训练精调模式下,基于已有的预训练模型,金融机构在整个神经网络的最后一层进行修改,其他参数不变,尽管所需的算力要求相较预训练小很多,但一次训练也依然需要数十张A100显卡。而联合共创模式下,则是将大模型的智能化能力内置应用于智能客服、智能投研等金融场景下,结合金融机构内部数据进行训练。

为解决算力资源瓶颈,据21世纪资管研究院调研,金融机构选择的路径有:一是头部金融机构基于囤积的GPU进行探索,二是尝试将少量训练与精调挪到公有云上,解决一部分算力问题,采用向量数据库等外挂知识库也是一大选择。

不过,金融机构的智能化创新变革,需要一个能够承载数据量井喷、支持全息影像式客户数据分析、能够快速适配各类应用场景的平台,弹性、灵活、可扩展、韧性成为AI原生时代金融基础设施的关键要素。

从为金融机构提供相关基础设施服务的头部信创厂商的实践来看,目前常见的AI应用基础设施架构包括算力层、平台层、大模型层、应用层等四层架构。

在底层算力层面,混合多云帮助机构实现灵活跨云应用管理;多地多活的灾备体系提高机房容灾能力,加强了底层技术架构的稳定性与连续性;应用程序的容器化部署简化了应用开发、构建、部署、管理的流程,提高了业务资源的利用率;向量数据库、数据湖、数据仓库等技术则实现了数据资源的优化布局。

在平台层面,可以实现从数据预处理、模型训练、模型部署的一站式训练,通过业务共性的沉淀与提炼,大幅提升模型训练效率。据21世纪资管研究院了解,由于大模型的分布式训练任务,以“多机多卡”形式推进,更需要对算力资源进行充分的感知与适配。用于大模型训练的机群下的算力节点在同一时间分配了不同程度的运行任务,提升AI中台的感知能力以灵活选择资源调度器更为重要。

在大模型层面,金融机构可以根据不同细分场景业务需求,选择通过API接口接入通用大模型,获取一部分智能化能力,或通过微调训练自己的垂直大模型,实现技术使用成本的降低。

声明:免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。