AI赋能资管:道阻且长,行则将至| 资管报告节选
财联社10月10日讯2025年是资管新规发布后的第七年。今年以来,国内外资管机构面临关税战下的全球新变局,政策波动和不确定性加大,风云变幻的全球经济为资产管理行业带来前所未有的机遇与挑战。
本文为第八篇(完结篇),课题组讨论AI从哪些方面赋能资管业务,研究资管行业运用AI亦需关注潜在风险,对AI运用的监管进行了探索。
(一)AI可以从哪些方面赋能资管业务?
2025年初,伴随着DeepSeek横空出世,AI在经济社会各个领域的运用也逐步被各方所重视。不过,由于目前AI系统的局限性,资管机构对于AI的运用仍局限于部分运营环节,且存在着相应的风险。不过,随着未来算力的提升、AI相关技术的发展,AI对于资管行业的赋能或将更为全面。
从当前全球的视角来看,AI在资管行业的运用主要集中在智能投顾和投研上,此外,AI对于资管机构内部效率提升、算法交易等领域亦有相应运用。
2025年3月,国际证监会组织(IOSCO)发布了《资本市场中的AI运用:案例、风险和挑战》(Artificial Intelligence in Capital Markets: Use Cases, Risks, and Challenges)报告 。根据该报告定义,AI系统(AI system)指的是一种机器系统(machine-based system)。该系统能够根据显性或隐性的目标,基于其所接受的输入信息,自动输出可以影响实体或虚拟环境的预测、建议、决策等内容。而不同的AI系统将会在自动化程度(Level of autonomy)和部署之后的适应性(Adaptiveness)方面存在一定的差异。根据该报告的的定义,从最广义的AI系统角度来看,其包括自动推理、自然算法等内容,不过近年来热度相对较高的人工智能运用集中在生成式AI以及大语言模型领域。
该报告的调研群体主要包括IOSCO金融科技工作组(Fintech Task Force, FTF)的24个参与经济体。在该报告中,IOSCO通过对各个经济体资本市场中监管者进行调查问卷,详细梳理了全球各个资本市场中参与者对于AI的运用重点。根据调查问卷结果,IOSCO发现,对于主要经济体内参与资本市场各项业务的资管机构而言,目前对于AI的运用集中在智能投顾(Robo-Advice)和投资研究(Investment Research)。若进一步将范围拓展到资本市场的各类参与者,可以发现资本市场各类参与者最为普遍的AI运用在于与客户进行沟通、算法交易、智能投顾、欺诈检测、内部效率提升和反洗钱监测。因此,在实践中,资管机构除了在智能投顾、投资研究等领域进行AI运用之外,也在算法交易、内部效率提升等领域探索了AI的运用。
从智能投顾的运用来看,根据IOSCO的调查情况,当前资管机构对于AI的运用主要集中于自动提供投资建议,以及帮助客户或产品自动完成资产组合管理上。具体来看,AI的运用领域包括:资产组合构建、根据收益-风险分析自动化调整资产组合配置、根据客户偏好定制化生成资产配置组合、对客户资产组合进行风险收益评估和管理。
在投研领域,资管机构主要使用AI来增强投资选择过程、进行相关投研材料翻译、监测宏观环境和数据并对客户进行定位和营销。在增强投资选择过程上,AI的主要用途包括市场情绪分析、数据汇总和流程自动化。在相关投研材料的翻译上,AI可以支持资管机构第一时间了解通过其他语言撰写的投资研究材料,也可以促进资管机构在第一时间了解到其他经济体产品创新的一手信息。在监测宏观环境上,有部分资管公司已开始利用自研、第三方平台和数据提供商所提供的AI工具来自动监测宏观经济环境和数据的变化,并在触发相关阈值时进行及时预警。在对客户进行定位和营销时,资管公司运用AI工具对客户进行画像和定位,更好地了解客户的需求痛点,从而向客户提供能够满足其需求的产品或产品组合。
在智能投顾和投研领域运用AI的基础上,全球各经济体的资管机构也在考虑或测试部分AI的运用,虽然这些AI运用暂未部署至生产领域,但是随着未来AI技术的升级,相关AI或也能够投入生产环境。具体来看,相关运用主要包括以下几个方面:
第一,通过生成式AI加快开发新交易策略的过程。对于特定的交易策略或思路,生成式AI可以帮助资管公司搜索、总结和分析相关研究论文,生成实现这些交易的初步交易代码,并模拟测试相关投资策略在过往和模拟盘中的表现。
第二,通过AI技术加强从宏观经济数据、中观行业动态和微观企业财务的分析。资管机构可以通过自研和运用外部系统的方式,通过生成式AI对财务报表、新闻信息、社交媒体等信息进行整合,从而更快地生成对于各类信息的汇总和分析。考虑到当前AI所拥有的分析能力仍有待增强,因此已有不少资管公司将研究机构所撰写的深度报告作为语料投喂给AI,从而训练提升其分析能力。
除了上述运用之外,亦有部分经济体的资管公司还会使用AI来协助开展与客户进行交流,在此前运用自动化系统开展交易的基础上,结合AI和大语言模型的使用,来进一步提升自动化交易系统的智能程度。
从AI对投资赋能的潜在效果来看,埃森哲曾在2021年发布《资产管理行业的未来》(The Future of Asset Management) ,根据其预测,当资管机构对于AI的运用逐步成熟之后,AI将能够帮助资管机构获得310BP的Alpha,其中有30BP来源于AI赋能研究,有80BP来自于AI对于投资决策的有效支持,有200BP来自于AI对于交易择时和策略的优化。在不同的资产大类层面,AI也能够帮助资管机构优化投资收益。在权益资产方面,AI能够通过敏感性分析和预测计算等方法,帮助资管机构在上市公司季报或季度收入发布之前预测全域资产的可能表现。在房地产资产方面,投资经理可以通过替代数据(例如消费和人口结构数据等)来预测房地产市场、房屋出租率和价格的潜在变化,从而更准确的预测房地产资产的收益率等数据。在固收类资产方面,AI可以帮助投资经理通过进出口数据、全球资金流向数据以及其他宏观数据指标来预测不同经济体的利率走势和汇率变化。而从最新的实践数据来看,来自加州大学埃尔文分校、佐治亚州立大学和爱荷华州立大学的4位教授发表了《生成式AI与资产管理》(Generative AI and Asset Management),该文章选择了对冲基金的回报率进行研究,从研究的结果看,相较于没有使用生成式AI的对冲基金,运用AI支持投研的对冲基金能够获得1.8%-3.5%的超额收益回报。
(二)资管行业运用AI亦需关注潜在风险
虽然资产管理机构通过运用AI可以在募资和投资两端增加收益水平、提升运营效率、优化客户体验,但是AI与其他金融科技的运用一样,也存在潜在的风险。在IOSCO发布的《资本市场中的AI运用:案例、风险和挑战》报告中,IOSCO也对AI潜在的风险进行了调查,根据主要经济体监管部门的反馈,IOSCO将资管行业等运用AI的几大风险进行了总结。
第一,AI运用所带来的网络风险。基于AI的运用和部署,AI系统的运用将会使得各类机构所面临的网络风险显著提升。一是不法分子运用AI进行网络攻击的风险。不法分子将可以运用AI来策划和实施自动进行网络攻击。具体来看,AI技术能够帮助其对于信息系统的脆弱节点进行分析,从而使得资管公司和资本市场的漏洞更容易被不法分子抓住。与此同时,AI可以使得不法分子所运用的钓鱼邮件、诈骗信息、入侵方式更为智能化,从而帮助不法分子更便于窃取数据和躲避侦测。在2024年11月,美国财政部金融犯罪打击网络部门(FinCEN)曾发布警告讯息指出,越来越多的金融机构上报,其自身和客户所遭遇的深度伪造信息(Deepfake media)攻击日渐增多,不法分子大量运用深度伪造技术来试图对资管产品的持仓信息、资金流向和客户个人信息等进行窃取,从而对资管机构的声誉和安全产生负面影响。二是对AI系统的攻击。由于AI系统自身的脆弱性,其在构建和训练的过程中都较为容易受到不法分子的投毒和攻击。不法分子既可以对大语言模型的语料进行投毒来开展攻击,也可以在AI系统构建底层代码时埋入后门。
第二,AI所带来的欺诈、诈骗和错误信息可能。AI系统所带来的便利将可以使得不法分子进行高难度诈骗的成本降低且更为自动化,从而使得不法分子开展不法活动的门槛显著降低。由于生成式AI所生成的结果可以帮助不法分子的欺骗信息更为拟人化和具有说服力,因此资管机构和投资者更容易受骗上当。
第三,AI运用过程中的模型风险和数据质量风险。根据IOSCO所收集的各经济体反馈来看,AI在算法交易、智能投顾、预测性分析、市场分析、交易分析、风险建模、交易执行、营销宣传、客户沟通、反洗钱等多个领域都将会存在模型风险和数据使用风险。一是模型风险。大语言模型相对复杂,因而基于大语言模型构建的AI系统的输出结果往往较难甚至无法进行较好的解释。这一情况映射至资管机构的日常运行之中,往往意味着运用相应AI系统的投资产品和服务难以进行充分的信息披露,其信息披露内容容易不充分、不准确同时缺乏效率。与此同时,AI模型自身可能还会存在一定的局限性(Limitations)和偏向性(Bias)。一方面,大语言模型的训练仅能使用历史数据,故而难以适配金融市场和投资者偏好的最新变化,从而难以准确地在未来市场环境下为资管机构投资提供超额收益。另一方面,大语言模型训练时所使用的算法、数据和权重等可能存在偏向性,因而可能会导致其对于投资决策和不同类型客户的需求研判存在偏差。二是数据质量风险。大语言模型的训练不仅依赖于算法,同时也依赖于丰富、可靠的数据等语料。一般来看,大语言模型若在训练阶段能够使用来源范围广泛、高质量的数据,将能够使得其最终生成的结果更为准确和可靠。与之相对应,若大语言模型在训练时所使用的语料准确性较差,甚至被认为“投毒”,那么大语言模型所产生的输出结果质量也将存在问题。这一情况映射到资管机构层面,就意味着资管机构通过AI所开展的投资收益堪忧。与此同时,与模型风险类似,大语言模型在训练过程中所使用的数据也会存在局限性和偏向性问题,从而影响AI支持资管机构发展的实际效果。
第四,AI运用在外包服务、第三方服务方面的风险。由于大语言模型和AI系统的研发成本高、研发周期长,包括资管机构在内的金融机构难以完全采用自研的方式对大语言模型和AI系统进行研发,或多或少都需要依托来自于第三方机构的基数支持,这就使得资管机构在运用AI时将会面临集中度、外包服务和第三方依存度等的潜在风险。一是集中度风险。若资管机构所使用的AI模型自身,或AI模型所使用数据等对于单一或特定几家机构的依存度较高,那么资管机构在运用AI时将会面临较高的集中度风险。二是外包服务和第三方机构风险。不同于资管机构可以直接接受金融监管部门监管,资管机构所使用的AI系统其运作方式和提供者在绝大多数经济体内并不属于金融监管部门的监管范畴之内。因此,若相关AI系统的外包服务提供商出现问题,其风险也将存在传染至资管机构的可能性。
第五,资管机构工作人员在与AI系统交互过程中的风险。即使AI系统设计相对完美,但由于AI系统的最终操作方仍然是人类,因此在人类操作AI的过程中也将存在相应的风险。一是缺乏问责机制和无法满足监管合规要求。资管机构在运用AI系统的同时,也需要对AI系统设置相应的内控合规流程和要求,从而避免机构人员在使用AI的过程中存在违规行为。二是缺乏内控机制和管理能力。在AI系统研发、接入系统、运用和监控的过程中,都需要资管机构拥有相应的风险管理能力。考虑到AI作为较新的运用,资管机构从业人员或许尚不具备有效驾驭AI的能力,故而可能衍生出潜在的不可控风险。三是过度依赖技术的风险。虽然在充分的研发和训练技术中,生成式人工智能可以提供看起来令人信服的结果,但是从实践上来看,由于AI技术的开发和运用仍处于初期,因此AI系统仍然时常“一本正经的胡说八道”。若资管机构缺乏自身判断力地轻信AI系统的结论,或者缺乏人工管控的任由AI系统“信马由缰”,则AI系统可能导致各类不可控的风险。
(三)对AI运用的监管探索:以智能投顾为例
为了更好地考察监管部门通过监管原则和规定对AI等金融科技进行监管引导,从而更好地促进AI运用健康发展的情况,我们选取了智能投顾的监管情况进行考察。
对于智能投顾的监管,国际上主要经济体在传统投顾的监管原则和要求的基础上,在牌照、投资者保护与算法监管等方面存在一定的专门监管安排。
FSI在2020年1月发布《应对金融科技的政策:国际对比概览》(Policy Responses to fintech: A cross-country overview),指出针对智能投顾的监管要求是技术中立的,智能投顾应与传统的投顾受到相同的监管待遇(Same Regulatory Treatment)。针对智能投顾的监管原则主要集中在以下五个方面:
第一,在牌照要求方面,尚未推出专门的智能投顾牌照,但开展智能投顾业务仍需满足各司法辖区开展投顾业务的持牌要求。以新加坡与澳大利亚为例,新加坡金管局(Monetary Authority of Singapore,MAS)在2018年10月发布了《提供智能投顾服务的指引》(Guidelines on Provision of Digital Advisory Services,以下简称“《智能投顾指引》”) ,规定在新加坡提供金融投资建议服务(包括智能投顾服务)的各类机构均需要持有金融顾问牌照(Financial Advisers Licence)。但是,持有金融顾问牌照的投顾机构在未获得其他牌照的情况下,不得处理或控制客户的资产或资金。在提供金融咨询服务外,投顾机构若向客户提供执行资本市场操作、代客户管理投资组合等服务,则还需要持有对应的资本市场服务(Capital Markets Services,CMS)牌照 ,例如证券交易牌照(Securities Dealing License)、衍生品交易牌照(Derivatives Trading License)、基金管理牌照(Fund Management License)。
澳大利亚证券投资委员会(Australian Securities and Investments Commission,ASIC)在2016年8月公开发布了《第255号监管指引:对零售客户提供金融产品数字投顾》(Regulatory Guide 255: Providing Digital Finance Product Advice to Retail Clients) ,因为提供智能投顾属于金融服务范畴,相关机构应持有澳大利亚金融服务牌照(Australian Financial Services License)。
第二,在投资者保护方面,提出人工与智能相结合,以最大程度保障投资者权益。如何在有限或没有人为干预的情况下履行以客户利益为先和仅提供适当投资建议的义务是智能投顾的监管重点。
一方面,智能投顾在向客户推荐任何投资产品之前,应收集足够可靠的信息。在用于收集客户信息的工具(例如在线问卷)上,应明确易懂、具备解决客户回答不一致的机制、识别不适合智能投顾客户的机制等,才可以保证信息可靠。
另一方面,鉴于完全自动化模型面临的挑战,部分监管机构认为,在没有人类顾问参与的情况下很难确保投资建议的适当性。例如,加拿大的证券监管机构要求在客户初始开启智能投顾服务时,应有人工顾问与客户联系和确认;同时,在后续的智能投顾服务过程中,应当始终让客户有选择与顾问进行联系的选项。美国马萨诸塞州证券监管部门(Massachusetts Securities Division)在2016年4月发布《关于州注册投资顾问使用第三方智能投顾的政策说明》(Policy Statement: State-Registered Investment Advisers Use of Third-party Robo-Advisers),指出完全自动化的智能投顾可能本质上无法履行州注册投顾机构应尽的责任义务。
第三,在算法监管方面,如何确保用于生成建议的算法按照预期运行是智能投顾的监管重点。智能投顾商业模式的核心是将客户数据转化为可操作算法,算法中存在的错误或歧视可能会给客户带来损失,甚至导致金融市场的混乱。为了降低算法风险,监管机构要求智能投顾机构为算法设立治理和监督安排,且最终责任应由董事会或高级管理层承担。以新加坡为例,在《智能投顾指引》中针对智能投顾做出了算法监管的相关安排,主要思路是将算法监管的责任归属于智能投顾机构的董事会和高管,其需要对面向客户的算法工具进行有效监督和治理,包括确保有足够的资源来监控和监督算法的性能、具备开发和审核算法方法的能力和专业知识的人员、制定算法工具开发的规章制度等。
第四,智能投顾在提供通用化建议(Streamlined/Scaled Advice)时应向投资者明示风险与潜在后果。英国金融行为监管局(Financial Conduct Authority,FCA)将通用化建议定义为一种仅关注客户的特定需求(如养老投资、教育储蓄等),基于这一特定需求提供投资建议的投顾服务,该服务不涉及客户其他背景情况的分析。由于该类智能投顾服务在向客户提供建议时所考量的信息相对有限,无法考虑到客户的全部财务状况和客观偏好等因素。在这种情况下,智能投顾需要向客户明示提供建议的有限性、风险以及潜在后果,例如发出风险披露声明。
第五,智能投顾应强化信息披露。智能投顾需要以合理的方式向投资者提供业务模式、咨询服务范围和潜在利益冲突等方面的充分信息,以便于投资者做出合理决策。披露的信息应简明易懂、清晰明了、不得具有误导性。