
寻找“负责任的阿尔法”:平衡生成式AI与金融监管之道
如果未来中环多家基金的智能体(AI agent),能在同一秒内读完中央银行声明、业绩电话会议纪录与全球新闻,并据此作出方向相近的交易判断,市场究竟会变得更有效率,还是更脆弱?这已不是科幻想像,而是正迅速逼近金融业的现实。
现阶段而言,生成式人工智能(GenAI)多用于概括研究报告、整理资讯、撰写程式及分析文本;但当这些能力进一步结合记忆、推理、规划、工具使用与持续执行模组,并嵌入投资研究、风险管理及交易流程,金融机构便会由“信号生成”走向自主程度更高的AI智能体系统(agentic AI system)。【注1、6、8】
这个转变催生了所谓的“阿尔法焦虑”(alpha anxiety)现象。阿尔法亦即超额回报(alpha),有关焦虑不在于AI是否比人更聪明,而在于它正迅速降低部分投资研究工作的复制成本。过去需要研究团队长时间完成的公开资讯整理、文本解读、持仓追踪与风格识别,如今愈来愈可以由模型自动化处理。【注4】有研究指出,AI仅根据公开持仓披露与宏观数据,已能模仿顶尖资产管理人相当比例的交易行为。【注2】
当更多机构都能从相似数据中提取相近信号,原本稀缺的资讯优势便更容易被竞争侵蚀,超额回报也更难持久。AI未必会终结阿尔法,但它确实正在缩短阿尔法的半衰期,迫使机构投入更多算力、更昂贵数据与更复杂架构,只为维持原有回报。这正是一场典型的“红皇后竞争”(Red Queen competition)。
比单一模型出错更值得警惕的,是大量模型同时“做对同一件事”。当不同机构依赖相近的基础模型、相似的新闻来源、相同的市场数据、类似的风险约束与优化目标,表面上彼此竞争,实际上却可能在压力时刻收敛为高度一致的交易反应。生成式AI一方面降低资讯不对称,把过去分散于文本、语音与叙事中的非结构化讯息迅速转化为可交易信号。但另一方面,也可能令市场参与者在更短时间内得出更接近的判断,从而提高策略趋同与模型同质性的风险。【注1、6、7 】
正常市况下,这种技术进步有助加快价格发现;但一旦市场受压,其顺周期性(procyclicality)也可能被强化。若愈来愈多模型驱动的交易者以相近逻辑解读央行措辞、盈利指引与宏观数据,并在相近的止蚀、保证金要求与风险值(value at risk)限制下同步调整持仓,市场流动性便可能在短时间内同步收缩。既有研究表明,演算法交易在正常时期固然有助提升价格发现与资讯反映速度,在压力情境下却可能加剧流动性脆弱性。若不同策略日益依赖相似信号与相近执行规则,市场效率的提升,或会以更脆弱的微观结构为代价。这正是AI金融的一个悖论:微观层面的理性优化,未必能转化为宏观层面的稳定。【注3、7 】
正因如此,笔者提出“负责任的阿尔法”(responsible alpha)这个概念。未来有价值的阿尔法,不应只是在短期内跑赢市场,而应置于可解释、可审计、可干预,且不致过度放大系统性风险的边界内。换言之,“负责任的阿尔法”不把风险控制视为附带条件,而是把可管治性内生为阿尔法的一部分。当信号提取日益商品化,真正稀缺的能力,将不再只是建出更不透明的黑盒,而是证明自己的AI何以可信:它用了什么数据、经过什么工作流程、谁可以复核、出了问题谁能中止。当阿尔法愈来愈像可复制的公共技术,管治能力、审计能力与人手介入能力,反而可能成为新的私人护城河。【注5】
香港近两年的政策方向,恰好为这种“负责任的阿尔法”提供了制度土壤。2024年8月,香港金融管理局联同数码港推出首个“生成式人工智能沙盒”,明确提出以风险为本的原则,强调高风险决策须保留“人在环中”(human-in-the-loop)模式。2025年8月,国际结算银行(BIS)创新枢纽香港中心、金管局与英国金融行为监管局推出 Noor项目,聚焦于生成式AI及高级算法模型在金融体系的应用,以解决AI可解释性(explainability)难题。这意味监管思路已不只要求机构解释AI,而是开始提升监督者本身看懂黑盒的能力。到2026年3月,香港又把沙盒升级为生成式人工智能沙盒++,将范围扩展至证券、资产管理、保险及强积金等领域,令沙盒不再只是试验场,而是监管者与市场共同界定安全边界的制度工程。
当然,沙盒的推出不能只是一个展示创新的招牌,而是要成为验证管治能力的试验场。对代理式AI与量化模型而言,真正要测试的,不只是模型准确率,而是整条风险管理链:数据能否追溯、版本更新有否留痕、压力情景下会否同步撤单、模型漂移(model drift)能否及时发现,必要时能否由人手介入或紧急停用。未来资产管理业的竞争,比拼的不只是模型预测力,也是在比拼机构能否把模型风险纳入管治框架之内。
下一轮金融竞争,比拼的更不只是谁更早用上AI,而是谁能更早证明:自己的AI在赚钱时可靠,在失灵时可控。2025年世界经济论坛白皮书提醒,许多机构其实仍处于由试验走向规模化落地的过渡阶段;真正决定成败的,往往不是模型本身,而是信任、自我管治、人才、网络安全与数码基建是否到位。【注8】从这个角度看,香港的潜在优势,不仅在于更早部署AI,更在于更早的把模型治理、压力测试、审计轨迹与人手介入机制,逐步制度化为跨市场、跨监管、跨机构的共同语言。
归根究柢,若市场最终把透明度、可问责性与管治成熟度视为值得付费的属性,那么“信任”本身,便可能成为下一代国际金融中心最重要的无形资产。香港要寻找的,不只是更高的阿尔法,而是更值得全球资本信任的阿尔法。
注1:Aldridge, I., An, J., Burke, R., Cao, M., Chien, C. Y., Deng, K., … & Zheng, W. (2025). Agentic artificial intelligence in finance: A comprehensive survey [Working paper].
注2:Cohen, L., Lu, Y., & Nguyen, Q. H. (2026). Mimicking finance (NBER Working Paper No. 34849). National Bureau of Economic Research.
注3:Dou, W. W., Goldstein, I., & Ji, Y. (2025). AI-powered trading, algorithmic collusion, and price efficiency (NBER Working Paper No. 34054). National Bureau of Economic Research.
注4:Gu, S., Kelly, B., & Xiu, D. (2020). Empirical asset pricing via machine learning. The Review of Financial Studies, 33(5), 2223–2273.
注5:Fabozzi, F. A., & López de Prado, M. (2025). Implementing AI Foundation Models in Asset Management: A Practical Guide. Journal of Portfolio Management, 52(2).
注6:Mo, H., & Ouyang, S. (2025). (Generative) AI in financial economics. Journal of Chinese Economic and Business Studies, 23(4), 509–587.
注7:International Monetary Fund. (2024). Global financial stability report. https://www.imf.org/-/media/files/publications/gfsr/2024/october/english/textrevised.pdf
注8:World Economic Forum. (2025). AI in action: Beyond experimentation to transform industry. AI Governance Alliance, in collaboration with Accenture.
孟婧涵博士
港大经管学院金融学高级讲师、港大经管学院理学士(计量金融)课程总监
(本文同时于二零二六年四月十一日载于《信报》“龙虎山下”专栏)






