当前,我国已经围绕人工智能产业发展的关键要素和关键问题,初步构建了多层次的规范体系。面对日新月异的人工智能技术迭代,以及人工智能赋能金融应用的必然趋势,我们仍有必要在实践中不断改良与优化既有治理框架,动态平衡创新与风险。一是动态平衡人工智能金融应用的创新与风险。
一方面要认识到人工智能金融应用是金融科技与数字金融发展、金融机构数字化转型的必然趋势。另一方面也要注意监测人工智能的创新和使用,准确识别和管理风险,确保监管适应金融体系的新风险。为促进金融创新并确保风险可控,可用监管沙盒为人工智能金融应用提供“试验场”,通过在受控环境中的测试,推动监管机构更好地理解技术的影响,并制定更为有效的措施。后续可纳入更多人工智能金融应用项目,对相关金融机构和技术类企业进行测试。
二是完善人工智能产业链关键要素的制度建设。人工智能的发展依赖于三个核心要素:数据、算法和算力。普适性的人工智能治理监管框架可被应用于各个行业。2023年以来,《人工智能法》已连续两年被列入国务院年度立法工作计划,并被列为预备提请全国人大常委会审议的立法项目。有必要在《人工智能法》中持续完善数据、算法和算力的制度供给与法治保障。例如,针对算法歧视等问题,《人工智能法》应在开拓算法公平综合治理机制的基础上,在概念界定、审查机制、责任分配、救济方式等方面作出清晰规定,应面向技术生命周期,围绕算法研发、部署和应用,在契合人工智能产业链堆栈架构的基础上,分层次、系统性地构建算法公平治理机制。
三是区分风险类型与分类监管。监管机构应在技术上保持中立态度,关注技术支持的、应受监管的金融流程和活动。这意味着监管将更加聚焦于技术应用的具体场景,而不是对技术本身进行一刀切的监管。在金融领域,随着金融科技的快速发展,风险管理变得更加复杂,亦需要区分金融风险、经营风险和技术风险,并实施分类监管。具体而言,金融科技公司介入金融领域后,金融链条上不同环节承担的风险性质不同。有些是部分出资,承担金融风险;有些是管理和操作成本,承担经营风险;有些是技术开发和运营,承担技术风险。技术风险中的模型风险也要进一步区分:一类是技术设计不当等设计开发的纯技术风险,应由技术提供方负责;另一类是使用者采纳不当模型引发的风险,宜由决策者负责。
四是加强监管部门间的信息合作和监管协调。人工智能金融应用的监管不仅涉及金融领域,还包括数据保护、网络安全等非金融领域,因此需要加强不同监管部门之间的协调合作,以提升监管的全面性和有效性。一方面,需要警惕人工智能算法对金融市场稳定性的影响,加强人工智能金融应用风险的统筹管理,发挥中央金融工作委员会的领导、保证、管理、监督、协调功能,强化对模型提供者等第三方机构的审慎管理。另一方面,加强跨领域、跨部门执法机构的协同。识别和化解数字经济时代的金融风险,不仅需要金融系统内部各监管机构的协同,还需要金融监管机构与中央网信办等数据监管机构开展执法协作,与国家数据局等机构做好金融数据流通的顶层设计,以数据监管与金融监管的跨领域、跨部门协同,保障数据与金融在要素资源层面的共同发展。
五是完善金融行业标准并提炼最佳实践。整体来看,当前我国针对人工智能金融应用的治理指南在系统性、可操作性上还相对欠缺。部分国家的央行已开始为金融部门制定相关监管框架,核心主题集中在可靠性、问责制、透明度、公平性和道德,其他指导原则还包括数据隐私、第三方依赖和运营弹性。在我国,《人工智能算法金融应用评价规范》《人工智能算法金融应用信息披露指南》是人民银行对金融算法展开“软法”治理的代表。未来,金融监管机构可以提供更具体的实际操作指导,例如可将这些人工智能治理框架的普适性原则做成最佳实践汇编,引导金融机构实操遵循,支持行业协会和专业机构制定行业标准和自律规范,提高行业自我管理能力,在规范层面和体系层面实现硬法、软法和科技三者的“融贯”。
www.tstingmi.com 提供内容。