今的监管者已经开始探索如何利用技术帮助他们履行监管与监督职能。由此诞生了新的监管名词——“监管科技”(英文名为RegTech,是“监管”与“科技”两个英文单词的结合)和“监督科技”(英文名为SupTech,是“监督”与“科技”两个英文单词的结合),其中一个创新点体现在利用自然语言处理——人工智能的其中一个领域来加快和提高监管者对相关文件的审核,以此评估企业对披露要求的合规性。该项技术适用于广泛的文件类型,包括公司账簿、企业公告、招股说明书和金融产品披露文件。

“监管科技”是伴随着“金融科技”的发展而发展起来(有关“金融科技”和智能合约的探讨,详见《商法》第7辑第8期文章:《金融科技与智能合约》)。

本栏将探讨自然语言处理在企业信息披露方面可发挥的作用,以及由此产生的对法律和监管的影响,包括:(1)技术是否会改变监管者对企业信息披露语言和披露标准的解读;(2)监管者是否能够公开他们是如何利用技术来监督和审核企业信息披露;以及(3)如何保持适当的人工干预并确保整个过程的可信度。

“监管科技”及其优势。企业和监管者越来越多地以各种用途使用“监管科技”。在过去三年,监管者在履行职能过程中使用“监管科技”的趋势更是明显。

“监管科技”带来诸多好处,比如,它让企业能够以更高效和经济的方式完成合规工作,让企业提交给金融机构董事会的信息质量更高,从而让管理更规范,它也有助于提高公司的整体治理水平。“监管科技”涵盖了多项技术,包括人工智能、区块链(分布式账本技术),机器学习,自然语言处理和数据分析。

近年来,企业和金融监管部门都积极拥抱“监管科技”,他们都纷纷推出各项倡议和试点项目,旨在将科技真正落地到监管领域。

自然语言处理(NLP)。数据的数字化推动了多项涉及NLP的技术的发展。在本文中,“自然语言”的含义等同于人类语言(意指自然发展的语言),用于将人类语言与其它语言,如人工合成语言或计算机代码区分开来。“处理”指用技术处理自然语言的不同方式。它的范围很广,从简单的处理,如追踪单词和词组的频率,到提取信息用于比较,再到复杂的处理,如解读自然语言的含义。

NLP是机器学习的一个子集,而机器学习本身又是人工智能的一个子集。最近出现了从监督机器学习或“基于逻辑“的机器学习(即算法对人类设计的规则和逻辑作出反应)转向无监督学习(即算法直接学习数据,识别规律,无须找到为什么存在这些规律的原因)的趋势。无监督学习也被称为“深度学习”。

自然语言处理中用到了各种不同的方法。包括各种编程技术,用来提取文件中的单词和词组,识别规律;主题建模,用以识别不同主题以及各主题之间的关系;文本分类,用来对文本进行分类;文本聚类,即基于内容的相似度划分文本或文件;以及情绪分析,解读人类语言背后的含义。

在各种NLP方法中,主题建模已开始被监管者(如美国证券交易委员会)广泛用来评估企业信息披露的充足性,以及识别异常或欺诈性的信息披露。

数据的数字化和NLP此类技术的出现意味着监管者现在可以审核的信息量大大超过人工审核的量,且时间也仅为人工审核的一小部分。

监管科技对法律和监管的影响。监管科技可能带来的一个影响是科技的使用会影响对语言的解读。举个例子,通过NLP对一个招股说明书的文本进行分析后发现出一个与用语相关的问题,并认为这个问题与此前已被发现含有误导或欺诈信息的招股说明书有关联。但是,这个问题后来被证实是误报。这就是“以数据为基础”的方法会引起的一个风险,在这种方法中,算法不遵循任何规则,而是通过梳理大量的历史数据,并根据数据规律来做出预测。

如果有一个有资质的人审核结果并识别出误报,那么这种风险也许不会有负面结果。但是,即使在这样的情况下,NLP技术的使用可能会加深解读结果的人工审核员的固有偏见。

另一个可能的影响是,监管科技会影响监管者解读披露要求(有关企业披露文件的要求)的方式。比如,在澳大利亚,2001《公司法》(Cth)第710条对招股说明书的一般披露测试规定如下:

710 招股说明书内容——一般披露测试:

(1) 招股说明书须包含投资者和专业顾问为全面评估下表列出的事项而合理要求的所有信息。招股说明书中包含的信息:

(a) 仅限于投资者及其专业顾问能够在一般的招股书中合理期待的内容;

(b) 只有当具备相关知识的人士(详见(3)款规定):

(i) 实际了解这些信息;或

(ii) 在有关情况下通过发出询问能够获取这些信息,招股说明书才须包含这些信息。

上述规定有一个客观元素,即,它指的是“投资者和专业顾问为全面评估事项而合理要求的所有信息”以及“仅限于投资者及其专业顾问能够在一般招股书中合理期待的内容。”

现在的担忧是,NLP可能会影响或削弱“合理性”或“合理投资者”这类名词蕴含的客观披露标准的解读和适用。在使用技术前,这些法规都是由人来解读,但现在,还需考虑算法的理解,这就引起了担忧。

被人视为合理和完整的信息在算法的解读下可能被视为不合理、不完整。“是否合理”不再单纯由人(以及人的理解)来决定,而是由受到技术指导(和影响)的人来决定(即算法理解)。技术会重新定义“合理人士”的概念,用“合理算法”或“合理计算机”的标准来取代客观标准。

在侵权法中,我们已经开始看到有关转向电脑标准的讨论,即,对人的判断不再参照假定合理人的标准,而是参照更高的电脑标准。其中一个例子就是无人驾驶汽车,在衡量事故责任时,参照的是“合理算法”的标准而不是人类标准。在无人驾驶汽车领域,这一标准的适用也许有不错的效果,因为它有利于提高车辆生产商的审慎标准,但在企业信息披露要求中,这种标准的适用可能会引起有关标准解读和适用的困惑,也可能提高合规的难度。

另一个可能的影响是,“监管科技”让监管者更难保持披露文件审核过程的透明度,尤其是在运用无监督机器学习的情况下。如果能够确保在监管者中,有熟悉技术且具备资质的人,且该人士能够从技术角度确保必要的透明度,那么这个问题可以得到解决。

第四个可能带来的影响是,监管者需要保持一定程度的人工干预,以确保整个过程的可信度。“监管科技”的出现让有些人猜测人类监管者最终会让步于机器人监管者或机器人警察。但是,这种猜测并不成熟,也缺乏对这一新兴概念的正确认知。在“监管科技”中保留人工判断的重要性已获得广泛共识。尤其是在需要做出复杂决策的情况下,决策权必须交给人类决策者。

总结思考

毫无疑问,科技能够协助企业遵守监管要求,也能够协助监管者履行他们的监督职能。

科技的发展总是伴随着一些风险和挑战。如果监管者通过“监管科技”来监督和审核企业披露信息,这些风险和挑战包括:“监管科技”会影响对语言和披露标准的解读,监管者需要确保监管的透明度,尤其是在人类判断依赖于算法判断或受到算法判断的影响的情况下。科技当然能够帮助监管者识别出欺诈或异常的披露信息,这是它的优势。但是,利用科技来评估企业对披露要求的合规性也许会带来诸多问题。

展望未来,仍有一些问题需要得到进一步研究和分析:我们是否需要制定相关标准,确保“监管科技”使用过程的透明度,确保自然语言得到保留,并确保整个过程让“人”觉得清晰?我们是否需要制定相关流程,确保在“监管科技”中保留足够的人工干预,确保有人监督“监管科技”,以保证整个过程的可信度?如果需要,我们应当制定怎样的标准或流程,我们如何避免意想不到的后果?

在企业信息披露领域,前美国最高法院大法官路易
斯·布兰迪斯(Louis Brandeis)有一句名言人人皆知:“阳光是最好的消毒剂,电灯是最高效的警察”。随着“监管科技”越来越普遍,我们可以将“电灯”换成“人工智能”。但是,人工智能是否能够成为一个同样透明和公正的警察?我们抵目以待。

本文基于作者于2019年5月23-24日在新加坡举办的一个研讨会中发展的演讲《公司法的趋势与挑战——比较分析》,该研讨会由新加坡管理大学和墨尔本法学院共同举办。

一带一路
葛安德
Andrew Godwin

葛安德以前是年利达律师事务所上海代表处合伙人,现在墨尔本法学院教授法律,担任该法学院亚洲法研究中心的副主任。葛安德的著作《商法词汇:法律概念的翻译和诠释》重新汇编了其在本刊“商法词汇”专栏撰写的所有文章。该书由Vantage Asia出版。如欲订购,请即登录 www.vantageasia.com