首页 >  期刊文章 >  

人工智能时代审计伦理的危机表征与治理路径
2024-02-18   来源:刘国城   

摘要:人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。

关键词:人工智能;审计伦理;伦理危机;算法偏见;权责归属

中图分类号:F239.22 文献标识码:A

文章编号:1005-3492(2024)01-0041-17



近年来,人工智能技术蓬勃发展,且在新一轮产业变革中发挥“头雁效应”,并推动着经济社会的高质量发展。审计是一项具有独立性的经济监督活动,其自然需要人工智能技术的加持以提升审计工作的效率和效益。在新兴人工智能技术与传统审计实践相互融合发展的过程中,审计质量、效率和效果得以大幅提升。构架以人工智能应用为先的审计智能化取证机制,将会促使审计人员摆脱繁杂琐碎的重复性劳动,将更多精力放于培植敏锐洞察力以及提升审计质量之中。然而,在人工智能给审计发展带来机遇的同时,人工智能下的审计伦理危机应运而生。伦理危机是在社会、组织或个体行为中,对伦理准则的基本原则、道德、价值观念等方面产生严重的冲突或矛盾,进而所产生的问题与风险。人工智能存在算法伦理、社会伦理、责任伦理、数据伦理等一系列问题,其引发了各个行业的伦理危机,审计行业也不例外。

国务院于2017年7月印发《新一代人工智能发展规划》。国家新一代人工智能治理专业委员会于2019年6月发布《新一代人工智能治理原则——发展负责任的人工智能》,并于2021年9月发布《新一代人工智能伦理规范》。一系列政策文件的发布充分展现了国家对人工智能伦理问题的关注,以及如何促进人工智能的健康发展和安全可控。审计是党和国家监督体系的重要组成部分,人工智能时代下的审计伦理危机能够影响到审计的质量和效果,甚至会延缓审计工作的有序开展。当前,有关人工智能审计伦理方面的理论成果极为稀缺,且尚未有成熟的人工智能审计伦理原则、政策、制度、规范或指南以供实务界借鉴。有鉴于此,本文在明晰人工智能时代审计伦理内涵的基础之上,探索人工智能时代审计伦理问题的伦理表征和治理路径,旨在为各类审计组织如何应对人工智能时代下的审计伦理危机提供可供借鉴的经验和思路。



人工智能时代审计伦理的内涵

从我国古代传统文化出发,对伦理的理解可以从“伦”和“理”两个层面的含义入手。伦理中的“伦”即“序”,所谓“序”并非一般的次序,而是指“识人事之序”,是对人与人之间关系的一种界定。伦理之“理”是对人“行为应当”的要求,指的是人们在处理相互关系中应遵循的道理和规范。“理”自始至终都处在不断的变化发展中,“理”的发展与变迁,体现的是人们对社会环境变化的一种反思。因而,所谓伦理指的是特定社会环境和时代背景下,人与社会、人与人、人与自然之间的一种应然的、有序的关系。伦理学的意义在于寻求一种更为公正、合理的、更能处理好关系问题的“至善”法则。随着伦理学的发展,学术界对伦理理论的研究呈现出多学科、多形态、多学派的态势。

(一)审计伦理的内涵

审计作为一项内生于经济受托责任的机制,常常被认为是一项纯粹的经济活动。然而,从更为本原的哲学层面上看,审计实则是一种治理社会不信任关系的手段,审计活动本身蕴含着伦理渊源。有鉴于此,审计伦理才是指导审计行为的“至善”原则。理解审计伦理的内涵需要从三个层面入手。

1.审计伦理属性

伦理道德是人类实践中隐而不露且无所不在的灵魂。审计作为一种典型的人类实践活动,不仅有其经济属性,还具有文化、惯例、法律等伦理属性。首先,审计实务中蕴含着审计主体的伦理判断和选择。面对亲密关系、利益诱惑、外在压力等伦理场景,审计人员需要坚守职业道德,做出正确的伦理判断与选择,以维护审计的职业形象。其次,审计关系之始即体现了一种伦理上的属性。审计的本质是一种社会契约,通过社会契约由委托人、被审计人和审计人所组成的审计关系是一种伦理性的社会关系,这意味着每一个关系人都需要重视对其他相关者应负的社会责任。再次,伦理影响审计判断。职业判断虽然是审计人员作出的,但是其职业判断的过程必需依托所处的伦理环境。如在审计“三公”经费时,审计人员需根据当地的风俗、习惯、潜规则等伦理要素,确定实际执行的重要性水平。审计的伦理属性决定了审计伦理理论的基础性地位。审计伦理是构造审计理论体系的基点,是审计理论中最抽象、最为本质的理论范畴,对其他审计理论要素的建立和整个审计理论体系的构造起着决定性的作用。

2.审计伦理与审计职业道德的思辨

目前,学术界普遍认为审计伦理是指审计主体在从事审计活动的过程中应该遵循的职业道德规范。上述观点显然是有失偏颇的。黑格尔的伦理学理论对伦理和道德进行了明确的区分,他指出伦理是现实的“实体”,道德是主观的“精神”,精神通过现实而获得实际性的存在,即伦理决定了道德的内容。审计视角下,审计伦理是审计活动的现实环境及其秩序,而审计职业道德是审计从业人员的主观精神操守,不是审计职业道德决定了审计伦理的内涵,而是审计伦理决定了审计职业道德的内容。即审计职业道德是以审计伦理为基础和依据,伦理正则道德兴,伦理乱则道德衰,审计伦理是审计职业道德更深层次的哲学本源。

3.审计伦理扎根于伦理学理论

伦理学是关于优良道德的科学。事实上,无论是审计职业道德,还是审计价值观、审计法律、审计准则、审计惯例等,它们都是调节审计关系的规则。从伦理的本质上看,审计伦理实质上是调节审计关系人之间的作用关系及其行为的逻辑,它承载着三重意蕴:其一,审计伦理是基于审计关系网络的伦理,主要是指审计关系人之间的作用关系。其二,一定地域、一定时代以及一定社会环境下,审计伦理是依托实际的审计实践活动对关系秩序的调节。其三,审计伦理是从应然的角度制定的,且要求审计关系人在审计活动中共同维护和遵循相应的准则。简而言之,审计伦理可以理解成一种特定时代环境下的审计关系伦理。

综上,我们认为审计伦理是调节审计关系人之间互动关系的原则和规范。审计伦理作为一种价值准则,其意义在于对审计关系人的价值认知和行为进行规范、协调、评价。审计伦理的功能包括指导功能、评价功能和教化功能,具体表现为指导审计关系人行为、对审计关系人行为进行评价、劝善戒恶,并辅之以社会舆论的赞扬和谴责,进而作用于审计关系人的道德情感和审计职业文化。审计伦理具有群体性、中介性、内隐性、地域性、时代性、双向性等特征,其思维涵盖独立思维、公正思维、审慎思维、专业思维、规则思维、程序思维、批判思维、怀疑思维等方面。审计伦理学旨在从伦理学角度对审计行为进行分析与评价,识别审计过程中的伦理困境,并指导解决这些矛盾。

(二)人工智能时代下审计伦理内涵的延展

审计伦理是特定时代环境下的产物,时代的变迁会导致审计伦理内涵不断变化和延伸。人工智能时代,以算法引领、数据支撑、自主分析为特征的智能审计模式,正在促使审计生态发生演进。未来,人工智能技术全面渗透至审计领域,这将带来审计逻辑以及审计范式的变化,进而会引发审计取证机制的重构。在这一重构过程中,人工智能技术的全方位嵌入必然对传统审计关系造成强烈的冲击,并将挑战既有的审计价值观、审计职业道德、审计准则等伦理观念和原则,使得人们对审计伦理的内涵进行重新定位和思考。人工智能时代下的审计伦理是指在人工智能背景下协调新型审计关系的适应性规范。具体而言,人工智能背景下的审计伦理旨在运用多学科融合的理论知识,探索用以协调新型审计关系的标准和规则,以使审计关系活动达到均衡状态。人工智能时代背景下的审计伦理内涵可基于如下方面进行理解:

1.审计关系的延伸

基于受托责任观,传统审计理论将审计关系定义为由审计主体、审计客体和审计委托人构成的三方关系。但是,按照韩晓梅、房巧玲、杨阳等学者的观点,审计活动的结果不仅仅关系到审计委托人的切身利益,更会影响到监管机构、债权人、客户、供应商以及社会公众等一系列与审计客体有利益关系的各方。因此,基于上述学者观点,且在受托责任观之外,审计关系还可被界定为审计主体、审计客体、利益相关者等新型多方关系。

立足于上述新型审计关系理论,人工智能时代的到来进一步延伸和拓展了审计关系的内涵。在智能科技应用的时代语境下,人工智能技术在审计领域的不断渗透,智能化操作系统的高效运行在审计监督中具有举足轻重的地位。因而,智能审计系统的开发者作为审计智能化运行平台的设计师,也将成为除了审计主体、审计客体、利益相关者之外的新的审计关系人,它将在全新的审计关系中扮演重要的角色。为此,人工智能时代,审计伦理的内涵因审计关系的延伸而拓展,其不仅涵盖审计主体、审计客体、利益相关者之间关系的协调,而且还涵盖智能审计系统的开发者与上述三方关系人关系的协调与处理。

2.多学科的融合

人工智能时代的审计伦理学是审计基础理论与伦理学理论、机器工程学、人工智能科学、数据治理理论、信息科学、组织理论交叉的理论科学,需要多学科知识融会贯通。基于多学科相融合的视角界定审计伦理内涵,是有效应对社会复杂性的一种积极反应和理性选择,其能够体现出未来审计治理的理念和方式,且能够更好地促进智能化背景下审计多方关系人之间良性的互动与合作。

3.原则与规范的拓展

审计伦理着眼于对审计实践的理论反思以及实际问题的解决。人工智能技术的应用在促进审计达成更优目标的同时也给审计工作带来了更大的不确定性,智能技术的不可控性、风险隐蔽性以及潜在威胁性都将会加大审计风险。因此,智能时代下的审计伦理需要引入审计关系人对智能化风险进行识别和判断的价值指引,还应在考虑人工智能伦理危机的基础上深层次拓展相应的原则和规范,以应对审计智能化取证中潜在的技术滥用、算法歧视、侵犯隐私等可能对审计职业判断造成影响的威胁。

4.智能时代人机关系的平衡

审计伦理的本质是协调审计关系,人工智能时代下审计伦理的重点是协调“人机关系”。现时代,审计伦理内涵亟待延展的缘由是智能化操作系统嵌入了审计关系。如何更为准确的认识和理解人工智能时代下的审计内涵,其核心问题是如何认知和应对人工智能介入审计关系所出现的新情况和新形势,以实现审计现代化和审计的善治和良治。因此,审计智能化背景下,审计伦理除了协调审计关系人的关系之外,更应高度关注如何有效缓解人机矛盾,使人机关系处于一个均衡和谐的状态。



人工智能时代审计伦理危机的表征


审计伦理的本质是审计关系的协调和处理。审计主体作为审计活动的组织者和实施者,需要处理的基本伦理关系由内而外包括审计主体自身的伦理、审计主体与审计客体之间的伦理、审计主体与利益相关者之间的伦理。在人工智能时代,智能化操作系统嵌入审计关系之中。因此,本部分引入智能审计系统开发者作为新的审计关系人,并基于审计主体自身、审计主体与审计客体之关联、审计主体与利益相关者之关联、多方关系人共同关联四个层面分析人工智能时代的审计伦理危机。

(一)伦理危机:基于审计主体自身

审计主体包括审计组织和审计人员,其是审计活动的组织者以及审计活动的实施者。在审计智能化转型中,审计主体将会最为直接地感知到人工智能带给审计的伦理挑战和危机。

1.审计人员的主体地位遇到挑战

人工智能时代,智能审计系统代替了繁重的人工取证工作,审计人员的主体地位受到挑战。智能审计系统所呈现出的“主体性”趋势将对审计人员在审计工作中的主体地位和职业尊严造成强烈的冲击。首先,智能审计系统通过自动的感知、认知、决策等行为执行审计工作,这使其在一定程度上显示出某种“主体性”,即智能系统的思维和意识无限趋近于甚至超越人脑,智能机器将代替审计人员作决策,支配审计人员的行动。其次,随着人工智能的深度发展,机器人工程师所构思的“强人工智能”时代即将到来,这将意味着智能机器人将会逐步实现对审计人员行为的高度模仿,依靠创造力、复杂决策、情感能力的结构化或非结构化审计任务被智能机器所自动化,审计模式将从以“审计人员为主体”转向以“智能机器为主体”。针对审计运作机制一体化而言,智能审计系统不再是局部辅助审计工作的工具,而将会逐步成为审计取证中不可或缺的核心要件,与之相对应的是审计人员在审计工作中的地位逐渐被边缘化。再次,人工智能时代,审计人员“主体”地位的转变会降低审计人员职业认同感,并引发审计人员迷失职业发展方向,产生职业倦怠等一系列负面效应。

2.审计人员的专业胜任能力受到削弱

审计人员执行审计工作的基础是专业性和独立性。一方面,智能技术工具的过度运用会导致审计人员出现“去技能化”问题。智能审计系统对知识的掌握将会是动态的、不断增加和更新的,而且知识的更新速度远超审计人员的极限,这势必会影响到审计人员的思维模式,导致审计人员过度依赖于智能技术和算法,进而使得自身的思维能力、职业判断能力及知识创新能力日趋下降。另一方面,智能审计系统的使用会使审计人员陷入自主选择和物化操控之间的冲突困境。当智能审计系统计算的结果与审计人员独立判断的结论不一致时,审计人员可能主动或被动地遵从智能审计系统的指令执行审计程序。如果审计人员一味遵循智能审计系统所给予的建议,沉迷于系统“一键生成”模式,这将导致审计人员的独立审计判断和审计怀疑能力越来越弱,并且在日常工作中失去对审计疑点进行追索的责任感,进而成为智能技术或算法的“傀儡”。

3.审计人员面临职业替代威胁

人工智能技术具备认知能力,通过与人、自然环境的交互学习能够出色完成对数据的发现、理解、推理、决策等认知任务,这实质上挤压了审计人力资源的价值和作用,进而引发了对审计人员所应实现功能的替代。人工智能对审计人员的职业替代体现在两个方面:(1)消解审计分工模式。人工智能正在由“计算与感知”走向“认知与决策”,这意味着智能审计系统不仅可以凭借成本和效率的优势替代机械化、重复性的审计工作,甚至还可以凭借其强大的学习能力、敏捷的反应能力、精准的数据画像水平“抢占”审计人员在智慧型和经验型领域中的审计岗位。如智能专家系统可在综合分析审计客体内外部环境的基础上模仿审计专家的思维做出准确的判断。在确定重要性水平、评估审计风险、沟通关键审计事项和确定审计意见类型等专业分工中,人工智能都已呈现出取代审计人员的趋势。在潜移默化中,被赋予“智慧”的新一代智能审计系统可能模糊和淡化审计人员和智能技术工具之间的分工边界,消解传统的审计分工模式,进而使审计人员面临严峻的职业替代危机。(2)审计人员的“智能分化”。在人工智能向审计领域渗透的过程中,智能技术或算法的运用可能会造成审计人员的“智能分化”问题,即审计人员的智能认知水平、智能化应用技能等将会出现两级分化加剧的情形。部分拥有突出智能化应用能力或具有人工智能技术背景的审计人员在智能分化中处于优势地位,引领人工智能审计的发展,而还有部分经验型审计人员在智能技术面前则表现得力不从心,这些都会加重他们的职业危机感,使他们的职业情感受挫,甚至产生迷茫、焦虑、无助等情绪。

4.审计人员面对职业道德风险

在审计实践中,审计造假、审计合谋、审计舞弊等违规操作时有发生。人工智能技术的引入导致审计工作方式发生变化,智能审计模式下的职业道德危机不容忽视。一方面,智能技术工具的使用为审计人员在主观方面滥用职权提供了可操作性的空间。审计人员可能与审计客体进行合谋,无视职业底线,在明知审结客体存在舞弊行为的情况下,恶意利用智能审计系统中的技术规则漏洞和算法程序缺陷对审计结论进行操控。另一方面,智能算法所得出的结论助长审计人员的机会主义行为。智能算法并非完全准确,由于编码错误、数据污染、工具误用、人为误用等原因,智能算法所得出的结论可能与事实毫无关系,甚至背道而驰。这种情况下,尽管审计人员并未在主观方面同审计客体进行合谋舞弊,但审计人员可能会出于审计效率和审计成本控制的考虑,或者基于侥幸和懒惰的心理,进而放弃职业怀疑和职业判断,选择应付与妥协。这一情形具体表现为审计人员坚持以智能算法所得出的结论为主,在实施审计程序的过程中刻意迎合错误的算法结论,有意获取一些支持算法结论的审计证据。

(二)伦理危机:基于审计主体与审计客体之关联

审计客体,即审计对象,其是接受审计主体审计的责任承担者和履行者。审计主体是审计的第一关系人,是审计行为的执行者,审计客体是审计的第二关系人,是审计行为的接受者,二者的关联共同影响着人工智能时代下的审计伦理建设。

1.审计客体的信息安全受到威胁

人工智能背景下,审计客体的数字化、标准化、集成化等建设已是大势所趋。然而,由人工智能技术支撑的审计客体大数据的高度共享、互联、交换会对审计客体的信息安全造成严重威胁。有关威胁主要有如下表现:(1)恶意攻击。随着人工智能技术与审计客体业务的深度融合,针对人工智能系统的恶意攻击呈现出频率增加、形式多样化、针对性更强等特点。恶意攻击者可利用审计客体在信息安全管理中存在的漏洞,蓄意攻击审计客体的智能操作系统,更有甚者会借助审计客体的人工智能系统加载勒索软件,进而盗窃敏感数据。(2)数据篡改。数据操纵、数据暴露和数据篡改所带来的风险在人工智能技术规模化应用背景下正在被不断放大。相比于恶意攻击,数据篡改的危险性在于更具隐蔽性、迷惑性且不易被察觉。审计客体大量数据在智能操作系统中高速流转、互联互通,在此过程中容易被破坏、修改、增加、删除,进而导致审计客体数据信息的完整性和真实性受到破坏。(3)智能操作系统中毒。如今,病毒制造者不断追求技术突破,使得木马、蠕虫等病毒的感染率呈现爆炸式增长。审计客体的智能操作模型一旦遭受病毒入侵,则会导致智能操作系统运行混乱,输出信息的可靠性无法得到保证。此外,病毒的攻击可使智能操作系统的安全防护系统瘫痪,病毒制造者通过向智能操作系统中注入恶意数据,进而操纵智能操作模型以输出欺骗性的结论。(4)内部人员滥用与误用。审计客体中的内部人员滥用、误用智能操作系统的威胁远比外部攻击更加难以预测和控制。一方面,审计客体内部人员可能因金钱诱惑、报复、好奇心等原因进行越权访问和违规操作,从而有意、无意地泄露、更换、隐匿、遗弃关键数据。另一方面,随着人工智能技术的快速发展,部分员工可能因无法熟练驾驭高度智能化的操作系统,进而导致操作失误,如数据的误删除、意外修改、未正确配置安全设置等情形,这些都对审计客体的信息安全造成严重威胁。

在智能化审计工作场景中,审计客体的业务活动随着现实场景被接入云端,现实空间和虚拟空间的壁垒被打破,信息以多维度、更立体的方式呈现出来。审计客体处于一个万物互联的空间之中,其往来文书、业务合同、核心技术资料、制作工艺流程等机密信息都以电子数据的形式被归集在数据共享服务中心,审计客体需要设置严格的数据保护机制以防机密信息被泄露或者窃取。然而,为了享受审计服务,审计客体势必要开放机密数据调用、传输和分析等权限,且在被审计主体审计的过程中,其核心数据库不可避免地被多次访问,甚至审计人员出于后续跟踪的需要,可以利用智能监控系统或智能感知系统实时监测审计客体的业务整改情况,上述情形不可避免地增大了审计客体数据被恶意窃取的风险,其商业秘密容易受到侵犯。人工智能为数据共享提供了便利,提高了审计客体的工作效率,但也导致审计客体信息留痕的潜在隐患和数据安全的脆弱性。如何平衡审计客体涉密信息的保护和审计主体审计监督取证之间的关系是人工智能时代需要重点关注的审计伦理困境之一。

2.审计客体存在技术滥用的情形

人工智能时代,诸多审计客体都在如火如荼地进行着智能化转型,人工智能技术被广泛应用于审计客体的生产、管理、运营、招聘、考评等多个工作场景之中。然而,人工智能技术是一把双刃剑,审计客体在享受智能技术工具所带来的便利性的同时,还应警惕技术滥用等问题。审计客体技术滥用主要表现在如下方面:(1)算法权力化。在人工智能与审计客体的运营管理活动深度融合的过程中,审计客体中的管理层可能会过度高估智能操作系统的能力,盲目信赖智能操作系统所呈现的信息,从而不加辨析地遵从算法结论,并以此规划组织发展、配置组织资源。从支配力视角出发,人工智能算法通过影响审计客体的管理层进而拥有了“权力”,从而支配审计客体的决策。(2)技术侵犯隐私。从数据到知识的抽取是人工智能的重要能力。如今,知识抽取工具正变得越来越强大。审计客体可能基于维持客户、拓展业务等目的,选择滥用智能抽取技术,在客户不知情的情况下违规采集客户数据,并将无数个细微数据片段整合于一体进行关联分析,从而勾勒出客户的行为轨迹,对客户偏好和行为习惯进行画像,这样的行为无疑侵犯了客户的隐私。(3)合谋与垄断。人工智能的崛起会促使新型合谋形式的产生,如审计客体和超级数据平台、科技巨头、程序开发商的算法合谋和竞争性垄断会造成市场的结构性变异。人工智能时代的合谋垄断甚至不需要审计客体与合谋对象直接接触,而是利用算法或编码作为交流媒介进行隐蔽互动,进而迅速达成合谋目标。(4)“全景式监狱”管理模式。基于智能算法构建的组织员工招聘系统、业务监控系统、绩效考评系统可能会让审计客体的员工生活在一种被算法框定、自由受限、充满监视的环境之中。

审计客体的技术滥用对审计主体开展审计监督活动的影响主要体现在三个方面:(1)影响审计判断。审计客体可能出于隐瞒自身实际状况的目的,利用人工智能算法和技术中的缺陷做出不正确的行为或决策,以欺骗审计人员。如审计客体为隐瞒自身的舞弊行为,借助“深度伪造”技术提供误导性的、不确定的、不可预测的结论,以对审计人员进行算法欺诈,诱导审计人员作出错误的审计判断,从而导致审计人员发表不恰当的审计意见。(2)影响审计取证。从人工智能算法的固有缺陷来看,人工智能算法运行模式及其输出结果的不可控性、不可解释性、不可追溯性导致审计人员无法进行追踪调查和溯源分析,进而给审计取证工作带来一定的困难。基于人为因素考量,审计客体中的内部员工可能会恶意篡改算法规则,更改算法结论,这将导致所呈现出来的财务信息违背会计信息质量要求,影响财务会计中的真实性、可核验性、中立性等原则,进而影响审计人员的取证结论。(3)增加审计风险。一方面,在人工智能算法语境下,审计客体嵌入在自身智能操作系统中的指令偏见、操作人员的技术滥用、有目的地选择训练数据等原因都会导致审计客体智能操作系统的不公正输出,这将加大审计取证的难度,有可能误导审计人员发表有失公允的审计意见。另一方面,随着数字经济的飞速发展,经济业务日趋复杂化,人工智能系统的设计与开发存在滞后性,因此不可避免地会增加审计实践中的固有风险、控制风险和检查风险。

(三)伦理危机:基于审计主体与利益相关者之关联

利益相关者是指投资者、债权人、监管机构、社会公众等审计信息的预期使用者以及可能会受到审计活动和行为影响的个体或组织。审计主体与利益相关者的关系是审计服务供给者和审计信息需求者的关系。独立性是审计的本质特征,审计主体提供的审计报告具有鉴证、证明等作用。各类利益相关者通过审计报告可以全面了解审计客体的财务状况、经营成果和现金流量,审计报告能够为利益相关者提供精准的数据信息,有助于为他们的后续决策提供科学的依据。人工智能时代,审计主体与利益相关者之间存在着深层次的伦理冲突,具体表现如下。

1.信任危机

感知的安全性是取得信任的前因变量,利益相关者群体需要从复杂多变的经济社会中感知并寻求信赖感、安全感、稳定感。然而,人工智能技术的不确定性、不可解释性、不可控性会削弱利益相关者对审计工作的安全感,进而降低对审计鉴证的信任。人工智能时代,审计主体与利益相关者之间产生的信任危机主要表现为:(1)存在人工智能黑箱。审计人员作为智能审计系统的使用者,仅是输入数据并得到输出结果,但智能审计系统的内在运行模式对审计人员来说是不可见的,审计人员无法查阅系统的代码或产生输出结果的逻辑,人工智能系统是一个名副其实的“黑箱”。利益相关者对人工智能算法的安全感、信赖感、认同感取决于算法的透明性和可理解性。然而,人工智能黑箱对利益相关者理解智能审计的决策逻辑提出了挑战,甚至在数据输入和输出的多个分层之间,智能系统开发者也无法确定到底是哪个因素最终主导了智能审计系统所作出的特定审计决策。人工智能黑箱切断了算法结论和审计事实之间的联系,加大了利益相关者与审计人员之间的信任壁垒,利益相关者不可避免地会对智能审计工具运用的合理性以及机器决策的程序正义性存疑。(2)智能审计系统不具备规范意识和道德意识。智能审计系统并不具备人所具有的规范性认知能力,它虽然能进行机器学习、自行归纳和提炼规则,但这种“规则”仅是一种规律或一种算法,而并非法律和道德意义上的规范性规则。智能审计系统无法认识到事实特征所具有的规范性和道德性意义,因此可能作出有违规范和道德的决策。进一步而言,智能审计系统本质上只是基于编码开展运算,其行为不受编程规则之外的法律规范约束。因而,尽管智能审计系统作出了有违公理的决策,但也不具备道德层面上的可谴责性,同时,现有法律也尚未明确由于编码问题而导致错误输出的机器人责任问题,也就是说,智能审计系统给出错误的审计结论是不需要承担后果的。因此,利益相关者会对智能审计模式下推出得审计结论的可靠性、公正性和客观性存疑。

2.数字贫困

人工智能时代,一批“数字贫困者”将会产生。人工智能技术的进步非但不会使数字弱势群体享受到人工智能时代信息共享的福利,反而会加剧利益相关者之间的“数字分化”。以前拥有技术、经验、工具或者资源等方面的利益相关者,在智能时代仍然掌握着更丰富、更精细、更高质量的审计信息。然而,处于信息弱势的利益相关者由于无法理解智能审计系统决策的底层逻辑和运行方法,容易陷入被智能算法“霸凌”的困境。

算法歧视是由数据和算法分析导致的对特定群体的、系统的、可重复的、不公正的对待。在智能审计场景中,审计智能化信息推送和分发系统中暗藏的算法歧视是促成数字贫困问题的主要动因。传统审计报告所提供的信息难以兼顾全体利益相关者的需求,基于这一情况,智能审计信息推荐系统可以针对不同的需求,定制审计报告推介给不同类型的利益相关者群体。而算法歧视的存在可能会干扰不同类型利益相关者对审计报告信息真实性、完整性、中立性的把握。一方面,智能审计系统中的认知子系统可凭借学历、经验、职位等条件判断哪些审计报告预期使用者需要且能理解更全面、更专业的审计信息,并据此且通过算法设计为审计客体的债权人、大股东、监管机构推送相对精细详尽的审计报告,而为中小股民、社会公众推介的审计信息则较为简略单一。另一方面,尽管利益相关者可以自行向智能审计系统中的推送或分发子系统设定信息诉求,但是,部分利益相关者是信息劣势群体,他们并不完全解审计客体的运营状态和财务状况,其向推送或分发子系统所提出的信息需求不免缺乏针对性、靶向性、精准性,而智能推送或分发子系统可能在学习和迭代的过程中进一步加重上述信息偏差。综上,智能审计系统中的推送和分发子系统依据上述智能认知子系统,针对预期使用者的标签标记以及利益相关者提供的非精准需求进行信息推送,容易导致处于信息弱势的利益相关者形成双重劣势累积,使部分利益相关者陷入信息茧房,这实质上加大了审计信息使用者之间的信息差异,损害利益相关者的合理利益,且易于造成更为严重数字贫困伦理危机。

3.公平受益问题

审计监督应发挥维护社会公平的作用,只有坚持客观公正的职业立场,才能赢得利益相关者的信任,不断增强审计的权威性和公信力。现时代,人工智能在审计领域中的应用所引发的公平正义问题受到利益相关者的广泛关注,尤其是因算法偏见所引起的公平问题。算法偏见是指算法程序在信息生产和分发过程中失去客观中立的立场,造成片面或者与客观事实不符的信息、观念的生产与传播,其影响着利益相关者对审计信息的客观全面的认知。算法偏见缘自有偏见的训练数据以反馈循环的方式导致的偏见、算法本身的编码逻辑存在偏见、输入的数据抽样与权重设置偏见三个方面。智能审计系统中的算法偏见对利益相关者公平受益的影响具体表现为:(1)程序公正层面。从程序公正角度出发,审计过程需遵循客观、平等、透明、科学、效率、文明等标准,并应高度重视审计过程的公平和正义。然而,在对智能审计系统的操作流程中,嵌入智能审计系统指令中的偏见、权重设定偏差、人工智能黑箱等问题,都将会导致智能审计系统在协助审计人员执行审计计划、审计取证、审计问责等程序时,缺乏客观公允的立场和公开透明的作业环境,从而损害利益相关者的平等知情权和公平受益权。(2)结果公正层面。对于结果公正而言,审计工作的主旨不仅要求在审计结果上平等地保护利益相关者应得的权益,而且要求利益相关者平等地履行义务,注重对审计活动结果公平性的核查。然而,智能审计系统高度依赖于参与训练的海量数据,若由于数据缺口、数据的代表性不足、数据遭受污染等原因而引发算法偏见,则与现实情形相比,智能审计系统所得出的审计结论必将出现片面或偏私等情况,这显然不利于利益相关者的公平受益,甚至损害部分利益相关者的切身权益。

(四)伦理危机:基于审计主体、审计客体、利益相关者、智能系统开发者等多方关系人之关联

审计关系人之间的内生契约不依托法律保障,而是通过合作、交流、互惠、包容、信任等伦理价值而形成。从全局视角来看,人工智能的嵌入使得审计多方关系人之间的内生契约更具不可控性,且彼此之间的博弈日趋复杂。人工智能时代,由审计多方关系人共同关联而引发的审计伦理危机分述如下。

1.审计关系受到“管控”

随着人工智能技术的发展,各类审计关系人都会对智能化工具产生一定的依赖,智能工具成为审计多方关系人观察市场、剖析自身、了解对方、决策分析的重要手段,这将导致人工智能技术在一定程度上垄断了审计多方关系人之间的信息沟通,从而“管控”了审计关系,而“算法身份”的存在又推进了审计关系人之间的不公正对待以及审计关系的不稳定性。(1)算法控制审计多方关系人之间的信息。在精细的信息颗粒度层面,人工智能算法对主体的数据进行标注与画像,已然将其转化为无限多维的数据集,主体的个体性随之被消解为算法上可区分的特征数据。当代哲学家德勒兹将个体被信息技术消解的结果称为“分格”,并将这种基于对个体精细化信息治理的社会称为“管控社会”。这种现象在审计领域表现为人工智能算法“管控”审计关系。人工智能背景下,审计主体、审计客体、利益相关者之间主要是通过智能系统所采集、分析、推送的信息进行相互了解。如审计主体需要利用智能审计系统出具的审计客体风险评估报告以决定是否承接审计业务,这样则导致审计人员看到的往往是智能审计系统所呈现的信息,审计人员的判断是基于机器判断之后的决策。智能系统在很大程度上控制了审计关系人之间的信息,从而在某种程度上阻隔了多方关系人之间的直接沟通。(2)算法身份导致不合理待遇。在人机交互过程中,智能审计系统会对不同审计关系人赋予特定的算法身份。算法身份是基于多种数据库、算法以及决策者交互而构建的,其对审计关系人身份的界定不是依据审计关系人的实际行为,而是依据算法所识别的个体与其他审计关系人之间的关系。基于上述情形,加之数据偏差、不合理分类等原因,审计关系人的算法身份可能与其现实情况不相符。如果算法将特定审计关系人放于不合理的位置,则错误的算法身份将会促使其在算法决策中容易受到不公正、不客观的对待。(3)算法身份引发审计关系的不稳定性。人工智能时代,算法是偶然的、不稳定的,因为新数据增加等细微变化都将调整和重塑算法结果。在此意义上,算法身份“就像信息流一般,新的判断、分数、风险评估等不断被扔进其中”。算法身份的变化可能使前一秒还信誉良好的单位,下一秒便成为信用质量差的经济体,其原因可能是因为算法“敏锐”地捕捉到了一条未经验证的新数据。仅是算法身份的转变,审计客体便会失去审计主体和相关利益者的信任,进而削弱了原有的稳固关系。

2.智能化程度不均衡

近年来,不同审计关系人对于人工智能技术的掌握和应用能力存在差距,审计关系人之间出现智能鸿沟。智能化程度不均衡能够造成审计伦理价值的失衡,具体表现在:(1)智能化水平不均衡会加重审计多方关系人之间的道德风险。道德风险是指从事经济活动的人在最大限度地增进自身效用时做出的不利于他人的行动。信息阻滞是产生“道德风险”的主要原因之一,审计关系人之间的智能化水平差异将会进一步加大彼此之间的信息不对称。具有智能技术优势的一方凭借其在数据处理、智能运算、信息搜集与智能分发等方面的强大能力,加剧了对其他审计关系人的信息垄断,从而引发更为严重的道德风险和数字腐败问题。例如,与其他审计关系人相比,智能审计系统的开发者更具有天然的技术优势,一旦开发者在智能审计系统中故意植入错误算法,审计主体作为智能化技术弱势的一方则很难识别并纠正,因此开发者可以轻而易举地借助恶意程序操纵审计结论。(2)多方关系人之间智能化水平的差异会影响审计关系质量。审计关系质量由满意、信任、承诺、交流、关系独立和关系稳固六个维度构成。智能化发展程度的不平衡会导致审计契约关系中的道德风险和机会主义倾向,从而冲击审计关系中的信任、满意、承诺、关系稳固等基础因素,进而对审计关系质量产生不利影响。

由上述横向分析可知,智能化水平的非均衡发展会引起多方关系人之间的伦理问题。此外,基于纵向分析,智能化水平差异也会引发特定类型的审计关系人的内在伦理问题,例如审计人员之间的智能化技能差异、审计客体之间的组织分化、利益相关者之间的数字鸿沟以及智能系统开发者之间的技术差距等。

3.责任归因困境

人工智能时代将审计推向“责任缺口”的边缘。基于神经网络、遗传算法和代理体系结构的自动化审计系统创造了全新的审计工作模式。但在上述模式下,智能审计系统的开发者、审计主体、审计客体以及利益相关者之间的责任归因问题引发了新的伦理危机。

如果将智能作业系统的操作过程视作一个闭环,则操作人员对智能作业系统的控制一般有四种方式:其一是人在闭环内,即人定义—机器选择—人确认—机器执行;其二是人在闭环上,即人定义—机器选择—人有终止选择权—人未选择终止—机器执行;其三是人在闭环外,即人定义—机器选择—机器执行;其四是人与闭环无关,即机器定义—机器选择—机器执行。从上述分类可知,随着财务共享中心、业财数据集成平台、智能审计系统等技术工具的自动化处理能力的迅猛增强,审计主体、审计客体等审计关系人对智能系统的控制作用将会逐渐弱化。如果审计客体中的智能操作系统存在技术漏洞或者算法缺陷而使自身生成的信息存在错误,但审计主体因“算法黑箱”等原因,对“错误”信息无法做到充分取证,进而出具了不公允的审计结论,这将会误导社会公众的判断和决策,进而导致利益相关者遭受损失,则应如何确定各方的责任?是审计主体,还是审计客体,抑或是智能系统的开发者?避风港原则成为智能系统开发者抗辩的主要依据,且判定并不直接生产和编辑信息的开发者承担责任的难度很大。然而,审计主体和审计客体会认为错误的信息和结论是由于智能算法的设计缺陷所导致,二者作为工具的使用者并非在主观上故意误导利益相关者,因此自身不仅不应承担主要责任,还应作为算法欺诈的受害者向智能系统的开发者索赔。更有甚者,审计客体可能会联合智能系统开发者和审计主体,一致主张它们的工作无可指摘,且将责任推卸给利益相关者,指控的缘由是利益相关者对智能推送和分发系统所披露信息的错误读取或不当理解。显然,智能化技术与工具的介入混淆了审计多方关系人之间的“责、权、利”,使审计关系人彼此存在扯皮推诿现象,并产生了问责困境。



人工智能时代审计伦理危机的治理路径


积极的伦理观认为,智能技术革命的洪流并不会被旧伦理体系所阻挡。如今,人工智能时代已然来临,原有审计伦理认知模式和行为规范难以适应新时代审计伦理的现实需求。为此,理论界与实务界有必要采取积极的态度和有效的方法,基于多元主体协同共治理念,共同构建新时代下全新的审计伦理危机治理体系。

(一)审计伦理原则的科学构建

许多国家都制定了与人工智能伦理相关的原则和规范,如我国发布的《新一代人工智能伦理规范》,欧盟发布的《可信赖人工智能的伦理准则》,美国发布的《人工智能应用规范指南》,以及G20会议提出的《G20人工智能原则》。一系列文件将伦理融入人工智能全生命周期,积极引导负责任的人工智能研发与应用活动。然而,我国还尚未构建适用于我国审计领域特色的人工智能审计伦理原则体系,现有的审计伦理原则还已然停留在审计职业道德层面,并未深度考究如何避免偏见、歧视、隐私和信息泄露等问题。因此,我们应借鉴既有的人工智能伦理原则,强化其与传统审计伦理原则的融合,用全面、辩证、长远的眼光看待人工智能带给审计的挑战,深层次建构人工智能时代下的审计伦理原则体系,旨在推动人工智能更好地服务于审计工作。

1.以人为本原则

“人本原则”是人工智能审计伦理的“基点”和最高原则,其是指智能审计系统的开发和运用应以尊重和保护审计多方关系人的权益为前提,关注和回应审计多方关系人的利益和诉求。人工智能时代,审计伦理建设应着力提升审计关系人之间的关系质量,秉持审计活动中所蕴涵的人文价值,在智能技术方法应用中实现工具理性与价值理性的平衡,切莫使工具理性凌驾于审计的价值理性之上,进而失去了审计的人文情怀。

2.公正原则

亚里士多德称公正为“德性之首”。人工智能时代,有关审计伦理原则体系中的公正原则是指审计不以偏见行事,在审计计划、执行、控制、复核等整个周期中尽可能避免带有歧视或偏见的应用程序和结果。人工智能审计算法的研发应秉承包容性、普惠性和适应性,在公平受益的基础上,重视算法中程序的公正性和结果的公平性,促进社会的公平正义和机会均等。

3.透明原则

在将人工智能全方位嵌入审计活动的过程中,有关算法的设计与运行应该是透明的、可理解的。审计客体中智能操作系统的开发者、审计主体中智能审计系统的开发者以及其他审计关系人应致力于解决“人工智能黑箱”问题,构建可解释的人工智能算法模型①,且在保护知识产权的基础上,向有算法公开需求的审计关系人公布算法的核心规则以及参与训练的数据来源,必要时还应对智能操作系统或智能审计系统所作出的特定决策和行为提供解释和说明。

4.知情同意原则

人工智能技术对审计各方关系人的影响是潜移默化的,且不易察觉。一方面,智能审计系统在搜集特定关系人的信息或向某些关系人推送信息时,应设置必要提醒,确保相关关系人的知情权。另一方面,无论是审计主体、审计客体、利益相关者,还是智能系统的开发者,都有必要对人工智能时代下审计的风险、挑战、危机等有恰当的理解,充分了解智能技术在审计应用中的运作原理及其可能产生的深远影响。

5.自治与预警原则

自治原则是指通过审计人员自主的方式实现决策自由,智能审计系统嵌入审计活动的前提是保护审计人员的自主权与控制权。在审计决策过程中,智能审计系统仅是辅助审计人员做决策,智能审计系统所得出的结论不能替代审计人员的职业怀疑、职业判断和自主决策。此外,智能审计系统中应包含智能预警子系统,当智能审计系统出现“欺诈”“绑架”审计人员的迹象时,智能预警子系统能够自动报警,提醒审计人员警惕人工智能技术或算法的恶意操纵。

6.目标实现原则

目标实现原则是指将人工智能运用于审计活动的宗旨是为了实现审计目标,促进监督、评价、鉴证等职能作用的充分发挥,以为经济社会的稳定保驾护航。人工智能在审计领域中的嵌入与应用是以实现审计目标为导向,力求促进人机合一,打造便捷、安全、和谐的审计环境,推动审计价值的有效实现和审计的繁荣发展。

(二)政策与制度层面的伦理治理

人工智能应坚持“智能向善”,增进人类文明的福祉。政策与制度是推动人工智能审计实现上述目标的基石,它们旨在更好地协调人工智能审计发展与审计伦理建设的关系,确保人工智能审计走上安全、可控、可靠的发展轨道。为规避“柯林格里奇悖论”,相关部门和组织应在政策与制度制定的过程中,尽可能消除不确定性和模糊性,增强延展性、可操作性和兼容性,以强化对人工智能时代下审计伦理风险的管控。

1.有效制定有关智能审计系统的监管政策

智能审计系统是人工智能时代审计主体开展审计工作的核心资源,对其应实施特殊监管,且制定有效的监管政策,以确保其在审计实践应用中安全可靠。在有关智能审计系统的监管政策制定中,应关注两个方面的问题。其一是确立有关智能审计系统的准入制度。准入制度一般包括技术准入制度和使用者资格准入制度。任何一款智能工具在投入使用前,都必须对其安全性、可靠性、经济性开展论证,以及对使用该款智能工具的审计组织的资格和条件进行研判。为此,审计组织可以设置专门的监督委员会,制定相应的准入制度,明晰有关审计智能系统的技术准入条件和使用者资格准入条件,以保障智能审计系统运行的可靠性以及审计人员能够熟练应用智能审计系统。其二是制定有关智能审计系统开发的信息披露政策。在信息披露政策条款中,应要求智能审计系统开发者对智能审计系统的数据安全策略、算法运算逻辑、系统运行缺陷等向系统使用者进行充分的披露,且应明确告知智能审计系统所蕴藏的潜在风险。此外,还应在条款中明确有关智能审计系统开发者的退出机制、纠纷解决机制以及补偿机制,进而充分维护智能审计系统使用者的合法权益。

2.建立健全有关人工智能审计的问责制度

在运用人工智能技术开展审计的过程中,审计多方关系人责任混淆,责任认定面临困境。为此,政府部门应制定完备的法律法规,完善智能时代下有关审计各方关系的问责制度,以明确审计主体、审计客体、利益相关者、智能审计系统开发者之间“权、责、利”的划分以及责任归属问题。问责制度的制定需要高度关注智能化审计场景与责任归属二者的关联机制,人工智能审计失败事件的性质差异以及审计关系人与智能系统在决策中的“自主度”差异等都会导致不同责任画像的出现。因此,问责制度应基于人工智能审计事件的性质、影响程度以及审计关系人在事件中扮演的角色等因素进行恰当的设计,引导审计关系人明晰自身在人工智能审计中所扮演的角色和承担的责任。一旦出现隐私泄露、算法欺诈、算法歧视等不良事件,通过健全的问责制度则可快速厘清审计关系人之间的责任,进而有效开展追责和问责,促进审计关系人之间的责任治理。

3.科学制定有关人工智能审计的发展政策

人工智能审计的发展政策包括产业发展政策和与之相匹配的社会政策。(1)人工智能审计的产业发展政策制定。一方面,政府应对人工智能审计发展作出科学完整的战略部署,并通过产业发展政策的制定来维护人工智能审计机器产业发展秩序,推动审计多方关系人之间的智能化水平均衡发展,解决“智能化鸿沟”,推进审计行业的智能化转型。另一方面,面对人工智能技术发展中滋生出的黑色产业链,政府在制定人工智能审计产业发展政策中需要设置专门的条款予以限制和制止,力求通过政策规定来遏制人工智能技术的“过度”使用,防止人工智能技术在审计领域中的野蛮发展。(2)与人工智能审计发展相匹配的社会政策。人工智能审计技术的发展将导致审计分工模式、就业结构等发生深刻变革。因此,政府应制定与人工智能审计发展相匹配的社会政策,注重以人为本的伦理原则,力求为审计多方关系人,特别是审计从业人员提供能够胜任智能化操作的学习机会和培训渠道,有效应对审计智能化变革可能带来的审计人员职业替代、职业地位下降、结构性失业等伦理问题。

(三)数据与技术层面的伦理治理

从内在主义视角来看,人工智能时代审计伦理危机的治理应该从源头抓起,即从数据、算法、技术层面入手,重点考察如何在数据、算法和技术的设计中嵌入伦理元素,以及如何利用技术手段解决人工智能带给审计领域的伦理问题。

1.强化对审计大数据的治理

数据是人工智能的基本要素之一,数据治理是人工智能时代审计伦理治理的必经之路。强化对审计大数据的治理,需要从如下方面着手:(1)数据质量。审计大数据的质量问题是阻碍智能审计系统精准输出的首要问题。数据质量包括数据的及时性、标准化、完整性、可靠性等维度。各类审计组织需要从数据的生命周期视角出发,加强对数据质量的识别、度量、监控和预警,并以此改进对数据质量的管理。此外,审计行业协会有必要制定有关审计大数据采集的权威性标准,或同各类审计组织一道,协同搭建基于整个行业层面的一体化数据采集平台,以保障数据质量,防止数据污染。(2)数据共享。人工智能时代,审计大数据的共享需要遵循开放、安全、公平、科学等原则。为防止数据泄露和滥用,各类审计组织需要加强数据保护,具体措施包括完善数据分级分类、访问控制、身份验证、数据加密、网络安全监控、强化API安全性、持续漏洞管理、员工教育和安全意识培训等方面。(3)数据隐私。数据隐私是指个人或组织对其所拥有或控制的数据保持私密性和保密性的权利。数据隐私问题主要表现为信息泄露、数据滥用、数据篡改、数据泄露等。针对上述问题,各类审计组织应制定完备的数据隐私保护制度,加强数据安全保护,加强隐私保护问题的宣传教育,以及明确数据的使用规范,如数据应用权限、数据使用时间、数据使用方式等内容。

2.强化对人工智能算法的治理

强化对人工智能算法的治理,需要从如下方面着手:(1)算法开发。开发机构在设计和开发智能审计系统的过程中,应严格遵守国家规定的各类技术标准,保持严谨求实的态度,确保在每一细节上的设计精准无误,并对算法开发的全流程实施监督和控制。此外,开发机构有必要建立多元异质的研发小组,小组成员应以算法工程师为主体,同时还需纳入审计实务人员、审计理论学者、伦理学专家等多方专业人士,以加强算法开发的科学性、严谨性、适应性、可读性。(2)算法核验。人工智能审计算法核验是指对人工智能审计算法的合法性、准确性、效率性、可靠性开展核查与验证。算法核验的基本流程包括确定核验目标,制定核验计划、编写核验用例、执行核验、评估核验结果以及评估核验报告。为确保人工智能算法的可操作性和伦理合理性,审计关系人,特别是智能审计系统的开发者需要从功能测试、性能测试、可靠性测试等多个角度出发,利用场景法、因果图法、边界值分析、静态测试、动态测试等方法,对人工智能审计算法开展全方位、多层次、细节性的审查与核验。(3)算法伦理嵌入。在人工智能审计算法开发过程中,审计伦理必须优先于技术逻辑和业务逻辑。智能审计系统开发者需要将权利、义务、平等、正义、道德等伦理元素全方位嵌入有关智能审计系统的规划、分析、设计、实施、运行、维护等各阶段之中,且应从源头上对人工智能算法在审计应用中可能出现的伦理问题开展“先验性”治理,力求消除算法偏见、算法垄断、算法黑箱、算法遮蔽、算法短视、算法剥削等可能出现的算法问题,以通过伦理建设强化算法责任。

3.强化对人工智能技术的治理

强化对人工智能技术的治理,需要从如下方面着手:(1)多元主体协同治理人工智能审计技术风险。人工智能审计技术风险的治理需要审计多方关系人协同于一体,凝聚各方合力,共同会商,共同研判,集合多方知识和经验,合力探索技术风险的管控路径。完善的技术风险协同治理体系至少应涵盖审计多方关系人共同搭建技术风险信息平台、共同构建技术风险评估模型、共同建立技术风险治理案例库、共同分享技术风险管理经验等内容。(2)将部分人工智能技术的功能性应用纳入至人工智能审计伦理治理体系之中。人工智能技术的发展反过来可以解决一些由人工智能产品衍生出来的伦理问题,如“反事实公平”“算法审核”“智能偏见探测”等人工智能技术可用来评估其他人工智能技术的安全性以及人工智能算法偏见等,“差分隐私保护”技术可以解决信息安全技术缺陷所导致的隐私泄露问题,“区块链技术”有助于保障审计信息的真实性和可靠性。审计组织需要关注人工智能技术的最新发展,实时跟踪人工智能技术风险的发展态势以及实务界对其开展的技术治理,力求以契合的新兴技术管控既有的技术风险。

(四)组织与个人层面的伦理建设

组织与个人是伦理建设的主体。组织层面的伦理建设主要是通过一系列规章制度和行为准则的建设,促进组织成员之间的良好协作关系和信任,以增强组织成员个体的集体责任感。个人层面的伦理建设则是通过审计人员长期的学习、实践、体验和思考,进而形成优秀的职业道德素养和人格品质。人工智能时代,审计伦理治理需要高度关注基于个人和组织层面的伦理建设,且二者相辅相成,相融共生。

1.明确审计人员的主体地位

将人工智能应用于审计实践,尽管促使审计人员摆脱了繁杂琐碎的重复性劳动,且使得审计人员“智慧增强”,但却不知不觉地削弱了审计人员的主体地位。人工智能时代,审计组织应强化审计人员的主体地位,审计人员应明晰自身的主体地位。当面对人工智能所带来机挑战时,审计人员应保持应有的职业谨慎,合理使用职业判断,充分发挥自身的主体作用。明确审计人员的主体地位,需要从如下方面着手:(1)审计人员应强化自身的主体性和独立性。审计人员在运用智能审计系统开展审计工作时,必须保持自主思考能力和独立判断能力,所作出的审计决策不能被人工智能系统所挟持,人工智能系统仅是辅助审计人员进行决策。智能审计系统仅是基于现有知识库进行机器学习,其技术发展和知识更新具有滞后性。为此,审计人员应审慎采用智能审计系统产出的信息数据,不能盲目信赖智能机器的运算结论,而需要充分发挥自身的职业判断和职业怀疑能力。(2)加强对审计人员的专业胜任能力培训。提高专业胜任能力是审计人员在人工智能职业替代威胁中保持职业优势的必要路径。当前,人工智能的发展正处于快速成长阶段,审计人员需要加快人工智能审计知识的更新,除了需要学习如何操作和使用智能审计系统之外,还需要了解智能审计系统底层的技术逻辑和运行规则,加强算法科学、数据治理、信息安全、商业智能、机器人科学等领域的专业能力建设,积极应对算法失当、数据篡改等各类技术挑战。(3)审计组织应加强伦理文化建设。针对人工智能时代的审计伦理危机,审计组织应积极推进自身的伦理文化建设,且以伦理文化为底蕴,推进审计人员德行和修养的兼备并存,通过培养伦理型管理者、制定组织道德守则、培养组织伦理文化、完善审计人员道德行为评价与奖惩挂钩的考评体系、在审计质量控制中细化伦理行为标准等一系列方式,培植审计人员以“责任、忠诚、清廉、依法、独立、奉献”为核心的价值观,引导审计人员树立正确的工作理念和工作作风,正确地认识个人利益、组织利益与社会公众利益之间的关系。

2.加强对审计多方关系人的伦理教育

教育是培养人们拥有正向的伦理价值观和伦理行为能力的主渠道,加强对审计多方关系人的伦理教育是治理人工智能时代审计伦理危机的主要途径之一。加强对审计多方关系人的伦理教育,需要从如下方面着手:(1)遵循REST四要素模型。审计伦理教育应根据REST四要素模型,致力于从人工智能时代下审计伦理问题识别、审计伦理判断、审计伦理意图、审计伦理行为等方面对审计多方关系人施以正确的教育和引导,推动审计多方关系人自觉践行伦理规范与道德准则,从根源上规避审计伦理风险的产生。(2)智能审计系统的开发者和使用者优先原则。在对审计多方关系人的伦理教育中,应将人工智能审计系统的开发者和使用者放于优先的位置。从开发者维度来看,需要加强智能审计系统开发者的责任伦理教育,强化其技术研发的风险意识和责任意识,提升开发者的社会责任感,进而主动研发“负责任”的人工智能。从使用者维度来看,需要强化对审计人员的职业教育,促使审计人员能够“以道驭术”,坚守自身的职业道德,保持应有的职业怀疑和职业谨慎。(3)加强审计多方关系人之间的互动和研讨。审计各方关系人在人工智能审计伦理认知方面存在异质性,该异质性有助于为审计关系人团队提供多样化的知识资源。为此,在对审计多方关系人进行伦理教育的过程中,有必要将审计多方关系人集合在一起,针对具体的伦理问题或诉求,开展深层次地互动、交流与研讨,探索所应遵循的伦理理念,凝练有价值的做法,寻找问题的破解之道,以推动工具理性和价值理性的有机统一,进而促进审计各方关系人之间的和谐共生。

相关热词搜索:

上一篇:“以人民为中心”:新时代中国资本市场全面注册制的发展向度与关键举措
下一篇:行政负担视角下数智化驱动社会救助对象精准识别研究

期刊简介

主办单位:兰州市社会科学院
刊期:月刊
主编:曾月梅
副主编:王望
编辑部地址:兰州市金昌北路75号
通讯(投稿)地址:兰州市中央广场邮局《兰州学刊》信箱
电话:8801976
邮编:730030
Email信箱:LZXK@chinajournal.net.cn
Email信箱:LZXK@vip.163.com

最新公告
×
近期有作者来电反映, 有人借我刊名义从事征稿活动并非法收取审稿及版面费用, 扰乱了杂志社正常的工作秩序, 影响了《兰州学刊》杂志社的声誉。《兰州学刊》杂志社在此郑重声明:本刊从未与任何公司或个人签订组稿合作协议,凡以冒用我刊名义征稿的中介机构均未获得我刊的任何许可,其工作人员均非我刊的工作人员,与之相关的经济与法律关系...

查看详细》