
在当今数字化浪潮中,人工智能技术正以前所未有的速度改变着全球各行业的格局。然而,随着其广泛应用,数据隐私、算法偏见、伦理性等诸多问题也日益凸显。可信人工智能治理作为应对这些挑战的关键路径,正受到越来越多的关注。本文将深入探讨可信人工智能行业治理的现状、挑战与未来发展方向,旨在为行业从业者、政策制定者以及关注人工智能发展的读者提供有价值的行业洞察。
关键词:可信人工智能、行业治理、数据隐私、算法偏见、伦理性、技术规划、风险评估、标准化框架
一、可信人工智能治理的现状与挑战
可信人工智能治理是确保人工智能技术安全、可靠和可持续发展的关键。当前,全球人工智能治理格局呈现多元化发展态势。欧盟通过《人工智能法案》确立了基于风险等级的监管框架,美国则采取灵活监管与行业自律并行的模式,中国则秉持发展与安全并重的原则,逐步构建起涵盖发展规划、伦理规范和安全管理的综合治理体系。然而,尽管各国和地区在人工智能治理方面做出了积极努力,但仍面临诸多挑战。
从行业实践来看,互联网、医疗健康、智能制造和金融等行业均结合自身特点,针对数据隐私、算法安全等问题采取了相应的风险应对策略。然而,整体而言,大多数企业仍处于人工智能应用的技术规划阶段,成熟度较低。在技术使用模式上,多数企业自研能力不足,主要依赖外部产品。在人工智能投入方面,企业呈现两极分化,大多数投入不足100万元人民币,少数超过2000万元人民币。多数企业认为业务改进效果“一般”,显示出投入与产出效果的优化空间。此外,企业在人工智能应用过程中面临的主要挑战包括技术和业务流程融合问题、数据安全问题以及算法合规性问题。虽然伦理性问题目前关注度较低,但其重要性将日益凸显,企业需重视公平性、透明性、可解释性和安全性,以确保技术的可持续发展。
以互联网行业为例,其人工智能应用呈现出三层划分和模型服务化的趋势,但也面临着数据隐私和安全风险、算法偏见和歧视、网络安全挑战、知识产权侵权风险、人工智能输出的不准确性以及法律和监管挑战等诸多问题。为应对这些风险,互联网行业采取了体系化的人工智能风险治理方案,重点关注数据隐私与合规风险治理、数据最小化与匿名化处理、加密技术与访问控制、用户赋权与同意机制、强化人工智能的伦理与偏见消除以及引入“可控沙盒”机制等措施。
在医疗健康行业,人工智能技术被较早应用在制药领域、疗效建模和基于数据的疾病预防领域中,但也面临着数据一致性问题、算法透明性与数据溯源性、医药数据可追溯性与一致性、数据封闭性与多样性、数据泄露与滥用以及人工智能结果可信度等挑战。为应对这些挑战,医疗健康行业通过审批流程和合同约束来控制供应链、建立人工智能垂类局限与长期确认方案、事件响应机制以及人工智能安全人才培养等措施来提升人工智能技术的可信度与合理应用。
智能制造行业在应用人工智能技术时,也面临着智能化基础差异导致使用场景受限、实时性可靠性准确性要求无法满足、成本困境以及原有人员对于新工具技术的抵触等挑战。为应对这些挑战,智能制造行业通过提高模型通用性和可归责性、提升场景洞察准确度、制定详尽的管理指南、优化算法降低成本以及增加培训提升新技术和技术的接受等措施来推动人工智能技术的合理应用。
金融行业作为人工智能技术应用较为广泛的领域之一,也面临着数据安全和隐私保护、模型的不透明性和偏见性、模型欺诈等风险。为应对这些风险,金融行业建立了风险治理组织架构、制定了风险治理政策、实施了风险监测和预警、加强了风险响应和处置、推动了人工智能技术创新、建立了灵活人工智能基底框架以及完善了人工智能人才培养体系等措施,以确保金融行业的稳健发展。
二、可信人工智能治理的行业实践与经验借鉴
各行业在可信人工智能治理方面的实践表明,企业需要结合自身特点,动态平衡创新与风险控制,强化数据治理、提升算法透明性与伦理性、优化应用场景设计、加强应用有效性宣导、提升应用技能培训、推动应用团队与技术团队的认知和能力建设,同时通过跨部门协作、全员培训和体系化风险治理推动人工智能技术的安全高效应用和可持续发展。
在行业实践中,电信/通信行业对人工智能风险评估的重视度最高,接近50%的企业已经制定了全面或有限的相关政策。互联网行业则通过“可控沙盒”机制,在安全风险可控的前提下,允许创新产品技术服务或商业模式在真实市场环境中进行深度测试。医疗健康行业通过审批流程和合同约束来控制供应链,确保数据来源的合法性和安全性。智能制造行业则通过提高模型通用性和可归责性,提升场景洞察准确度,优化算法降低成本,增加培训提升新技术和技术的接受等措施来推动人工智能技术的合理应用。金融行业则建立了完善的风险治理体系,包括风险治理组织架构、风险治理政策、风险监测和预警、风险响应和处置等措施,以应对人工智能技术带来的风险挑战。
各行业在可信人工智能治理方面也积累了一些经验教训。例如,企业在制定人工智能内部政策时,应参考相关的法规和标准,如《中国人工智能相关法规与标准》、ISO/IEC42001-2023人工智能管理体系以及ISACADTEF数字信任生态系统框架等,以确保政策的科学性和有效性。同时,企业在人工智能技术应用过程中,应重视跨部门协作,包括IT、安全、法律和业务部门的联合参与,通过分层次的可信人工智能培训提升员工的治理意识和技能水平,确保治理工作贯穿人工智能系统的全生命周期。
三、可信人工智能治理的未来发展方向与建议
未来,可信人工智能治理需要在技术、数据、伦理、政策等方面进行全方位协作,以应对人工智能技术快速发展带来的挑战。首先,企业需要明确可信人工智能治理的责任主体,强化跨部门协作机制,确保治理工作贯穿人工智能系统的全生命周期。其次,企业应制定可信人工智能内部政策与指导原则,推动国际标准与国内法规的融合,制定适配行业特性的统一治理框架,提升政策的可落地性。此外,企业还需推动技术与伦理的平衡发展,引入闭环风险评估和改进机制,涵盖模型性能、数据管理、伦理性及长期战略融合,并通过定期更新确保评估的动态适配性。
在行业层面,各行业应建立标准化的行业性治理框架,推动人工智能治理行业标准化,制定行业特定的DTEF实施指南,同时建立跨行业的人工智能治理联盟,共享经验和实践案例。加强数据管理与隐私保护,开发行业级数据共享平台,促进数据汇聚融合,同时通过隐私增强技术降低数据隐私保护风险。制定数据全生命周期管理规范,包括数据采集、存储、使用、销毁的具体要求。推动伦理性审核与治理,建立统一的伦理性审核机制,在人工智能系统开发阶段引入伦理性评估流程,明确算法的公平性要求。同时建立行业性的人工智能伦理委员会,对伦理争议进行独立审查。强化模型算法与系统安全防护,开发可解释人工智能工具,帮助企业更好理解模型决策过程,降低“黑箱”风险;同时,加强人工智能系统的网络安全防护能力,防止模型窃取、对抗样本攻击等新型威胁。建立行业性人工智能治理评估与认证机制,开发可信人工智能治理成熟度模型,帮助企业进行自我评估。
在框架应用方面,DTEF等框架在未来的发展中应注重扩展行业适配性,开发针对不同行业的细化指南和标准模板,使框架在行业落地时更加便捷和高效。加强框架的动态适应能力,引入动态风险评估模块,通过持续监控人工智能技术的演化趋势,实时更新治理框架适配内容。推动全球化与本地化结合,开发跨区域的协同治理机制,同时结合本地法规,形成具有国际适应性和本地合规性的治理体系。增强人工智能治理自动化能力,开发人工智能辅助治理工具,用于自动检测模型偏见、隐私风险和系统安全漏洞,并生成改进建议。
相关FAQs:
可信人工智能治理与传统人工智能治理有何不同?
可信人工智能治理更注重人工智能系统的公平性、透明性、稳健性/安全性、隐私保护、责任可追溯性以及人类可控性等关键特征。它不仅关注技术的性能和效益,还强调在技术应用过程中对伦理原则的遵循和潜在风险的有效降低。传统人工智能治理可能更多关注技术的开发和应用效果,而可信人工智能治理则在此基础上增加了对伦理和社会影响的考量。
企业如何平衡人工智能技术创新与可信治理之间的关系?
企业可以通过明确可信人工智能治理的责任主体,强化跨部门协作机制,确保治理工作贯穿人工智能系统的全生命周期。同时,企业应制定可信人工智能内部政策与指导原则,推动技术与伦理的平衡发展,引入闭环风险评估和改进机制,涵盖模型性能、数据管理、伦理性及长期战略融合,并通过定期更新确保评估的动态适配性。此外,企业还需加强员工培训,提升治理意识和技能水平,促进技术创新与可信治理的协同发展。