
2026年1月29日,PeopleCert正式发布了ITIL 第5版。作为ITIL官方中国区产品大使,我将会推出系列文章帮大家解读ITIL 第5版到底有哪些重大的更新。
ITIL 第5版正式发布,这是继2019年ITIL 4之后又一次重要的框架演进。作为全球最广泛采用的IT管理框架,ITIL目前服务于超过300万持证专业人士,被82%的财富世界500强企业所采用。
从框架内容看,ITIL 第5版包含九个核心模块和一个AI扩展,形成了完整的认证体系。新版本引入了全新的产品与服务生命周期模型(涵盖发现、设计、获取、构建、转换、运营、交付、支持八个活动),强化了价值系统的核心地位(包括指导原则、治理、价值链、实践、持续改进五大组件),并将AI治理从边缘议题提升到核心框架。
但在所有这些变化中,最具前瞻性的升级是:ITIL 第5版明确把AI治理纳入四个维度的核心讨论,并将在第二季度推出专门的AI治理深度认证课程。今天我想跟你深入聊聊,为什么ITIL 第5版认为AI治理不是技术问题,而是管理边界和责任归属的问题。
一个让人警醒的AI应用失控案例
我接触过一家金融科技公司,他们引入了一个基于机器学习的智能客服系统,用于处理客户咨询和投诉。系统上线初期效果不错,能够自动回答80%的常见问题,大幅降低了人工客服的工作量。
但三个月后,问题开始浮现。有客户投诉说,系统给出的理财建议明显不合理,导致他们做出了错误的投资决策。调查后发现,AI系统在训练时使用了过去几年牛市的数据,形成了“高风险高收益”的推荐倾向,但这种倾向在市场环境变化后就不再适用。
更严重的是,当监管部门要求说明某个具体建议的依据时,团队发现他们无法解释AI是如何得出这个结论的。系统使用的是深度学习模型,决策过程像一个黑箱,连开发团队自己也说不清楚具体逻辑。
最后,公司不得不暂停这个系统,重新评估AI应用的风险和边界。这个事件给管理层敲响了警钟:AI不是引入了就万事大吉,它需要系统性的治理框架。
这个案例揭示了几个关键问题:AI的训练数据可能存在偏见或过时;AI的决策过程可能缺乏可解释性;AI的应用边界可能模糊不清;AI出错时的责任归属可能不明确。这些都不是纯技术问题,而是治理问题。
ITIL 第5版正是认识到了这一点,所以把AI治理作为框架的核心组件。
AI治理的核心不是限制,而是明确边界
很多人一听到“AI治理”,第一反应是“又要增加审批流程了”。但ITIL 第5版对AI治理的理解完全不是这样。它强调的不是限制AI的使用,而是明确AI应用的边界和责任。
什么意思?就是说,AI治理要回答三个核心问题:
第一个问题是:AI可以做什么决策?
哪些决策可以由AI自主完成,哪些决策需要人工参与,哪些决策必须由人最终决定?
举个例子,在事件管理中,AI可以自主完成事件分类和优先级初判,因为这是基于规则和历史数据的标准化工作。AI可以辅助诊断问题,提供可能的原因和解决方案,但最终的诊断结论和解决方案选择应该由人工确认。AI不应该自主决定重启生产系统或修改配置,因为这些操作有较高风险,需要人工评估和授权。
这个边界划分不是一成不变的,而是根据风险级别、业务影响、监管要求动态调整的。对于低风险、标准化的场景,可以给AI更大的自主权;对于高风险、复杂的场景,人必须保持决策权。
第二个问题是:AI的决策依据是什么?
训练数据来自哪里,是否存在偏见或缺陷?决策逻辑是否可解释?如何验证AI决策的合理性?
ITIL 第5版明确指出,数据质量是AI治理的基础。如果你的配置数据不准确、不完整、不及时,AI就无法准确预测故障。如果你的事件记录不规范、不一致、不可追溯,AI就无法从历史数据中学习正确的模式。如果你的知识库碎片化、重复、过时,AI就无法提供准确的建议。
更进一步,ITIL 第5版强调了可解释性的重要性。对于关键决策,必须能够追溯AI是基于什么数据、用了什么模型、得出了什么结论。这不仅是技术要求,更是监管和责任归属的需要。当AI做出错误决策时,你需要能够分析原因、改进模型、防止重复。
第三个问题是:AI出错时谁负责?
是开发AI模型的团队,是应用AI工具的团队,还是监督AI运行的管理者?
这个问题看似简单,实则复杂。如果AI是基于历史数据训练的,而历史数据本身存在偏见,AI继承了这个偏见并做出错误决策,责任在谁?如果AI在正常运行时突然出现异常输出(比如模型漂移、数据污染),而监控机制没有及时发现,责任在谁?如果人工操作员过度依赖AI建议,没有进行必要的人工判断,导致错误决策,责任在谁?
ITIL 第5版建议,组织应该明确建立AI决策的责任框架。一般来说,AI模型的质量责任在开发和维护团队,AI应用的合规性责任在业务团队,AI运行的监督责任在管理层。但具体的责任划分需要根据组织的治理模式和风险偏好来确定。
人与AI的能力边界:各自擅长什么
ITIL 第5版在讨论AI时,特别强调了人与AI的能力互补,而不是替代关系。它明确指出,AI不是要替代人,而是要增强人的能力。
那么,人擅长什么?AI擅长什么?
人擅长的能力包括:
- 复杂判断:面对模糊的、矛盾的、缺乏先例的情况,人能够综合多方面因素、权衡利弊、做出判断。
- 创造性思维:人能够跳出既有框架,产生新的想法、设计新的方案、尝试新的方法。
- 情感理解:人能够理解他人的情绪、感受、需求,建立信任关系,进行同理心沟通。
- 伦理决策:人能够基于价值观、道德准则、社会责任做出选择,而不只是基于效率或收益。
- 环境感知:人能够快速理解新环境的特点、识别关键变量、调整应对策略。
- 长期规划:人能够设定愿景、制定战略、平衡短期和长期目标。
AI擅长的能力包括:
- 大规模数据处理:AI能够快速处理海量数据,识别人类难以发现的模式和关联。
- 模式识别:AI能够从历史数据中学习规律,识别异常、预测趋势。
- 重复性任务:AI能够不知疲倦地执行标准化流程,保证一致性和准确性。
- 实时响应:AI能够7×24小时监控系统状态,毫秒级响应异常情况。
- 多维优化:AI能够在多个约束条件下寻找最优解,处理复杂的优化问题。
- 知识检索:AI能够快速从大量文档中检索相关信息,辅助决策。
ITIL 第5版建议,有效的人机协作应该基于各自的优势分工。AI承担数据处理、模式识别、实时监控、标准化执行这些它擅长的任务;人承担复杂判断、创造性解决、情感沟通、伦理决策这些AI不擅长的任务。
举个具体例子。在问题管理中,AI可以分析大量事件记录,识别重复出现的问题模式,推荐可能的根因。但根因的最终确认、解决方案的设计、变更风险的评估,应该由人来完成。AI提供的是数据支持和候选方案,人做的是判断和决策。
再比如,在变更管理中,AI可以基于历史数据预测变更的风险级别,推荐适合的变更窗口。但变更是否批准、如何执行、出现问题如何应对,应该由人来决定。AI降低的是决策的不确定性,但不能替代决策本身。
ITIL人工智能能力模型:从CreationITIL 第5版引入了一个非常实用的工具:ITIL人工智能能力模型。这个模型把AI能力分为六个类别,简称6C:
- Creation:创造能力,AI可以生成内容,比如自动生成事件摘要、变更文档、发布说明、知识库文章。
- Curation:筛选能力,AI可以整理和优化信息,比如对知识库进行去重、分类、关联、推荐。
- Conversation:对话能力,AI可以进行自然语言交互,比如智能客服、虚拟助手、自动问答。
- Computation:计算能力,AI可以进行复杂计算和分析,比如容量规划、性能优化、根因分析。
- Comprehension:理解能力,AI可以理解语义和意图,比如从用户描述中提取关键信息、自动分类请求。
- Coordination:协调能力,AI可以协调多个系统和流程,比如自动分派任务、触发工作流、编排响应。
这个模型的价值不在于炫技,而在于帮你系统性地规划AI应用。你可以根据自己的核心价值流,识别哪些环节可以通过AI能力提升效率或质量。
比如,如果你的痛点是知识库混乱、查找困难,Curation能力可以帮你自动整理知识库。如果你的痛点是事件记录质量差、分类不准确,Comprehension能力可以帮你自动提取关键信息、智能分类。如果你的痛点是跨团队协作效率低、信息传递慢,Coordination能力可以帮你自动分派任务、触发通知、更新状态。
ITIL 第5版建议,组织应该先识别核心痛点,再选择合适的AI能力,而不是盲目引入所有AI工具。每一类AI能力都需要相应的数据基础、技术能力、治理机制。与其全面铺开但都做不好,不如聚焦关键场景做深做透。
AI治理的四个核心要素
基于以上分析,ITIL 第5版提出了AI治理的四个核心要素:
第一个要素是数据治理。
这包括数据质量标准(准确性、完整性、及时性、一致性)、数据来源管理(确保数据可追溯、可验证)、数据偏见识别(检测训练数据中的系统性偏差)、数据隐私保护(确保符合GDPR等法规要求)。
ITIL 第5版明确指出,在AI时代,数据质量不再是“最好有”的加分项,而是“必须有”的基础能力。没有高质量的数据,AI就是垃圾进、垃圾出。组织需要建立系统性的数据质量管理机制,包括数据质量监控、数据清洗流程、数据质量问责。
第二个要素是模型治理。
这包括模型开发规范(确保开发过程可审计)、模型验证机制(在部署前充分测试)、模型监控机制(持续监控模型表现,及时发现模型漂移)、模型更新流程(如何安全地更新模型)。
ITIL 第5版建议,组织应该建立AI模型生命周期管理机制。不能把AI模型当成一次性开发的产品,而要当成需要持续维护和改进的资产。模型性能会随着时间和环境变化而下降(模型漂移),需要定期评估和重新训练。
第三个要素是决策治理。
这包括决策边界定义(AI可以自主决策什么、需要人工参与什么)、决策可解释性要求(关键决策必须能够追溯和解释)、决策审计机制(定期审计AI决策的质量和合规性)、人工干预机制(如何在必要时人工介入或覆盖AI决策)。
ITIL 第5版明确指出,AI决策的透明度和可解释性不只是技术要求,更是信任和责任的基础。如果你无法解释AI为什么做出某个决策,你就无法建立用户信任,也无法在出错时追溯原因、改进系统。
第四个要素是伦理治理。
这包括公平性原则(确保AI不会歧视特定群体)、透明性原则(向用户披露AI的使用)、责任性原则(明确AI决策的责任归属)、隐私保护原则(确保AI使用不侵犯隐私)。
ITIL 第5版建议,组织应该建立AI伦理委员会或类似机制,定期审查AI应用的伦理风险。特别是在涉及人事决策(比如招聘、晋升、解雇)、客户服务(比如信贷审批、理赔处理)、安全事件(比如异常行为识别)等敏感场景时,必须确保AI的应用符合伦理标准。
从治理到实践:如何开始你的AI治理之旅
说了这么多理念,你可能会问:我该从哪里开始?
ITIL 第5版建议,AI治理应该采用渐进式方法,而不是试图一步到位建立完整的治理框架。
第一步是识别当前的AI应用。
盘点组织内部已经在使用或计划使用的AI工具和系统,包括商业产品(比如ITSM平台的AI功能、监控工具的智能分析)和自研系统(比如自动化脚本、机器学习模型)。很多时候,组织已经在使用AI但缺乏统一的治理。
第二步是评估风险和影响。
针对每个AI应用,评估它的决策范围、业务影响、风险级别。对于高风险、高影响的AI应用,应该优先建立治理机制。对于低风险、低影响的AI应用,可以采用简化的治理方式。
第三步是明确治理要求。
根据风险级别,制定相应的治理要求。比如,高风险AI应用需要完整的数据质量验证、模型验证、决策审计;中等风险AI应用需要基本的监控和人工审查;低风险AI应用可以采用事后审计。
第四步是建立监控机制。
不要等到出问题才发现AI治理的缺失,而要主动建立监控机制。包括数据质量监控(及时发现数据异常)、模型性能监控(及时发现模型漂移)、决策质量监控(及时发现错误决策)。
第五步是持续改进。
AI治理不是一次性项目,而是持续的过程。随着AI应用的深入、技术的演进、监管的变化,治理机制需要不断调整和完善。
ITIL 第5版特别提醒,AI治理不应该成为创新的障碍,而应该是创新的保障。合理的治理机制能够降低风险、建立信任、促进负责任的AI应用。过度的治理会限制创新,缺乏治理会导致失控。关键是找到平衡点。
ITIL 第5版把AI治理提升到核心框架的位置,传递的核心信息是——AI已经从可选工具变成了数字产品与服务管理的核心组件,如果你的管理体系里没有AI治理,你的管理就是残缺的。但AI治理的重点不在于限制AI的使用,而在于明确人与AI的能力边界、建立清晰的决策责任框架、确保数据质量和模型可靠性、遵守伦理和合规要求。只有建立了系统性的AI治理机制,组织才能既享受AI带来的效率提升,又避免AI带来的风险失控。
欢迎加长河老师微信achotsao,深入交流ITIL 第5版最新资讯。
|
|