分类
Books

AI 用例选择与评估的综合方法论框架:从洞察到决策

选择正确的AI用例是一个系统性的、跨学科的、迭代的决策过程,需要紧密结合用户深度洞察、敏锐的商业分析、严谨的技术评估和前瞻性的伦理考量。以下是一个综合性的方法论框架,旨在指导团队进行科学、高效的AI用例选择与评估:

阶段一:机会探索与痛点识别 (Opportunity Exploration and Pain Point Identification) – 广撒网,深挖掘

此阶段的核心目标是广泛收集潜在的AI应用机会,并从用户、业务和技术等多个维度深入理解并准确定义面临的真实痛点和未被满足的需求。

  1. 以用户为中心的深度洞察 (User-Centric Deep Dive)
    • 核心方法:运用定性与定量相结合的用户研究方法。定性方法包括:进行上下文访谈(Contextual Inquiry)观察用户在真实环境中的行为和挑战;组织焦点小组(Focus Groups)探讨特定主题下的集体痛点和期望;绘制用户旅程地图(User Journey Maps)和服务蓝图(Service Blueprints)可视化用户与产品/服务交互的全过程,识别断点和机会点。定量方法包括:分析大规模用户行为数据(如网站点击流、App使用日志、功能使用频率与时长)、进行在线问卷调查(Survey Research)收集广泛的用户反馈和偏好、利用A/B测试验证特定假设。
    • 关注焦点:用户在现有工作流程或生活场景中遇到的高频次、高耗时、高重复性、高易错性、体验不佳或现有解决方案难以有效解决的问题。哪些任务用户强烈希望被自动化或得到智能辅助?哪些决策用户需要更精准、更及时、更个性化的信息支持?哪些体验用户期望更自然、更流畅、更具情感连接?是否存在用户尚未明确表达但可以通过观察和分析挖掘出来的潜在需求(Latent Needs)?
    • 前沿实践(2025年):一家领先的在线协作平台UX团队,通过分析海量匿名化的用户会议录音转写文本和共享文档数据(在严格遵守隐私和数据安全的前提下),并结合对不同行业用户的深度访谈,发现许多团队在会后总结、任务分配和知识沉淀方面效率低下且易出错。他们识别出一个极具价值的AI用例:开发一个”AI会议智能助理”,能够自动生成高质量的会议纪要、提炼关键决策和行动项、自动分配任务并跟踪进展,甚至能根据会议内容智能推荐相关的历史文档和知识库资源,从而大幅提升团队协作效率和知识管理水平。该助理还能与主流的任务管理工具(如Jira, Asana)和知识库(如Confluence, Notion)进行深度集成。
  2. 业务需求洞察与战略高度对齐 (Aligning with Business Imperatives and Strategic Vision)
    • 核心方法:与企业内部各关键业务部门(如销售、市场、运营、客服、产品、研发、法务、财务等)的负责人和一线骨干进行结构化的深度访谈和工作坊,全面了解其核心业务目标(KPIs)、面临的增长瓶颈、效率挑战、成本压力、以及对AI技术应用的具体期望和顾虑。同时,深入研读并理解公司的整体发展战略、年度规划和中长期愿景,确保潜在的AI用例能够有力支撑公司战略目标的实现,并与公司的核心竞争优势和品牌定位相契合。
    • 关注焦点:哪些核心业务流程存在显著的效率低下、成本高昂或人工操作瓶颈?AI技术如何在提升核心业务指标(如客户获取成本CAC、客户生命周期价值CLTV、用户活跃度MAU/DAU、净推荐值NPS等)、开辟新的收入来源、降低运营风险、增强市场竞争力、或提升品牌美誉度等方面做出可衡量的贡献?潜在的AI用例是否符合公司的风险偏好和投资回报预期?
    • 前沿实践(2024年):一家全球领先的物流公司,其核心战略之一是提升供应链的韧性和效率,以应对日益复杂和不确定的全球贸易环境。通过与运营、规划和IT部门的紧密合作,产品团队识别出一个关键的AI用例:构建一个基于数字孪生(Digital Twin)和强化学习的”智能供应链控制塔”。该系统能够实时整合来自全球的物流数据(如运输状态、港口拥堵、天气变化、地缘政治风险等),利用AI进行需求预测、路径优化、风险预警和应急调度,从而显著提升供应链的可见性、预测性和自适应调整能力,有效降低因意外事件造成的损失,并优化整体运营成本。
  3. 行业趋势洞察与前瞻性竞品分析 (Scanning Industry Horizons and Proactive Competitive Intelligence)
    • 核心方法:持续追踪AI技术在企业所在行业及相关交叉行业的最新应用趋势、突破性进展、标志性成功案例和值得警惕的失败教训。系统性地分析主要竞争对手及新兴创新者在AI方面的战略布局、产品功能、技术路径、用户反馈和商业模式。积极参与行业峰会、阅读权威研究报告、关注顶尖科研机构的动态。
    • 关注焦点:哪些新兴的AI技术(如最新的多模态基础模型、AI Agent框架、端侧AI芯片与算法、隐私增强计算技术如联邦学习或同态加密等)可能为行业带来颠覆性的变革机会或全新的产品形态?竞争对手是如何利用AI来提升其核心竞争力、改善用户体验或创造新的价值主张的?我们能否从中找到差异化的AI应用切入点,或者在某些领域实现”非对称”赶超?是否存在某些被市场忽视的”蓝海”AI应用场景?
    • 前沿实践(2025年):一家专注于个性化健康管理的可穿戴设备公司,密切关注到以Apple Vision Pro为代表的空间计算设备和相关生态的快速发展,以及AI在生物医学信号处理和个性化健康干预方面的最新进展。他们分析了竞争对手在”AI+健康”领域的布局,发现多数仍停留在数据记录和浅层建议层面。该公司决定大胆探索一个前瞻性的AI用例:开发一款与空间计算设备深度融合的”沉浸式AI健康教练”。用户可以在虚拟现实或增强现实环境中,与一个高度拟人化、能够理解用户多模态生理数据(如心率变异性HRV、睡眠结构、活动模式、甚至通过非侵入式传感器监测的血糖趋势等)和情感状态的AI教练进行互动,获得实时的、场景化的运动指导、营养建议、压力管理技巧和冥想引导,从而提供一种前所未有的个性化和沉浸式健康管理体验。
  4. 技术预研与可能性边界探索 (Proactive Technology Foresight and Boundary Exploration)
    • 核心方法:与内部的AI技术团队(或外部顶尖的AI研究机构、咨询公司)建立紧密的合作与沟通机制,定期组织技术分享会和头脑风暴,共同探讨当前AI技术(特别是那些与公司业务领域相关的)的能力边界、成熟度曲线、潜在风险以及未来1-3年的发展方向。鼓励进行小范围、低成本、快速迭代的技术验证(Proof of Concept, PoC)和探索性原型开发(Exploratory Prototyping),以验证某些大胆设想的技术可行性。
    • 关注焦点:哪些长期困扰用户体验或业务效率的”老大难”问题,现在因为AI技术的最新突破(例如,LLM在复杂推理和代码生成方面的进步、多模态模型在理解和生成跨媒体内容方面的能力、AI Agent在自主规划和工具使用方面的潜力)而出现了全新的、更优的解决可能性?我们是否已经拥有或有明确路径能够获得实现这些前沿用例所需的核心技术能力、高质量数据资源和必要的工程化基础设施?这些新技术可能带来哪些全新的交互范式或产品形态?
    • 前沿实践(2024年):一家领先的软件开发工具提供商的技术团队,在对最新的基于大型语言模型的代码生成与辅助编程技术(如GitHub Copilot的下一代演进版本、或类似Devin的AI软件工程师项目)进行深度预研和内部试用后,发现其在自动化生成单元测试、辅助代码重构、智能缺陷检测与修复、甚至根据自然语言需求生成完整功能模块等方面展现出惊人的潜力。他们与产品和UX团队共同构思并启动了一个战略性的AI用例:打造一个”AI原生”的集成开发环境(IDE),将AI深度融入软件开发的全生命周期,从需求分析、架构设计、编码实现、测试调试到部署运维,为开发者提供前所未有的智能化、自动化和个性化支持,目标是数量级地提升开发效率和软件质量。

阶段二:用例筛选与高层评估 (Use Case Filtering and High-Level Assessment) – 去粗取精,快速聚焦

在通过机会探索阶段收集了大量潜在的AI用例之后,需要进行有效的初步筛选和高层评估,以便快速剔除明显不合适或优先级较低的选项,将有限的资源聚焦到最有潜力的候选用例上。

  1. 核心价值主张的清晰阐述 (Articulating a Clear Core Value Proposition)
    • 方法:针对每一个通过初步构思的潜在AI用例,要求团队用简洁、明确、用户导向的语言,清晰地阐述其核心价值主张。回答以下关键问题:这个AI用例为目标用户解决了什么具体、重要的痛点?带来了哪些独特、可感知的核心收益或价值?相比现有的解决方案(包括非AI方案或其他AI方案),它具有哪些显著的、难以替代的优势?
    • 工具与产出:推荐使用”价值主张画布”(Value Proposition Canvas by Strategyzer)作为结构化思考和表达的工具。每个用例都应产出一个精炼的价值陈述(Value Statement),例如:”我们的[AI产品/功能名称]帮助[目标用户群体]通过[AI实现的关键动作],解决[用户的核心痛点],从而实现[用户获得的核心价值],不像[现有竞品/方案]那样[竞品/方案的缺陷]。”
  2. “三性一度”高层快速评估 (Rapid High-Level Assessment: DVFR Framework)
    • Desirability (用户合意性/渴求度):用户是否真的迫切需要这个AI功能?它是否能有效解决用户的真实痛点并带来愉悦、满意的体验?市场需求规模和用户接受意愿如何?(主要基于用户研究的初步判断和市场洞察)
    • Viability (商业可行性/存续性):这个AI用例是否与公司的核心战略和商业目标高度一致?是否有助于实现可观的业务增长、成本节约或风险降低?是否存在清晰、可持续的商业模式或明确的投资回报路径?(主要基于业务需求的初步判断和财务预估)
    • Feasibility (技术可行性/可实现性):在当前的技术水平和资源条件下,实现这个AI用例的核心功能是否大致可行?所需的核心算法、模型、数据和算力是否基本可获得或有明确的获取路径?是否存在初步的、可信的实现思路?(此时无需进行过于深入的技术细节评估,只需基于AI技术团队的专业经验进行大致判断)
    • Responsibility (伦理与责任性/风险可控性):这个AI用例是否存在明显的、难以规避的重大伦理风险(如歧视、隐私侵犯、安全漏洞、滥用风险等)或法律合规障碍?其潜在的负面社会影响是否可控?(基于初步的伦理扫描和风险意识)
    • 评估方法:可以组织一个由产品、UX、技术、业务、法务等代表组成的跨职能评审小组,对每个候选用例的”DVFR”四个维度进行快速打分(例如,使用1-5分制,1分最低,5分最高)并进行简要讨论。设定一个综合得分的门槛,或对任一维度低于特定分值的用例进行标记。
  3. 剔除明显不当或低潜力的用例:基于上述核心价值主张的清晰度和”DVFR”四维度的初步评估结果,坚决剔除那些价值主张模糊不清、用户需求不明确、商业前景黯淡、技术上不切实际、或存在不可接受的伦理与法律风险的用例。目标是将候选用例列表缩减到一个更易于管理的范围,以便进行更深入的分析。

阶段三:用例深度分析与战略优先级排序 (In-Depth Analysis and Strategic Prioritization) – 精雕细琢,权衡取舍

对于通过初步筛选的、具有较高潜力的AI用例,需要投入更多的时间和资源进行更全面、更深入、更细致的分析和评估,并最终运用结构化的方法确定其战略优先级。

  1. 用户体验深度挖掘与场景化故事板构建 (Deep UX Dive and Scenario-Based Storyboarding)
    • 核心方法:针对每一个核心候选用例,创建更为详尽和生动的用户画像(Personas),描绘其典型特征、需求、动机和痛点。构建具体的、情境化的用户场景(Scenarios),描述用户在何时、何地、为何以及如何与AI系统进行交互。将这些场景转化为一系列的用户故事(User Stories),遵循”作为一个[用户角色],我希望能够[完成某个动作],以便于[实现某个目标/价值]”的格式。进一步,绘制详细的任务流程图(Task Flows),清晰地展现用户完成特定目标所需的步骤和AI系统的响应。
    • 关键工具与实践:强烈推荐使用”分镜脚本”(Storyboarding)或”体验地图”(Experience Mapping)作为可视化AI交互过程和用户情感历程的强大工具。分镜脚本能够帮助团队成员(尤其是跨职能团队)更直观地理解AI用例发生的具体上下文、用户与AI的交互细节、AI可能提供的价值点、以及用户在此过程中可能遇到的困惑、障碍或惊喜。这对于识别潜在的UX问题、激发设计灵感、以及在团队内部就AI体验达成共识至关重要。(本书第3章将详细阐述AI项目中的分镜脚本方法)
    • 关注焦点:AI在用户旅程中的最佳介入点和介入方式是什么?用户与AI的交互应该是主动触发还是被动接收?信息应该如何以用户易于理解和信任的方式呈现?用户需要多大程度的控制权和可解释性?系统如何提供有效的反馈和引导?如何设计优雅的错误处理和用户求助机制?如何确保整体体验的流畅性、愉悦感和价值感?
  2. 技术可行性深度评估与数据战略规划 (Rigorous Technical Feasibility Assessment and Data Strategy Formulation)
    • 核心方法:组织AI工程师、数据科学家、机器学习运维(MLOps)专家以及相关的基础设施和安全团队,对每个核心用例进行详尽的技术评审和可行性分析。这包括:评估实现用例所需的核心算法和模型架构的成熟度、复杂度、可获得性(是采用开源模型、商业API还是自研?);精确估算模型训练、微调、部署和持续监控所需的算力资源、时间周期和人力成本;识别潜在的技术瓶颈、集成挑战和扩展性问题。同时,对用例所需的数据进行全面的战略评估:包括数据的数量、质量(准确性、完整性、一致性)、多样性(能否覆盖各种边缘情况和不同用户群体)、时效性、标注成本与周期、获取难度与合规性(特别是涉及个人隐私和敏感数据时)。
    • 关注焦点与产出:是否有经过验证的、性能可靠的算法或预训练模型可供借鉴或作为基础?模型训练和部署的整个流程是否清晰、可控、可复现?数据是否充足、干净、无偏且与用例高度相关?数据标注和清洗的工作量和成本是否在可接受范围内?是否存在难以逾越的技术鸿沟或数据壁垒?此阶段应产出详细的技术方案初稿、数据需求规格书、以及包含风险评估和应对预案的技术可行性报告。
    • 前沿实践(2025年):一个金融科技团队希望开发一个基于AI的超个性化投资组合推荐与动态调仓系统,目标是为每个用户提供”私人银行级别”的定制化服务。在技术评估阶段,他们不仅要评估最新的因子模型、风险模型和强化学习算法在投资决策方面的表现,还要重点攻关如何确保AI建议的合规性(符合各种复杂的金融监管要求)、可解释性(让用户和监管机构理解决策逻辑)、以及在极端市场行情下的鲁棒性。数据方面,他们需要整合用户的财务状况、投资目标、风险偏好、交易历史,以及海量的市场数据、宏观经济数据、新闻舆情数据,并确保所有数据的获取和使用都严格遵守数据隐私法规(如GDPR、CCPA)。
  3. 商业价值量化与全面ROI分析 (Quantifying Business Value and Comprehensive ROI Analysis)
    • 核心方法:尽可能地量化AI用例可能带来的各项商业回报,例如:通过提升转化率或客单价带来的直接收入增长;通过自动化流程或减少人工错误带来的显著成本节约;通过提高生产效率或缩短产品上市时间带来的间接经济效益;通过改善客户满意度、提升用户留存率或增强品牌忠诚度带来的长期客户生命周期价值(CLTV)的提升。同时,全面、细致地估算实现和运营该AI用例所需的总投入,包括但不限于:研发人力成本、数据采集与标注成本、计算资源(硬件采购或云服务租赁)成本、第三方软件或API授权费用、市场推广与用户教育成本、以及持续的运营维护和模型迭代成本。基于这些量化的收入/收益和成本数据,进行严谨的投入产出比(ROI)分析、净现值(NPV)评估、投资回收期(Payback Period)计算,并与其他潜在的投资项目进行横向比较。
    • 关注焦点与工具:用例的市场潜力(TAM/SAM/SOM)究竟有多大?用户的付费意愿和价格敏感度如何?能否构建一个可持续的、可规模化的商业模式?项目的财务风险和不确定性有多大?可以使用财务模型和敏感性分析工具来辅助决策。对于某些难以直接量化经济效益但具有重要战略意义的用例(如提升品牌形象、履行社会责任、探索前沿技术等),也需要明确其战略价值并设定相应的衡量指标。
  4. 多维度风险评估与系统性伦理审查 (Multi-faceted Risk Assessment and Systematic Ethical Review)
    • 核心方法:全面、系统地识别和评估AI用例在整个生命周期中可能面临的各类风险。这不仅包括常见的技术风险(如模型性能不达标、算法失效、系统崩溃、数据泄露等)、市场风险(如用户不接受、竞争对手快速模仿、市场需求变化等)、运营风险(如维护成本过高、难以规模化部署、用户支持压力大等),更要特别关注AI领域特有的、日益受到重视的伦理风险和社会影响。伦理风险可能包括但不限于:算法偏见与歧视(导致对特定群体的不公平对待)、侵犯用户隐私(如过度收集个人数据、数据滥用)、信息误导与虚假内容生成(如AI幻觉、深度伪造)、用户操控与成瘾性设计(如利用心理弱点诱导用户行为)、缺乏透明度与可解释性(导致用户不信任、难以问责)、AI系统的安全漏洞被恶意利用(如对抗性攻击、模型窃取)、以及AI应用可能带来的失业、社会结构变化等更广泛的社会影响。
    • 关键实践与工具:组织一个由伦理专家、法律顾问、社会科学家、用户代表以及产品、技术和业务负责人组成的跨学科伦理委员会或审查小组,对每个核心用例进行严格的、独立的伦理审查。可以参考并运用国际上公认的AI伦理准则和评估框架(例如,IEEE的”Ethically Aligned Design”系列标准、欧盟《人工智能法案》中的风险分级与合规要求、世界经济论坛的”Responsible Use of Technology”框架、以及各科技巨头(如Google, Microsoft, IBM)发布的负责任AI原则和工具包)。使用风险矩阵(Risk Matrix)对识别出的各类风险发生的概率和潜在影响的严重程度进行评估,并制定详细的风险缓解措施、应急预案和责任归属机制。对于高风险用例,可能需要进行更深入的”算法影响评估”(Algorithmic Impact Assessment, AIA)或”人权影响评估”(Human Rights Impact Assessment)。
    • 前沿实践(2024年):一家领先的自动驾驶技术公司在规划其下一代L4/L5级别自动驾驶出租车(Robotaxi)服务的用例时,其伦理委员会对可能发生的极端场景(如”电车难题”式的碰撞决策、传感器在恶劣天气下的失效、系统被黑客攻击控制等)进行了极其详尽的模拟分析和压力测试。他们不仅从技术层面寻求提升系统的鲁棒性和安全性,还主动与政府监管机构、保险公司、法律专家和公众代表进行沟通,共同探讨在这些极端情况下责任认定、赔偿机制以及社会接受度等复杂问题,并将相关的伦理考量和应对策略写入其公开的《自动驾驶安全与伦理白皮书》中。
  5. 结构化优先级排序框架的应用 (Applying Structured Prioritization Frameworks)
    • 核心方法:在完成了对各个候选AI用例在用户价值、商业回报、技术可行性、风险与伦理等多个维度的深度分析和评估之后,需要运用一个结构化的、相对客观的优先级排序框架,来帮助决策团队从众多选项中筛选出当前阶段最值得投入资源去实现的用例。常用的优先级排序框架包括:
      • RICE评分法 (Reach, Impact, Confidence, Effort)
        • Reach (覆盖广度):在设定的时间周期内(例如,未来一个季度或一年),该AI用例预计能直接或间接影响多少用户或客户?(可以用具体数量或百分比表示)
        • Impact (影响深度):该AI用例对每个被影响的用户能产生多大的积极改变或价值提升?(通常使用一个预设的量化等级,例如:0.25=微小影响,0.5=较低影响,1=中等影响,2=较高影响,3=巨大影响,需要团队对每个等级的含义有共同理解)
        • Confidence (信心指数):团队对于上述Reach和Impact的估算有多大的把握?对于技术方案的可行性、资源的到位程度以及最终能够成功交付高质量成果的整体信心有多强?(通常使用百分比表示,例如:50%=低信心,80%=中等信心,100%=极高信心)
        • Effort (投入成本/精力):实现该AI用例预计需要投入多少资源?通常以”人月”(person-months)或其他标准化的工作量单位来衡量,也可以综合考虑时间、资金、算力等多种成本因素。
        • RICE综合得分 = (Reach × Impact × Confidence) / Effort。得分越高的用例,优先级通常越高。
      • 价值-复杂度矩阵 (Value-Complexity Matrix):将候选用例按照其预估的”用户价值/商业价值”(通常分为高、中、低三档)和”技术实现复杂度/投入成本”(也通常分为高、中、低三档)两个核心维度,分别定位到一个二维矩阵的九个象限中。决策的总体原则是:
        • 优先选择并快速推进位于”高价值 – 低复杂度”象限的用例(即”Quick Wins”或”Low-Hanging Fruits”)。
        • 重点投入资源攻坚位于”高价值 – 中复杂度”象限的用例(通常是核心战略项目)。
        • 对于”高价值 – 高复杂度”的用例,需要进行更审慎的战略评估和资源规划,可能需要分阶段实施或寻求外部合作。
        • 应尽量避免或推迟”低价值 – 高复杂度”的用例。
        • 其他象限的用例则根据具体情况进行权衡。
      • 其他框架:还可以考虑使用KANO模型(用于区分基本需求、期望需求和兴奋需求,并结合AI能力进行匹配)、机会评分法(Opportunity Scoring,基于用户对某项需求的重要性和当前满意度的差距来评估机会大小)、或更复杂的加权评分模型(Weighted Scoring Model,为不同评估维度赋予不同权重,然后综合计算总分)。
    • 关键产出与决策过程:通过应用这些框架,团队可以得到一个相对清晰、有数据支撑的AI用例优先级排序列表。然而,需要强调的是,这些框架是辅助决策的工具,而非取代人的判断。最终的优先级决策,还需要结合团队的战略直觉、市场洞察、风险偏好以及对长期愿景的考量,通过充分的团队讨论和高层共识来确定。

阶段四:持续验证、迭代优化与动态调整 (Continuous Validation, Iterative Refinement, and Dynamic Adjustment) – 拥抱变化,敏捷前行

AI用例的选择与评估并非一次性的、静态的活动,而是一个贯穿AI产品整个生命周期的、动态的、持续学习和迭代优化的过程。市场在变,技术在变,用户需求也在变,因此我们的AI战略和用例组合也必须随之而变。

  1. 最小可行产品 (MVP) 与快速原型测试 (Minimum Viable Product and Rapid Prototype Testing):对于经过优先级排序确定的高优先级AI用例,应尽快采用精益创业(Lean Startup)和敏捷开发(Agile Development)的理念,快速构建一个包含核心功能、能够验证核心价值主张的最小可行产品(MVP)或可交互原型。然后,立即将其投入到真实用户的小范围测试中(如Alpha/Beta测试、可用性测试、A/B测试等),收集用户最直接、最真实的反馈,验证AI用例的核心假设是否成立,用户体验是否流畅,AI的性能是否达到预期。
  2. 数据驱动的性能监控与效果验证 (Data-Driven Performance Monitoring and Effectiveness Validation):一旦AI用例上线,就必须建立一套完善的数据监控和分析体系,持续追踪其关键性能指标(KPIs),例如:AI模型的准确率、召回率、F1分数、响应延迟;用户对AI功能的采纳率、使用频率、任务完成率、满意度;以及该用例对核心业务指标的实际贡献(如转化率提升、成本降低等)。通过数据分析,量化评估AI用例的实际效果,并与项目初期设定的目标和预期进行对比,找出差距和改进空间。
  3. 构建高效的用户反馈闭环 (Building Efficient User Feedback Loops):建立便捷、多样、主动的用户反馈渠道,鼓励用户就AI功能的表现、易用性、潜在问题以及新的需求提出意见和建议。这些渠道可以包括:应用内嵌的反馈表单、用户社区论坛、定期的用户调研、客服工单分析、社交媒体聆听等。确保对收集到的用户反馈进行及时的响应、分类、分析,并将其作为驱动AI用例迭代优化的重要输入。
  4. 定期复盘、战略审视与动态调整 (Regular Review, Strategic Reassessment, and Dynamic Adjustment):团队应定期(例如,每季度或每半年)对当前正在运行和规划中的AI用例组合进行全面的复盘和战略审视。结合最新的市场竞争格局变化、AI技术的突破性进展、用户需求和行为的演变趋势、以及公司整体战略的调整,重新评估现有AI用例的有效性、优先级和资源分配。对于那些表现不佳、价值不再突出、或出现更优替代方案的用例,要勇于进行调整、优化、甚至果断地”叫停”或”淘汰”(Sunsetting),以便将宝贵的资源聚焦到更具潜力和价值的新方向上。AI战略的本质是动态的,拥抱变化、持续学习、敏捷调整是成功的关键。