
{{aisd}}
AI生成 免责声明
(作者为兆企供应链董事长徐琪;广西铝产品仓储交易中心商品交易首席专家雷震)
2026年,人工智能的落地逻辑正在经历一场静默却深刻的地震。如果说过去两年我们还在热衷于讨论如何调教大语言模型(LLM)以生成更优美的诗句或代码,那么今年,焦点已彻底转向——如何让这些拥有惊人智力但并非绝对可靠的“数字员工”,在真实、复杂且容错率极低的企业系统中稳定工作。
这一转变催生了AI工程化的第三代范式:Harness Engineering(驾驭工程)。回顾过去四年的演进,我们可以清晰地看到工程师思维方式的代际跃迁。在2022至2024年的Prompt Engineering时代,核心在于“雕琢语言”。工程师们像调音师一样,通过精妙的提示词和示例,试图激发模型的最佳表现。随后,2025年的Context Engineering时代,重点转向“管理信息”。随着RAG(检索增强生成)的普及,工程师们开始充当情报官,专注于在有限的上下文窗口中塞入最高价值的信息,解决模型的“幻觉”与遗忘问题。
然而,当AI开始尝试直接修改生产环境的代码库、调用真实的金融API或操作工业设备时,单纯的信息管理已不足以保证安全。这就是2026年Harness Engineering登场的背景。正如给烈马套上缰绳,Harness并非为了限制模型的力量,而是为了构建一套结构化的控制系统——包含运行环境、约束机制与反馈回路。模型提供推理能力,而Harness提供方向盘和刹车,确保力量沿着正确的轨道释放。
这一工程范式的成熟,直接源于过去半年消费级AI产品的狂飙与阵痛。2025年底,OpenClaw掀起的“龙虾热”曾席卷2600万用户,其集成了5700多项技能的生态平台一度被视为未来的雏形。然而,2026年3月的一场安全危机彻底暴露了“重功能、轻治理”的代价。随着CVE-2026-25253高危漏洞的披露,攻击者可以通过WebSocket劫持实现远程代码执行,加之Skills中约12%的技能被检测出包含恶意代码,OpenClaw遭遇了严重的信任崩塌。尽管团队紧急重构,但兼容性问题导致的大规模罢工,最终引发了卸载潮。
OpenClaw的教训是惨痛的,但也催生了更成熟的替代品。Nous Research发布的Hermes Agent作为Harness Engineering概念的首个产品化代表,在两个月内斩获了2.7万GitHub Stars。它证明了市场对于“可控智能”的渴望,但也揭示了新的问题:安装配置复杂、强模型依赖以及对Windows生态的不友好,依然是企业级普及的拦路虎。
当视线从个人应用转向企业级落地,挑战的维度变得更加复杂。企业级AI不再单纯追求智能的“上限”,而是极度关注交付的“下限”。当前,这一进程正面临五大相互独立且深度耦合的核心瓶颈。
首先是智能体行为的可信治理。传统企业的科层制治理基于“自然人假设”,依赖人工复核。但AI的黑箱性和目标漂移特性,使得传统机制失效。企业亟需建立覆盖“目标可对齐—过程可观测—结果可审计”的全生命周期框架,在控制精度与自主弹性之间找到量化平衡,既要发挥智能体的贡献,又要避免陷入“过度控制陷阱”。
其次是遗留系统的适配难题。企业拥有高度定制化且深度耦合的ERP、CRM系统,盲目“推倒重建”在经济上不可行。成功的路径在于“渐进式重构”。例如,某离散制造企业通过部署AI适配器对接传统MES系统,仅用新建平台18%的成本,就在不中断业务的前提下实现了生产调度的智能化。
第三是人机协同的编排机制。个人级Agent追求“黑箱自治”,常导致企业任务“跑偏”,结果不可预期。企业级AI必须从“自治”转向“共控”,将人类定位为核心决策与校准主体,智能体则聚焦于战术执行。在关键节点植入人类干预接口,是保障业务SLA的关键。
第四是细粒度的权限管控。个人级Agent往往追求全局权限以完成复杂任务,但这直接穿透了企业严密的权责边界。企业级智能体必须遵循“最小权限原则”,建立“角色-权限-资源”三位一体的管控模型。一旦任务触及红线,系统应能自动触发安全交接,将子任务路由至具备相应授权的节点。
最后是核心数据的安全隔离。大模型的上下文拼接机制和外部API调用,使得传统防火墙形同虚设。企业必须构建全链路的数据防泄漏(DLP)体系,结合提示词脱敏和私有化部署,确保核心商业机密不因AI的交互而外溢。
从Prompt到Context,再到Harness,AI工程化正在褪去玩具的外衣,穿上工具的重甲。对于企业而言,只有系统性地解决行为治理、架构适配、人机协同、权限管控与数据安全这五大议题,人工智能才能真正跨越鸿沟,从实验室里的惊叹号,转变为驱动商业增长的稳定生产力。
第一财经一财号独家首发,仅代表作者观点。
