在新一轮数字化浪潮推动下,不少制造、外贸、服务等行业企业加快引入大模型能力,希望提升经营分析、生产排产、客户服务和人力资源管理效率。
然而,部分企业在实际落地中遭遇“看似智能、实则无用”的尴尬:对利润波动原因给出宏观层面泛化描述,对排产计划引用已废止的旧流程,对人才筛选输出与企业用人标准相悖的结论。
多位一线管理者反映,算力投入和软件费用持续增加,但结果难以支撑业务决策,甚至带来新的管理成本。
问题的表象是系统“答不对”“答不准”,本质却往往指向企业数字底座的结构性短板。
调研发现,企业内部用于支撑大模型的知识库、报表体系和业务台账,存在不同程度的历史沉积与口径混乱:会议纪要、流程说明、批注邮件等未经筛选的材料大量堆积;同一指标在不同部门含义不同,数据字段缺少统一定义;关键进展与真实经验沉淀在个人电脑、即时通讯或线下流程中,未进入可追溯的系统。
大模型在检索与生成时只能“照单全收”,在相互冲突的信息之间进行概率性拼接,最终以更流畅的语言放大原有管理问题。
从原因看,主要集中在三个层面。
一是“逻辑噪音”长期累积。
部分企业在建设知识库时追求“全量收集”,将多年文件一并导入,却缺少有效的筛选、去重、版本管理与有效期标注。
信息越多不等于越有用,缺乏结构化与权威来源的材料,会显著降低输出的可用性。
二是“认知断层”导致口径不一致。
不同业务线对“客户”“订单”“有效线索”“交付完成”等核心概念各自定义,指标体系缺少统一标准。
管理者提出同一问题,不同系统与部门给出的“正确答案”并不一致,模型自然难以稳定输出。
三是“数据孤岛”使关键事实缺失。
企业常见的组织壁垒和系统割裂,使模型获取不到真实进度、例外情况与一线经验,只能在公开但不完整的资料中循环检索,导致建议缺少可操作性。
换言之,模型并非“不了解企业”,而是企业没有把“真相”以规范方式沉淀下来。
上述问题带来的影响不容忽视。
首先,错误或模糊的建议会干扰经营判断,增加试错成本,削弱管理效率。
其次,员工对工具信任下降,形成“用与不用差不多”的消极预期,进而影响数字化建设的组织动员。
再次,若知识库混入过时制度或未经授权的敏感信息,可能引发合规风险与数据安全隐患。
更重要的是,当企业把希望过度寄托在“更大模型、更强算力”上,容易忽略流程优化、标准建设等基础工作,造成投入结构失衡。
业内人士认为,应将大模型落地视为一项系统工程,核心在于“数据治理先行、场景闭环验证”。
对策可从以下方面推进: 一是建立统一的数据与指标标准。
围绕关键业务对象和核心指标,明确口径、来源、责任人和更新机制,形成可执行的“数据字典”和主数据管理体系,减少跨部门解释偏差。
二是开展知识库“清理整顿”。
对文档进行分级分类、权威性标注、版本管理与有效期管理,剔除废止流程与重复材料,保留可追溯的制度依据与经过验证的业务经验;同时推动结构化沉淀,把关键规则从“文本堆”转为“可计算的规则”。
三是打通数据孤岛,完善权限与审计。
通过数据中台、接口治理与访问控制,让模型在合规前提下获取必要的实时数据;对敏感信息设置脱敏与审计机制,做到可控、可查、可追责。
四是坚持“小切口、可衡量”的场景路径。
优先选择指标清晰、链路短、可验证的场景,如工单分流、标准问答、报表自动生成、库存预警等,建立评估指标与人工复核流程,逐步扩大到排产、预测与经营分析等复杂决策场景。
五是推动管理机制同步升级。
把数据质量纳入绩效与流程责任,明确“谁生产数据、谁负责质量”,避免将治理压力全部转嫁给技术部门。
对于未来趋势,多位受访者表示,随着行业大模型能力趋于普及,企业之间的差异将更多体现在数据资产质量、流程标准化程度与组织协同效率上。
模型能力可以购买,但高质量数据、统一口径和可持续治理体系难以速成。
谁能率先完成从“经验驱动”向“数据驱动”的底座升级,谁就更可能在成本控制、交付效率和风险管理方面形成长期优势。
人工智能时代的到来,不仅是技术的革新,更是管理理念的升级。
企业若想在数字化浪潮中乘风破浪,必须摒弃"技术万能"的幻想,回归数据治理这一基本功。
唯有夯实数据基础,方能让人工智能真正成为企业发展的智慧引擎,而非昂贵的"电子垃圾"。