技术进步背后的人力悖论:自动化程度越高越需专业人才支撑

问题—— 近期,生成式人工智能在写代码、起草合同、生成图片、辅助写作等场景加速普及,部分环节在效率与成本上优势明显,引发公众对“人会不会被技术取代”的关注。

一些用人单位也在尝试以工具替代重复性劳动,客观上加剧了对就业结构变化的担忧。

然而,多领域实践表明,真正值得警惕的并非简单的“替代”,而是能力门槛与责任边界的重塑:当内容与决策越来越依赖自动生成,人类如何校验、如何纠错、谁来负责,成为更紧迫的现实问题。

原因—— 从历史视角看,用机械与计算机分担操作与决策并非新命题。

工业自动化进入工厂、复杂系统依赖计算机调度运行已持续多年。

1983年,英国认知心理学家莉桑·贝恩布里奇在《自动化学》发表《自动化的反讽》,指出控制系统越复杂,操作人员的作用可能越关键:一方面,设计者往往将难以形式化、难以标准化的“剩余任务”留给人来完成;另一方面,系统运行越依赖自动化,越需要人在异常时刻及时识别偏差、采取干预、组织复盘。

换言之,自动化减少了日常操作,却放大了监督、维护、改进与应急处置对人的依赖,这一逻辑在当下的生成式人工智能应用中同样存在。

影响—— 第一,岗位需求从“重复执行”转向“高质量把关”。

生成式工具可以快速产出草案,但草案是否符合业务约束、法律合规与安全规范,仍需专业人员判定;一旦存在偏差,修正成本可能被隐性放大。

第二,技能分化或将加剧。

美国云服务企业Fastly于2025年7月发布的相关调查显示,在信息技术领域,工作经验10年以上的资深开发者中,约三成受访者使用生成式工具编写的代码占比超过一半;而0至2年经验的初级开发者中,达到这一比例者约为13%。

差距并不在于是否“会用工具”,而在于能否快速识别问题、完成适配与重构。

第三,风险形态从“人为失误”扩展为“人机耦合失误”。

当组织过度依赖自动生成内容,若缺乏验证机制,可能出现逻辑漏洞、事实偏差、合规瑕疵与安全隐患,并在规模化传播中被放大,带来声誉、财务与治理风险。

对策—— 一是把能力建设前置到教育与培训体系。

面向高校、职业教育与企业培训,应强化“需求表达—结果评估—错误定位—迭代改进”的通用能力,推动从“学会使用”转向“学会验证与负责”。

二是建立可操作的质量与安全流程。

对代码、合同、宣传文案等高风险产出,应设置分级审核、回归测试、事实核查与合规审读,形成可追溯的记录链条,避免“生成即交付”。

三是明确责任边界与治理规则。

推动行业标准与内部制度同步完善,明确使用生成式工具时的署名、引用、数据来源、版权与保密要求,防止责任被技术外衣稀释。

四是优化岗位配置与激励机制。

将一线人员从纯重复劳动中解放出来的同时,应增加“审校、评估、运维、应急、复盘”类岗位权重,让专业能力与风险控制获得匹配的资源与回报。

前景—— 面向未来,生成式人工智能将继续下沉到更多行业流程之中,社会竞争力也将更多体现在“把工具用对、把结果管住”。

技术进步有望提升整体生产率,但红利能否稳健释放,取决于人机协作机制是否成熟:既要鼓励创新应用,也要守住质量、安全与合规底线;既要看到效率跃升,也要重视经验、判断与责任的不可替代价值。

技术演进的历史本质是人类能力边界扩展史。

从蒸汽机到智能系统,每次工具革命都重构而非消弭人的价值。

当机器接管标准化流程时,人类得以将智慧聚焦于更本质的创造与决策——这或许正是文明进步的永恒辩证法。

面对智能浪潮,唯有主动重塑能力坐标系,方能在人机共生的新纪元持续掌握发展主动权。