问题:2026年3月,美国五角大楼与人工智能企业Anthropic的分歧公开化。军方要求该公司开放核心模型的底层控制权限,以便将其深度接入军事与情报系统,但遭到公司高层明确拒绝。Anthropic首席执行官达里奥·阿莫代称,公司担心技术被滥用,尤其可能用于国内监控,或推动不受人类有效约束的自主武器系统开发。此表态迅速引发特朗普政府强烈反弹,矛盾随之升级。
硅谷与五角大楼的分歧不仅是商业层面的角力,更是AI时代绕不开的治理难题。技术进步难以回头,但应用边界仍可设定。无论强调安全还是国防,各方都需看到:一味追求速度或过度收紧限制,都可能带来高昂代价。只有建立可验证的治理体系、透明的决策流程和有效的制衡机制,才能让人工智能在可控范围内发挥价值,而不至于成为失控风险。这需要政府、企业、学界与公众持续对话,并在规则与责任上形成更清晰的共识。