上海一所高校的教授最近弄了个数字分身发朋友圈,看着特别真,朋友们都在那儿说呢。这种事儿也不光在这儿发生,英国和美国那边也有不少AI应用出来。像OpenClaw这个智能助手,干活可勤快了;还有个纯AI社区MoltBook,大家一起协作挺默契的;春晚舞台上那个机器人也挺厉害,动作做得复杂。 这些信号都在说,AI已经不光在脑子里转了,还开始往物理世界里钻了。现在的AI发展有三个明显的特点:一个是以前是单打独斗,现在变成大伙儿一块儿干;一个是以前只在网上转悠,现在跑到了真实世界里;一个是以前就是个帮手,现在好像要顶人的班。MoltBook大家一起做决定、机器人动作协调、AI系统到处跑的这些本事,把科技革命的样子都画出来了。 这一变可了不得,生产力要大大提升了。经济结构、找工作和社会管理这些方面都会受到影响。就像庄子两千年前说的“用有限的生命去追逐无限的知识”,现在这话又有新意思了。面对AI算力爆表发展的可能,咱们脑子够不够用还是个问题。有个跨国公司的文件就说,它们的AI系统72小时能干完传统团队三个月才能搞定的市场分析活儿,这效率差距实在太大。 大家伙儿对AI的担忧主要集中在“谁能管得住”上。调查显示,超过65%的人不想把自己的社交账号管理权给AI;还有48%的人怕智能体接手管钱。这是因为大家怕技术太自主以后没法负责了。有个金融机构测试了一下AI交易员在极端行情下的决策结果,到现在法律上谁来负责还没个准信儿呢。 现代社会本来就是靠大家信任和授权才能转起来的。银行存着90%的社会财富,证券交易所每秒交易好几亿次资产,这些信任机制是给AI做参考的。但现在不一样的是,法律还没承认AI有自己的法律人格,出事了还是得找开发者或者使用者来背锅。这种法律跟不上趟的问题逼着大家想办法去治理。 以前的经验告诉我们管技术得有个度。就像19世纪英国那个《红旗法案》太严了限制了汽车发展,结果美国的工业革命就跑在了前头。现在管AI也面临这事儿:有个自动驾驶项目因为伦理审查卡了三年没动,对手早就跑完了百万公里路测。这种发展时差可能会让优势彻底丢给别人。 现在的安全观变活了。有个大公司建了个碰撞测试实验室,专门模拟几万种不正常的场景来练系统的强壮程度。这种“在实战中防御”的策略挺好的:既让技术在真场景里升级更新,又实时盯着风险好灭火墙。数据显示经过压力测试的智能体出毛病的几率降了83%。