Anthropic公司正忙着给安全专家画大饼,为了帮AI系统设防,专门招聘了一波化学武器防御和高能爆炸物防护的高手,要求至少干过五年这一行,还得懂点放射性扩散装置的猫腻。他们负责人说是在给旧体系升级,因为现在模型万一被忽悠出了制造危险物质的敏感信息,虽说现在概率不高,但作为老大得防着点。这些招来的人主要是给AI划红线、做内容过滤和搞风险评估。无独有偶,OpenAI最近也挂出了类似的高薪岗位,“生物与化学风险控制”这一行的工资直接比市场价高出一截。 两家头部企业这么招兵买马,说明现在大厂都把安全合规当作头等大事了。数据显示,2023年全球科技公司在AI安全上的研发投入翻了一倍多,涨了47%,主要是在做内容过滤、访问控制这些事儿。不过这招也招来不少骂声,麻省理工学院的新研究就说,把AI模型训练得太精细反而可能变笨,识别不出新的攻击手段。更让人心里没底的是,国际上还没搞出一套管AI和大规模杀伤性武器的规矩,法律这块还是真空的。 这种担忧在生成式AI越来越多地闯进科研领域时变得特别突出。欧洲核子研究中心在白皮书上更是给了一记重拳:未来五年内,AI能把危险物质的研究效率提升300%,这对现有的监管体系来说简直是个噩梦。所以在这种背景下,企业虽然不得不搞主动防御,但怎么在推陈出新和严防死守之间找个平衡?这事儿还得靠学术界和各国政府一起出主意才行。