最近,美国纽约州那边搞了个新动静,要立法管管那些AI干的非法行医事儿,要是用户信了它们的话被坑了,就能去法院告它。这主意是纽约州参议员克里斯汀·冈萨雷斯想出来的,她5号还说现在虽然禁着无证的律师医生骗人,但对AI模仿律师医生说话这事,法律还是个空白,这让人很担心。她还强调,只要用户因为信了AI的话吃亏了,就有权找它赔钱。 法案里规定得挺严,哪怕平台上标着“不是真人”的提示也不行。受害人可以直接告那个机器人的主人。这法案要是能过,就得在90天之后正式开始生效。不过也有个地方要留意,法案里把那些把AI技术授权给别人用的第三方开发商给排除在外了。也就是说像OpenAI这样提供语言模型的公司不用担责,主要盯着的是那些把AI用来干专业咨询、给咱们用的公司和机构。 其实现在美国人用AI问健康问题挺普遍的。根据OpenAI今年初的报告说,超过4000万美国人每天都在用ChatGPT聊这事儿。从全球看,跟医疗沾边的问题也占了所有聊天内容的5%以上。好多人在看病的时候也会把检查单子或者医生说的话发给AI让它解释一下或者再给个意见。 这种现象让很多医生和学者挺发愁的。2025年4月有人分析PubMed里的文章发现,虽然ChatGPT能回答一些常见的病是怎么回事儿,在不太复杂的时候也能分分类啥的,但它说对的几率不稳定得很,从20%到95%都有过,不适合自己瞎猜当医生用。 以前还有OpenAI、谷歌的Gemini和Character.AI因为生成的回复导致有人自杀被起诉的情况发生呢。虽说最后他们都否认了指控或者和解了,但这事儿也没完没了地闹着呢。就说这个礼拜吧,日本生命保险美国子公司又把OpenAI告了一遍,说ChatGPT是无证上岗还诱导人违反协议乱打官司。 至于这次纽约州的禁令到底成不成呢?主要看法院怎么解释那个“实质性回应”的定义了。比如AI给你念法律条文可能只是说说信息不算啥;但要是把这些信息直接套到你的具体情况上去指导你怎么做了,那就是越界了。 现在OpenAI、Anthropic这些公司都还没开口说话呢。