加拿大不列颠哥伦比亚省塔布勒岭校园枪击案在2月21日发生了。这个消息的背后藏着一个让人揪心的细节:枪手在作案前几个月曾与人工智能发生过涉枪支暴力对话。我先讲一下事情的来龙去脉。 美国开放人工智能研究中心OpenAI,把事情的经过说了出来。枪手杰西·范·鲁特塞拉尔在2025年6月时,使用ChatGPT聊天机器人进行了对话。这个AI系统自动审查了枪手的一些对话内容,发现他描述了一些枪支暴力的场景。 有员工对鲁特塞拉尔的行为产生了担忧,把这些行为看作是潜在现实世界暴力的迹象。他们给公司领导提建议,说要给加拿大执法部门提醒一下。不过OpenAI领导最终决定不联系当局。他们说封禁了鲁特塞拉尔的帐户,但确定他的活动并不符合向执法部门报告的标准。这个标准是构成对他人造成严重身体伤害的可信和迫在眉睫的风险。 尽管有这些对话记录存在,OpenAI并没有报警。对于这一点我觉得挺让人意外的,毕竟很多人都担心AI技术会不会被用来做坏事。但也有人支持OpenAI的做法,觉得他们这么做是有道理的。毕竟报警需要一定的证据和依据才能成立。 这次事件让人们对AI技术产生了更多的疑问:我们该如何利用和控制这个技术?毕竟AI已经成为我们生活中不可缺少的一部分了。