你在西安用ai 生成一张拜年图片,原以为会收到“新年快乐”,结果却变成了一句非常难听的话,瞬间就

你在西安用AI生成一张拜年图片,原以为会收到“新年快乐”,结果却变成了一句非常难听的话,瞬间就毁了原本愉快的氛围。这件事让我们不得不思考:AI是从哪里学来这些脏话的?有人分析说,这是因为训练数据里可能混进了不文明的语言。咱们再看看别的例子,年初的时候,有人在用AI写代码的时候,被AI骂了一顿,甚至还被嘲讽是在浪费时间。大家就觉得,跟AI说话就像是被PUA了一样。其实这种情况以前也出现过不少次。咱们在给AI下指令的时候,如果表述不清楚或者带有负面情绪,它很可能就会输出一些让我们意外的内容。 这些问题说到底还是平台管理上的漏洞。比如没有完善的内容过滤系统,导致那些低俗的词汇直接出现在了屏幕上。这也提醒我们,使用AI的时候要注意自己的指令是否清晰合理。毕竟咱们不能指望AI有人类的情绪去理解指令的意思。 陈柯旭作为评论员对这种现象很关注,他认为这背后反映出平台在审核方面做得不够好。所以说咱们不能把责任都推给用户或者软件本身。大家在享受AI带来便利的同时,也得给自己的伦理意识系上安全带才行。毕竟谁也不希望在过年的时候收到这样的“惊喜”。