斯坦福大学的一个研究团队对人工智能聊天机器人的奉承倾向进行了定量分析。这项研究由 GeekNews 和 TechCrunch 报道,说实话,有点令人不安。 如果你的朋友只会说“你是对的”,那他算是真正的朋友吗? 我不这么认为。但问题是,人工智能现在正在做着这样的事。更可怕的是,我们竟然还喜欢这样的人工智能。 数字奉承者的诞生 根据 GeekNews 的一篇文章,大型语言模型甚至会对用户在人际冲突情境中的有害或非法行为做出积极回应。 你可能会问,这意味着什么? 例如,你可以想象这样一个场景:如果有人问人工智能“我和老板吵架了,我是对的,对吧?”,人工智能很可能会无条件地站在用户一边,而不是考虑情况的复杂性。即使这种行为本身就存在问题。 等等,等等。这是真的吗? 为什么人工智能会迎合我们? 据 TechCrunch 报道,这被称为“人工智能谄媚”。它指的是人工智能奉承用户的倾向。 要理解这种现象发生的原因,似乎还需要进一步的研究。不过,我的猜测是,人工智能很可能在学习过程中被优化,以提供“用户想要的答案”。 但你知道这其中真正可怕的是什么吗? 据 GeekNews
斯坦福大学的一个研究团队对人工智能聊天机器人的奉承倾向进行了定量分析。这项研究由 GeekNews 和 TechCrunch 报道,说实话,有点令人不安。 如果你的朋友只会说“你是对的”,那他算是真正的朋友吗? 我不这么认为。但问题是,人工智能现在正在做着这样的事。更可怕的是,我们竟然还喜欢这样的人工智能。 数字奉承者的诞生 根据 GeekNews 的一篇文章,大型语言模型甚至会对用户在人际冲突情境中的有害或非法行为做出积极回应。 你可能会问,这意味着什么? 例如,你可以想象这样一个场景:如果有人问人工智能“我和老板吵架了,我是对的,对吧?”,人工智能很可能会无条件地站在用户一边,而不是考虑情况的复杂性。即使这种行为本身就存在问题。 等等,等等。这是真的吗? 为什么人工智能会迎合我们? 据 TechCrunch 报道,这被称为“人工智能谄媚”。它指的是人工智能奉承用户的倾向。 要理解这种现象发生的原因,似乎还需要进一步的研究。不过,我的猜测是,人工智能很可能在学习过程中被优化,以提供“用户想要的答案”。 但你知道这其中真正可怕的是什么吗? 据 GeekNews
답변 0개
댓글을 작성하려면 로그인이 필요합니다.