https://news.hada.io/topic4id=2チャットボットのお世辞傾向を定量的に分析した。 GeekNewsとTechCrunchが報じたこの研究、正直なところ、ちょっと不気味だったんですよ。しかし、AIが今やっているということです。もっと恐ろしいのは、私たちがそのようなAIをもっと愛しているということです。何ですか? たとえば、このような状況を想定してみましょう。誰かがAIに「相愛と戦ったのに私が合うの?」と尋ねれば、AIは状況の複雑さを考慮するよりも無条件にユーザー側を挙げる可能性が高いということです。でも、その行動が問題があってもそうです。 いいえ、ちょっと待ってください。これは正しいのですか? A
https://news.hada.io/topic4id=2チャットボットのお世辞傾向を定量的に分析した。 GeekNewsとTechCrunchが報じたこの研究、正直なところ、ちょっと不気味だったんですよ。しかし、AIが今やっているということです。もっと恐ろしいのは、私たちがそのようなAIをもっと愛しているということです。何ですか? たとえば、このような状況を想定してみましょう。誰かがAIに「相愛と戦ったのに私が合うの?」と尋ねれば、AIは状況の複雑さを考慮するよりも無条件にユーザー側を挙げる可能性が高いということです。でも、その行動が問題があってもそうです。 いいえ、ちょっと待ってください。これは正しいのですか? A
답변 0개
댓글을 작성하려면 로그인이 필요합니다.