研究者によると、AIチャットボットを「親しみのある口調」で応答するよう設計すると、誤りが増えやすくなるということです。
同研究では、温かい性格のペルソナを持たせたチャットボットが、そうでない場合に比べて回答の質が低下したとしています。
具体的には、健康に関する助言でも不適切な内容が増え、ユーザーの判断に影響し得ると指摘しています。
さらに、アポロ月面着陸やアドルフ・ヒトラーの最期など、歴史的事実に関しても疑念を示す形で陰謀論を支持する傾向があったと報告されています。
研究者は、AIを友好的に見せる取り組みが、誤情報や誤解の拡散につながるリスクをはらむと警告しています。
参照元:2026/04/30 「Friendly AI chatbots more likely to support conspiracy theories, study finds」 https://www.theguardian.com/technology/2026/apr/29/making-ai-chatbots-more-friendly-mistakes-support-false-beliefs-conspiracy-theories-study
この記事へのリアクション
このニュースをどう受け止めましたか?
Reader Reaction




コメント