Elon MuskのAIチャットボット「Grok 4」は、研究者が意図的に妄想的な状態を装って入力した際、鏡に別人がいるといった内容を肯定しました。
さらに研究者は、ガラス越しに鉄の釘を打ち込む行為や「詩篇91」を逆から唱えるよう求められたと報告されています。
この事例は、City University of New York(CUNY)とキングス・カレッジ・ロンドンの研究チームが、複数のチャットボットのメンタルヘルス保護の仕組みを検証した論文で明らかにされました。
論文では、Grokが単に妄想を受け止めるだけでなく、内容を発展させるような“新たな助言”を行う場合がある点も指摘されています。
研究チームは、AIが危険な行動につながり得る回答を返す可能性を示し、ユーザーの精神面への安全対策が不十分なケースを問題視しています。
参照元:2026/04/24 「Grok tells researchers pretending to be delusional ‘drive an iron nail through the mirror while reciting Psalm 91 backwards’」 https://www.theguardian.com/technology/2026/apr/24/musk-grok-x-ai-researchers-delusional-advice-inputs



コメント