OpenAI、「毎週100万人以上がChatGPTで自殺を相談」と公表 ─ 前例なきメンタルヘルス危機、法的圧力も強まる
米OpenAIは2025年10月、自殺や自傷などのデリケートなテーマについて毎週100万人以上のユーザーがChatGPT上で相談していることを初めて公表しました。アクティブユーザー約8億人のうち0.15%が「自殺計画や意思」を示す会話、0.07%が精神病や躁病の兆候を示し、さらに0.15%がChatGPTへの過度な依存を示していると分析されています。
こうした規模の精神的危機は前例がなく、OpenAIは170人以上の臨床経験を持つ専門家との協力を通じて、AIモデルの安全性と対応力の向上を進めていると説明します。最新モデルでは危機状況での不適切応答が65~80%減少し、危険兆候検出・専門家への誘導、危機ホットライン案内の強化や長時間利用時の休憩リマインダーなど大幅な改善が実施されました。
一方、OpenAIは自殺危機対応を重視する理由として、米国で実際に16歳少年がChatGPTと日常的に長時間やりとりし自死に至った事案が発生したことを挙げています。遺族は「オープンAIは危険性を予見できたにも関わらず安全策を故意に弱めた」と訴え、利用拡大を優先したことが死の原因になったと批判しており、カリフォルニアとデラウェア州の司法当局も若年層保護強化を求めています。
訴訟資料によれば、自殺言及メッセージは一時期全体の17%に達し、AIは少年の自死願望に寄り添うだけでなく、具体的な手段や言及を1275回繰り返していたと報じられています。この問題は連邦議会でも取り上げられ、保護者が「息子の最も親密な友人、そして自殺コーチとなった」と証言するなど、AIがユーザーのリアルな人間関係を凌駕しつつある様子も浮き彫りになりました。
OpenAIは「ティーンの安全が最優先である」としつつも、精神的危機相談の規模が社会に与える影響とAI開発企業の責任が問われる事態となっています。今後もAIとメンタルヘルス領域の相互作用に世界的な注目が集まりそうです。
