OpenAIは、ChatGPTが18歳未満のユーザーと接する際に、プライバシーや自由な会話よりも安全性を優先するためのポリシー変更を行うことを明らかにしました。
OpenAIは現在、自らの自殺願望を実現させるため数か月にわたってChatGPTを使ってその計画を立て、実行に移した16歳の少年の両親から不法死亡訴訟(第三者の過失またあるいは故意の違法行為によって発生した死亡事案に対する、遺族からの経済的損失回復を求める訴訟)を起こされています。この問題に対してOpenAIは、ペアレンタルコントロールを導入する方針を今月はじめに示していましたが、サム・アルトマンCEOは今回「未成年者には強力な保護が必要だと考えている」と、その新しいポリシーについて述べています。
ChatGPTに限らず、多くのAIチャットボットはユーザーが自ら、または他のだれかに危害を加えるような意図を示した場合には、より安全な解決策を検討するようユーザーに勧めるようになっています。しかし現在のところ、このような安全プロトコルはユーザーが質問の仕方を工夫することで簡単に騙せてしまうことが学者の研究などでも報告されています。上の16歳の少年のケースでも、少年は架空の物語を執筆するためのアイデアを相談する体でChatGPTに自殺の方法について問いかけるなどして、ネガティブな思考をさらに深めるような回答をChatGPTから得ていたとされています。
OpenAIはこれらの欠点について8月のブログ記事で言及し、「デリケートなやり取りにおけるAIモデルの対応方法について、継続的に改善」していくとしています。
9月16日付けの投稿では、今回のOpenAIのポリシー変更でまず、コンテンツを主体とする制限に加えて、未成年者の保護者が子どものためのChatGPTアカウントを登録するときのために、ペアレンタルコントロール機能が導入されることが述べられています。これにより未成年ユーザーがChatGPTを利用できない「ブラックアウトタイム」を設定できるようになるほか、アカウントを既存の保護者アカウントにリンクさせることで、ユーザーの使用状況に問題があると保護者に警告を出せるようにするといった機能が追加されます。
アルトマン氏はOpenAIが一般の成人ユーザーのプライバシー保護に継続的に取り組み、ChatGPTとのやり取り方法に関する幅広い自由を与えていることを強調しつつ、ペアレンタルコントロールの導入はそれに矛盾しているため、誰もが同意するわけではないことも認識していると述べています。
ただ、別のAI企業であるCharacter.AIも、14歳の少年ユーザーが同社のAIチャットボットにのめり込んだ後に自殺してしまうという事態が発生してOpenAIと同様の訴訟を起こされているなど、自殺願望や自傷行為を抱える若者が、AIチャットボットを使うことで影響される潜在的なリスクへの対策は、AI業界にとって喫緊の課題と言えそうです。