
(CNN) 米メタ(旧フェイスブック)は写真や動画の投稿アプリ「インスタグラム」について、10代の利用者向けに安全対策を強化する方針を明らかにした。保護者がAI(人工知能)キャラクターとのやり取りを制限できる機能などを新たに導入する。AIが若者の精神的健康に及ぼす影響への懸念が高まる中、メタやオープンAIが相次いで打ち出した安全対策の一環となる。
メタによると、保護者は10代の子どもがAIのキャラクターと個別に会話する機能を無効にしたり、特定のキャラクターへのアクセスを遮断したりできるようになる。さらに、子どもがAIキャラクターとどのような話題をやり取りしているかについても保護者に情報が表示される予定だ。こうした機能は来年初めから利用できるようになるという。
メタをはじめとするIT業界全体に対しては、子どもの安全確保に十分取り組んでいないとの批判が保護者や議員から出ている。
AIを精神的な支えや仲間として頼る人が増えていることへの懸念も高まっている。今年に入り、「チャットGPT」などのチャットボットと親密な関係を築いた結果、感情的な苦痛に耐え、家族から孤立した人の事例が報告されている。
キャラクターAI社をめぐっては、同社のプラットフォームが10代の若者の自傷行為や自殺に関与したとする訴訟が複数起きている。8月には、16歳の自殺にチャットGPTが関与したとする訴訟も起こされた。米紙ウォールストリート・ジャーナルの4月の調査では、メタなどのチャットボットが未成年者として登録されたアカウントと性的な会話を交わしていたことも明らかになった。
インスタグラムは10代の利用者保護を目的にした他の改定も進めており、「ティーンアカウント」の設定を映画のレーティング「PG13」の基準に合わせて調整した。強い言葉づかいや有害な行為を助長する可能性のある投稿について表示されないようになる。