(CNN) テディベアやぬいぐるみは長らく子どもの遊び相手の定番だった。しかし今では、子どもの想像の中で話しかけることはなく、内蔵されたAI(人工知能)のチャットボットを通じて「話す」ものが登場している。
ただし、そこには問題もある。最近ある研究チームのテストで、マフラーを巻いたテディベアが暴走し、この種の玩具がどんな振る舞いをし得るのかを示す警鐘となった。
オンラインのチャットボットは、大人にとっても、少数ながら妄想を誘発したり、作り話による情報で幻覚を引き起こしたりする危険性がある。米オープンAIの対話型AI「GPT-4o(フォーオー)」が一部のAI玩具に採用されているが、子どもの玩具に大規模言語モデル(LLM)を使うことをめぐり、子どもがそうした玩具に触れてよいのか、メーカーはどのような安全対策を講じるべきかといった安全性に関する懸念が高まっている。
マサチューセッツ工科大学(MIT)の報告書によれば、AI玩具市場は海外で急成長しており、中国では1500社が事業を展開しているが、そうした危険性は常に存在する。これらの企業は米国でもAI玩具を販売しており、米マテルも6月にオープンAIとの提携を発表した。
AI玩具は、1980年代に流行したカセットテープで物語を語る人形とは別物だ。
AI玩具はWi-Fiに接続し、マイクで子どもの話を聞き取り、LLMを使って回答を生成する。返答は内蔵スピーカーから音声として出力されることが多い。
そのため、さまざまなAI玩具が子どもとリアルタイムで会話できる。
リアルタイムで会話できるからこそ、不適切な返答をする危険がある。
オープンAIのGPT-4oを搭載したシンガポール企業フォロトイの「クッマ」は、研究者とのテストで危険な可能性のある物体の在りかを教えたり、性的に露骨な会話をしたりしたという。米消費者団体PIRGが公表した報告書で明らかになった。
オープンAIは、フォロトイの規約違反を理由にサービスを停止した。オープンAIは18歳未満の人物を搾取したり、危険にさらしたり、性的対象としたりする目的でサービスを使うことを禁止している。
フォロトイの最高経営責任者(CEO)は11月、CNNの取材に対し、テディベアを含むAI製品をウェブサイトから撤去し、内部安全監査を実施していると説明していた。同社は今月に入り、厳格なレビューと試験、安全モジュールの強化を行った後、製品を再導入したと発表した。
テンプル大学フォックスビジネススクールのスボダ・クマール教授によると、クッマは本格的なLLMを用いて自由に反応し、コンテンツを生成するため、物議を醸すコンテンツに対して脆弱(ぜいじゃく)だという。他の玩具では、LLMが反応しながらも特定のコンテンツを避けるようにプログラムされているハイブリッドモデルを採用している場合もある。
PIRGによれば、中毒性のある設計特性や成熟した話題に対する一貫性のない応答、教育ツールではなく社会的交際に焦点を当てていることから、広く使用できる状態にあるAI玩具はほとんどない。
一部の玩具には遊び相手との不適切な会話を避けるための保護策やフィルターが設けられている。不適切な質問を受けると話題をそらすAI玩具もある。
玩具を一時的にロックしたり、子どもの会話をリアルタイムで記録したりする機能を搭載したものもある。
PIRGの専門家は「親が独自の安全策を設け、おもちゃが何を話すか、どのように動作するかを実際に制御できるというのは素晴らしいアイデアだ」と指摘した。
マテルがマイクとWi-Fi機能、返答機能を備えた「ハロー・バービー」を2015年に発売した際、この人形がハッキングされる恐れがあること、また会話内容を記憶して数日後に持ち出すのではないかという懸念が生じた。
同様の懸念はAI玩具にも向けられており、子どもの名前や顔、声、位置情報などの個人情報が保存される可能性があると、玩具コンサルティング会社トイコーチの創業者アゼル・ウェイド氏は警告する。
テンプル大のクマール氏も、データが漏えいやハッキングにさらされる可能性があると警告しつつ、AI玩具は語学学習や社会性の発達に役立つ側面もあると指摘した。
たとえば、キュリオの「Grok」は、葉っぱや列車についての質問に答えたり、「ロード・オブ・ザ・リング」のゴクリになったりできる。「Miko 3」には顔認識用のカメラが内蔵され、教育・娯楽プログラムを提供する。
Indonesian
English
Hindi
Thai
Vietnamese
Burmese
Spanish
Portuguese
Arabic
Russian
Chinese