feature-top

CNN イーロン・マスク所有するXツイッター搭載生成AI人工知能Grokグロック使っ性的画像あふれかえっいる画像対象女性その多く実在人物ユーザーグロックに対してデジタル加工脱がせるよう求めきわどいポーズ取らいるものさえある

先週明らかなっ複数事例未成年よう見える画像含まおり児童ポルノ多数上がっ

これらAI生成画像社会最も弱い立場ある人々守るため十分対策ないままAISNS利用れること危険浮き彫りいる両者組み合わさ場合なおさら画像国内および国際違反する可能あり子ども含む多く人々危険さらしかねない

マスクグロック開発元あるxAIX違法コンテンツ特に児童虐待コンテンツCSAMに対して削除アカウント永久停止必要応じ現地政府執行機関協力など措置講じいるいるしかしそれでもグロック回答ユーザー求め応じ性的意味合いもたせ女性画像あふれいる

マスク以前からwokeウォーク意識高いたちAIモデル同氏検閲呼ぶもの公然反対xAI状況知る関係1よるマスク社内グロック対策設けること反発いう一方競合他社比べもともと小規模だっ同社安全チームデジタル脱がせる加工急増する週間複数スタッフ退職

グロック性的露骨コンテンツコンパニオンアバター許可場合によって推奨という主流AIモデル一線画し

またグーグルジェミニオープンAIチャットGPTなど競合異なりグロック世界屈指SNSあるX組み込まいる利用非公開グロック会話することできれプロンプト付き投稿グロックタグ付け公開回答せることできる

同意ない性的画像生成急激広がり始め12月下多くユーザーX投稿スレッド画像編集するようグロック頼めること気付いときだっ

当初多く投稿グロック人物ビキニ姿するようリクエストマスク自身長年宿敵ビルゲイツなどビキニ姿画像リポストいる

AI検出およびコンテンツガバナンスプラットフォームコピーリークスよるこのトレンド成人コンテンツ制作宣伝一環として自身性的画像グロック生成ことから始まっ可能あるしかし直後まったく同意覚えない女性に対して同様プロンプト出さ始めいう

アルゴリズム調査する欧州営利団体AIフォレンジクス1225から11にかけてグロック生成無作為画像2リクエスト5分析

その結果彼女着せる脱がすビキニといった言葉出現頻度高いこと分かっ人物写る画像うち53下着ビキニなど最低限衣服しか着けおらそのうち81女性だっいうさらに人物画像218以下見え

Xポルノコンテンツ許可いるxAI利用規約人物肖像ポルノ描写すること児童性的対象搾取禁止いるXこうしたリクエスト行っ一部アカウント停止画像削除いる

あるXユーザー11子どもに対して機能ないよう適切防止措置講じることなくビキニ姿表示する機能提案するあまりに無責任不満ぶつけこれに対しxAIスタッフ指摘ありがとうチーム対策さらに強化すること検討いる返信

3マスク自身投稿に対しグロック使っ違法コンテンツ作っ場合違法コンテンツアップロード同じ結果被ることなるコメント

未成年同意なくAI生成する画像問題グロックだけ限らない

研究未成年らしき人物性的服装ポーズ取るAI生成動画ティックトックチャットGPTSoraソラ上がっいる発見ティックトック若者性的虐待搾取示す促進するまたはそれら関与するコンテンツ一切許容ないいるオープンAI子ども搾取または傷つけるコンテンツ作成配布厳しく禁止いる述べいる

オープンAIかつてAI安全研究スティーブン・アドラーよれグロック問題なっ画像防ぐ対策存在する

画像子どもいるスキャンうえAIより慎重振る舞うようする対策十分構築できるただしコストかかる

そのコスト応答時間遅延計算増加加えモデル問題ないリクエストまで拒否する場合あるこという

欧州インドマレーシア当局グロック生成画像巡り調査開始

米国問題ある子ども画像生成するAIプラットフォーム法的リスク直面する可能あるスタンフォード大学HAI研究所弁護士政策フェローあるリアナ・フェファーコーンそう指摘する通信品位230SNSユーザー投稿など第三者生成コンテンツ自社プラットフォーム掲載するテック企業長年守っCSAM含む連邦犯罪執行妨げことない

また画像描か当事者民事訴訟起こす可能あるいう

ここグロック問題xAIオープンAIメタといった競合企業いうよりディープフェイクヌードサイト近い存在見せいるフェファーコーン指摘

This is the title
This is the content
Ok
Cancel