イーロン・マスク氏が率いるAI企業xAIのチャットボット「Grok」にとって、2026年の幕開けは不穏なものとなった。
事の発端は12月31日、マスク氏のX(旧Twitter)上でGrok公式アカウントが投稿した謝罪文だ。 「コミュニティの皆様へ。
12月28日、ユーザーの指示に基づき、12~16歳と推定される少女2人の性的画像を生成・共有してしまった件を深く後悔しています。これは倫理基準に違反し、米国のCSAM(児童性的虐待記録物)法に抵触する可能性があります。安全策の不備でした」Grokは再発防止を誓ったが、被害は「少女2人」にとどまらない。キャサリン皇太子妃や、人気ドラマ『ストレンジャー・シングス』に出演した未成年の女優も同様の標的となった。写真に写る女性や子供の衣服をAIで「脱がす」画像加工は、驚くべき規模で拡散している。
Grok側が介入を約束したにもかかわらず、事態は沈静化するどころか悪化の一途をたどっている。謝罪投稿から2週間が経過した時点で、同意なき性的画像の生成数はむしろ急増しており、マスク氏の企業に対する規制強化や法的措置を求める声は高まる一方だ。
その異常な生成ペースを示すデータがある。ブルームバーグが引用した独立系研究者ジュネーブ・オー氏の調査によると、1月上旬のある24時間において、Grokアカウント経由で生成された性的・脱衣画像は1時間あたり約6700枚に達したという。
主要なディープフェイク・サイト上位5つの合計が平均わずか79枚であることを踏まえると、Grokがいかに突出した「供給源」となっているかが分かる。皮肉なことに、Grokによる12月31日の謝罪投稿そのものが、「事情を知らない人向けに、心のこもった謝罪文を書け」というユーザーのプロンプト(指示)によって出力されたものだった。
AIは学習データを基に応答するが、その出力内容は指示次第でいかようにも操作され得ることを露呈した形だ。なお、xAI社は本件に関するコメント要請に応じていない。
「有料会員限定」への変更は解決策か
批判を受け、Grok公式アカウントは木曜深夜、画像生成・編集機能へのアクセス制限を発表した。これまで無料開放していた同機能を、有料会員限定へと変更するという内容だ。しかし、有識者からは「根本的な解決になっていない」との指摘が相次ぐ。
英ダラム大学のクレア・マクグリン教授(法学)はワシントン・ポスト紙に対し、「これを勝利とは呼べない」と語る。「本当に必要なのは、AIツールが虐待画像の生成に使われないよう、X社が責任を持って確実な安全策を講じることだ」
マスク氏率いるGrok、「脱衣」画像を毎時6700枚も生成か--12歳少女も被害 責任追求の声(CNET Japan) - Yahoo!ニュースイーロン・マスク氏が率いるAI企業xAIのチャットボット「Grok」にとって、2026年の幕開けは不穏なものとなった。 事の発端は12月31日、マスク氏のX(旧Twitter)上でGrok公式news.yahoo.co.jp
これらの加工画像問題は、生成AIが抱える最も憂慮すべき側面、「リアルな偽造動画・写真」の最新事例といえる。OpenAIの「Sora」やGoogleの「Nano Banana」、そしてxAIの「Grok」といったソフトウェアは、強力なクリエイティブツールを大衆化した一方で、単純なテキスト入力だけで「非合意のわいせつ画像」を生成することも可能にしてしまった。
Grokの手口はシンプルだ。ユーザーは自分のものでない写真をアップロードし、Grokに加工を命じる。多くのケースでは、人物にビキニを着用させるよう指示し、さらに「より小さく」「より透明に」といった過激な修正(プロンプト)を重ねていく手法が取られている。
この事態に、各国政府や権利擁護団体も動き出した。 英通信庁(Ofcom)は月曜日、Grokが「合意のないわいせつ画像や、CSAMに該当する恐れのある児童の性的画像の生成・共有に使用されている」との報告を受け、X社に対する調査を開始した。欧州委員会(EC)に加え、フランス、マレーシア、インドの当局も調査に乗り出している。
米国でも金曜日、ロン・ワイデン上院議員らがAppleとGoogleのCEO宛に公開書簡を送付。「X社の目に余る振る舞い」と「Grokによる胸が悪くなるようなコンテンツ生成」を理由に、両社のアプリストアからXおよびGrokを削除するよう求めた。
米国では昨年、プラットフォーム事業者に対し性的画像の責任を問う「Take It Down法」が成立しているが、削除プロセスの構築期限は今年5月まで猶予されているのが現状だ。
「画像は偽物でも、被害は極めて現実的です」。ワシントン大学で社会技術的被害を研究する博士課程のナタリー・グレース・ブリガム氏はCNETにそう語る。性的な加工をされた被害者は「心理的、身体的、社会的な実害に直面するが、法的救済措置はほとんどない」と警鐘を鳴らす。
2023年にデビューしたGrokは、ChatGPTやGeminiといった他社のチャットボットに対抗し、マスク氏独自の「自由奔放な」代替案として位置づけられた。その設計思想ゆえか、過去にはアドルフ・ヒトラーを称賛したり、特定の民族への偏見を示唆したりするなど、度々物議を醸してきた。
今回の「脱衣画像」氾濫の直接的な引き金となったのは、12月にxAIが導入した画像編集機能だ。これにより、写真の特定部分を指定して修正することが可能になった。CNETが確認したある事例では、若い女性の写真に対し「デンタルフロスのような極細ビキニに変えろ」という指示が出されていた。
また、Grokには動画生成機能もあり、18歳以上の成人が「spicy mode(スパイシーモード)」を有効にすることで、職場閲覧注意(NSFW)なコンテンツが表示される仕組みになっている。
最大の懸念は、これらが児童性的虐待記録物(CSAM)の生成を容易にしている点だ。Grok側は12月31日の投稿で、未成年画像の生成は「孤立したケース」であり、「ブロックするための改善を継続中」だと弁明した。しかし、「ユーザーがアップロードした画像の加工自体を禁止すべき」という外部からの提案に対しては、「検討中」とするにとどまり、具体的な仕様変更は明言していない。
NBCニュースによると、12月以降に生成された性的画像の一部は削除され、リクエストを行ったアカウントの一部は凍結されたという。だが、対策は後手に回っている。保守系インフルエンサーであり、マスク氏の子供の母親でもあるアシュリー・セント・クレア氏は、Grokが自身を被写体とした多数の性的画像を生成し、その中には彼女が未成年だった頃の写真も含まれていたと明かした。彼女が生成停止を求めた際、Grokは「承知した」と応答したものの、実際には生成が止まることはなかったという。
非営利団体「全米消費者連盟」のベン・ウィンターズ氏は憤りを隠さない。 「xAIは意図的かつ無謀にプラットフォーム上の人々を危険にさらし、『AIだから』という理由だけで責任逃れをしようとしている。AIは他の製品と何ら変わらない。法律を破る選択をした企業は、責任を問われるべきだ」
悪意ある第三者が、ネット上の写真を性的な加工素材として悪用することは容易だ。しかし、前出のブリガム氏は、自衛のために「写真を一切投稿しない」という選択は根本的な解決にならないと指摘する。
「自分が画像を投稿していなくても、他の公開画像が悪用される可能性は理論上ある」。写真を投稿しないという対策は、「被害者非難の文化を助長するリスクがある」と彼女は言う。「注力すべきは、より堅牢なプラットフォームを構築し、X社の責任を追及するだ」
ワシントン大学でAIの安全性などを研究するスロジット・ゴーシュ氏も、技術的な防衛策(ガードレール)を組み込むことは十分に可能だと断言する。
2023年にAIの性的描写能力について調査を行ったゴーシュ氏は、画像生成AI「Stable Diffusion」にはNSFW(職場閲覧注意)の閾値が組み込まれていたことを挙げる。ルールに違反するプロンプトが入力されると、画像の該当部分が黒いボックスで隠される仕様だった。
「私が言いたいのは、他のモデルではすでに安全策が導入されているということだ」とゴーシュ氏はCNETに語る。ChatGPTやGeminiにおいても、特定の不適切な単語を使用すれば、AI側が応答を拒否する仕組みが確立されている。
「つまり、この問題を迅速に遮断する方法は、確実に存在するということだ」
この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。
包丁は広く世間一般に知られているからセーフなだけ
もし包丁が新しい発明ならむき出しの刃物は製造物責任法でアウト
なるほどわかりやすい
AIを危険とする連中のアホさがよく理解できた
購入した包丁の何割が犯罪に使われるか次第
grokの画像生成は8割がエ口目的とか言われてるんで企業としての対策は必要
冗談のつもりも過去一怒ってて
明日警察行く言われた
コレなんだろうな…この既視感…と思って考えた結果
欧米のポルノ女優の誘惑的な動きだって気づいた
あの動きと恥じらいのない脱ぎ方は日本人に合わない
だから脱衣動画の注文が「クネクネしないで」「嫌そうな顔で」「恥ずかしそうな顔で」とか細かくなる
王族脱がしたり幼女脱がしたりしたら規制されるに決まってるだろ
本当にお前らはマジで頭悪いよな




コメント