LAION-5Bに児童性的虐待画像が含まれているとスタンフォード大学の調査で明らかに
LAION-5Bの問題まとめ ・Stable DiffusionやMidjourneyで使われているデータセット ・スタンフォード大学の調査で3,226件の児童性的虐待の疑いのある事例が含まれていることが判明 →LAION側はいったんデータセット削除 ・調査が9月以降で一部を焦点にしているので実際の量ははるかに多い可能性がある
2023-12-21 00:47:14『Stable Diffusion 1.5の学習プロセスの影響は、今後しばらく続くだろう」と報告書は述べ、適切な安全対策が施されていないStable Diffusion 1.5で作られたモデルの使用を中止するよう呼びかけている。』 画像生成AIの訓練に「児童ポルノ」が使用されていたことが発覚 forbesjapan.com/articles/detai…
2024-01-06 16:06:14以下は、スタンフォード大学の論文から。 『その後のStable Diffusion バージョン2.0では、「安全でない」の値が0.1を超える結果が除外され、その結果トレーニングセットに明示的な素材が大幅に不足し、露骨なコンテンツの生成が困難になった。』(1/2) purl.stanford.edu/kh752sm9123
2024-01-06 17:41:27『この結果、Stable Diffusion 1.5は露骨な画像を生成するための最も人気のあるモデルであり続けた。その後Stability AIは、Stable Diffusion 2.1をリリースした。これは2.0をベースとして「安全な」素材と適度に「安全でない」素材の両方でさらにトレーニングさせた。』(2/2)
2024-01-06 17:41:27論文での記載をまとめると、安全でない素材を除外したStable Diffusion 2.0は露骨な画像を出すことができなくなって不評だったので、Stable Diffusion 2.1では適度に安全でない素材を追加してトレーニングした、ということ…
2024-01-07 11:33:18『主要なAI製品で使用されているLAION-5B機械学習データセットは、スタンフォード大学の調査により、児童性的虐待の疑いのある3,226件の事例が含まれていることが判明し、』(1/n) AI画像を支える最大のデータセット、「児童性的虐待の疑いがある」資料の発見後に削除される 404media.co/laion-datasets…
2023-12-20 21:34:22『LAIONは火曜日、404 Mediaに対して「細心の注意を払って」データセットを一時的に削除し、「再度公開する前に安全であることを確認する」と述べた。』(3/n)
2023-12-20 21:36:48『これまでは、児童性的虐待画像を作成できるAIモデルが、露骨な成人素材と露骨でない児童の画像の概念を組み合わせて、生成AIのCSAMを作成しているという説があった。スタンフォード大学の報告書によると、実際の虐待画像がモデルの訓練に役立っているという。』(4/n)
2023-12-20 21:47:43別記事。 『Stability AIが開発した市場で最も人気のあるtext-to-imageの生成AIツールのひとつであるStable Diffusionは、違法な児童性的虐待の素材の宝庫で訓練されていた。』(1/3) forbes.com/sites/alexandr…
2023-12-20 22:54:29『研究者らは、評価は9月以降のものであり、数十億の画像のほんの一部に焦点を当てたものであることを考えると、実際の量ははるかに多い可能性が高いと注意を促した。』(2/3)
2023-12-20 22:54:29『別の有名なAI画像ジェネレーターを開発している研究機関のMidjourneyもLAION-5Bを使用している。』(3/3)
2023-12-20 22:54:30@penpengin2023 @MEGUjuke ワシントン・ポストもです。 Exploitive, illegal photos of children found in the data that trains some AI Stanford researchers found more than 1,000 images of child sexual abuse photos in a prominent database used to train AI tools washingtonpost.com/technology/202…
2023-12-21 00:09:25@info_kvaluation 英国のテレグラフもきましたね。 Fears AI trained on child abuse images after thousands discovered in database telegraph.co.uk/business/2023/…
2023-12-21 00:26:18テック系メディアのengadgetも。 Researchers found child abuse material in the largest AI image generation dataset engadget.com/researchers-fo…
2023-12-21 00:59:14英国ガーディアンも報じていたので、メモ。 AI image generators trained on pictures of child sexual abuse, study finds theguardian.com/technology/202…
2023-12-21 11:03:57読売新聞の記事
読売新聞で生成AIによる児童の性的画像の問題点を記事で取り上げています。問題点が分かりやすくまとまっています。
『このうちイラスト調のものを除く実写と区別がつかない画像は1040点(39%)で、385点(14%)が児童の性的画像だった。いずれも「AIで生成した」などと注釈があった。』 【独自】生成AIで児童の性的画像、国内サイトに大量投稿…推計で毎月3000点以上 yomiuri.co.jp/national/20231…
2023-11-12 11:16:30『名古屋大の宮木康博教授(刑事訴訟法)は「(中略)現行法は、実物と区別できない性的画像が大量に作られる事態を想定したものではない。早急に議論を始める必要がある」としている』 AI生成の児童性的画像、サイト運営者「削除するつもりない」…専門家から対策求める声 yomiuri.co.jp/national/20231…
2023-11-12 12:54:14・画像生成AIで作られたとみられる児童の性的画像が国内サイトに大量に投稿されている問題 ・72%が規制が必要と回答 ・規制に反対だったのは7% 生成AIで児童の性的画像、国内大量投稿受け「規制必要」7割…NGO調査 yomiuri.co.jp/national/20231…
2023-11-25 22:53:48生成AIで作られたリアルな児童の性的画像が氾濫し、被害者が実在する児童ポルノの対策に支障が出始めています。 削除が遅れれば、児童がネットにさらされ続ける懸念があります。 一方、販売者はこう話します。 「いい小遣い稼ぎになる」 ▼記事は画像をクリック yomiuri.co.jp/national/20231…
2023-12-02 05:37:33問題点
何が問題か ・生成しているStable Diffusionのデータセットに実際の児童の性的画像が含まれている ・実在人物(有名人、過去の被害者)で生成している人間がいる ・実際の被害者画像が埋もれてしまい救済につながらない可能性がある など 以下ポストのスレッドに上記に関する参考記事をまとめている twitter.com/penpengin2023/…
2023-11-12 11:51:24実際にこういう人物がいる
こういう風にSNSに投稿された実在の人物を使って生成AI画像を作っている人物がいる。このポストは魚拓取得済み。 twitter.com/minto_AIillust…
2023-11-12 12:49:52@Yomiuri_Online 実在児童を集中学習させただろうAI画像はよくみかけますね、 愛好家なのであーこれはあの子追加学習させてるな というのはすぐ分かります。 かくいう私もtwitterやinstaの気に入った子を学習させて好きに利用してますが… ↓続く
2023-11-12 12:22:37aiで理想の美少女を作ってます
@Yomiuri_Online 実在児童を集中学習させただろうAI画像はよくみかけますね、 愛好家なのであーこれはあの子追加学習させてるな というのはすぐ分かります。 かくいう私もtwitterやinstaの気に入った子を学習させて好きに利用してますが… ↓続く
2023-11-12 12:22:37@Yomiuri_Online 合法なのでやめるつもりはないですし学習元の児童本人が嫌だと言わない限り それは「被害」とは言わないので無関係の第三者がどうこう言うことではないと思います
2023-11-12 12:24:02魚拓 megalodon.jp/2023-1112-1245… megalodon.jp/2023-1112-1247…
2023-11-12 13:31:44海外の関連記事など
海外はすでに生成AIによる児童性的虐待の対策に動き始めています
LAIONはStable Diffusionなどの画像生成AIに使用されているデータセット
データセットのLAIONについての記事。登録して全文読んだ。 『LAIONのデータセットに児童のヌードが含まれていることは知らなかったと述べたが、データを詳しく調べたわけではないことを認めた』 The Future of AI Relies on a High School Teacher’s Free Database bloomberg.com/news/features/…
2023-11-12 12:19:33『LAIONのデータセットには、ポルノ、暴力、子供のヌード、人種差別的ミーム、ヘイトシンボル、著作権で保護されたアート、民間企業のウェブサイトからスクレイピングされた作品など、何百万もの画像が含まれている。』
2023-11-12 16:55:17@hirox246 少なくとも画像生成AI(stablediffusion)のデータセットLAION 5Bには子供の裸の画像が入っている事は報道されている "LAION’s dataset contains millions of images of pornography, violence, child nudity, " japantimes.co.jp/news/2023/04/2…
2023-11-13 18:11:26