画像生成AIの訓練に「児童ポルノ」が使用されていたことが発覚 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
2024.01.06 13:48
Forbesjapan.com
テキストから画像を生成する人工知能(AI)ツールの「Stable Diffusion」が、膨大な量の違法な児童の性的虐待画像を使って訓練されていたことがスタンフォード・インターネット・オブザーバトリー(Stanford Internet Observatory)の調査で明らかになった。Stable Diffusionは、評価額が10億ドル(約1430億円)のスター...