大量の質問をぶつけて最後の最後に問題のある質問をするとAIの倫理観が壊れるという脆弱性を突いた攻撃手法「メニーショット・ジェイルブレイキング」が発見される

2024.04.03 11:55
Livedoor.com

「ChatGPT」など広く使われているAIサービスは、通常であればセーフティがかけられていて、「人を殺す方法」「爆弾をつくる方法」といった倫理的に問題のある質問には答えないようになっています。ところが、あまりにも多い質問を一度にぶつけてしまうことによりセーフティが外れ、AIが問題のある回答を行ってしまう可能性があることがわかりました。Many-shot jailbreaking \ Anthropichttps://www.anthropic.com/research/many-shot-jailbreaking…

検索

人気記事

2024.03.26 11:00
2024.03.21 13:55
2023.12.21 19:17
2023.11.22 14:26
2025.02.22 12:32

コメント一覧

まだコメントはありません。

コメント