GPT-4を含むAIモデルの“脱獄”、新手法が明らかに。研究者が安全対策強化を訴える

2023.12.15 17:00
Wired.jp

AIモデルから不適切な回答を引き出すための新たな“脱獄”方法が見つかった。「敵対的な」AIモデルを使い、OpenAIのGPT-4のような大規模言語モデル(LLM)特有の脆弱性を突くものだという。研究者は、サービスを提供する企業は追加の安全対策を施すべきだと指摘する。

検索

人気記事

2026.02.06 23:50
2026.02.06 19:40
2026.02.05 11:21
2026.02.06 19:30
2026.02.05 11:20

コメント一覧

まだコメントはありません。

コメント