GPT-4を含むAIモデルの“脱獄”、新手法が明らかに。研究者が安全対策強化を訴える

2023.12.15 17:00
Wired.jp

AIモデルから不適切な回答を引き出すための新たな“脱獄”方法が見つかった。「敵対的な」AIモデルを使い、OpenAIのGPT-4のような大規模言語モデル(LLM)特有の脆弱性を突くものだという。研究者は、サービスを提供する企業は追加の安全対策を施すべきだと指摘する。

検索

人気記事

2026.04.21 20:32
2026.04.21 19:07
2026.04.21 5:55
2026.04.21 0:00
2026.01.22 19:01

コメント一覧

まだコメントはありません。

コメント