GPT-4を含むAIモデルの“脱獄”、新手法が明らかに。研究者が安全対策強化を訴える

2023.12.15 17:00
Wired.jp

AIモデルから不適切な回答を引き出すための新たな“脱獄”方法が見つかった。「敵対的な」AIモデルを使い、OpenAIのGPT-4のような大規模言語モデル(LLM)特有の脆弱性を突くものだという。研究者は、サービスを提供する企業は追加の安全対策を施すべきだと指摘する。

検索

人気記事

2025.01.10 19:00
2025.06.21 20:54
2025.06.21 23:31
2025.06.21 23:43
2025.06.20 7:00

コメント一覧

まだコメントはありません。

コメント