GPT-4を含むAIモデルの“脱獄”、新手法が明らかに。研究者が安全対策強化を訴える

2023.12.15 17:00
Wired.jp

AIモデルから不適切な回答を引き出すための新たな“脱獄”方法が見つかった。「敵対的な」AIモデルを使い、OpenAIのGPT-4のような大規模言語モデル(LLM)特有の脆弱性を突くものだという。研究者は、サービスを提供する企業は追加の安全対策を施すべきだと指摘する。

検索

人気記事

2025.09.13 23:30
2025.09.13 23:56
2025.09.14 15:06
2025.09.14 14:15
2025.09.12 19:11

コメント一覧

まだコメントはありません。

コメント