GPT-4を含むAIモデルの“脱獄”、新手法が明らかに。研究者が安全対策強化を訴える

2023.12.15 17:00
Wired.jp

AIモデルから不適切な回答を引き出すための新たな“脱獄”方法が見つかった。「敵対的な」AIモデルを使い、OpenAIのGPT-4のような大規模言語モデル(LLM)特有の脆弱性を突くものだという。研究者は、サービスを提供する企業は追加の安全対策を施すべきだと指摘する。

検索

人気記事

2024.04.20 18:11
2024.11.26 1:33
2024.05.10 18:04
2024.02.18 19:20
2024.11.25 23:59

コメント一覧

まだコメントはありません。

コメント