生成AIの「ハルシネーション」はなぜ起きるのか--OpenAIが提示した意外な原因と解決策

2025.09.12 8:25
ZDNet

たとえ最大規模の先進的な生成AIモデルであっても、事実とは異なる不正確な情報を生成することがある。これは、いわゆる「ハルシネーション(幻覚)」と呼ばれる現象である。OpenAIはその原因を特定し、解決策を提示したと主張している。

検索

人気記事

2026.03.26 23:04
2026.03.27 1:10
2026.03.26 19:00
2026.03.26 20:22
2026.03.26 7:18

コメント一覧

まだコメントはありません。

コメント