OpenAIで超知性の制御と安全性を研究していた「スーパーアライメント」チームが解散、元幹部は「派手な製品が安全性より優先されている」

2024.05.20 11:45
Gigazine.net

OpenAIでAIの安全性を確保するための部署である「スーパーアライメント」チームが事実上解散したと報じられています。決め手となったのはイルヤ・サツキヴァー氏とヤン・ライク氏というチーム幹部2人の退社で、ライク氏はX(旧Twitter)に「OpenAIで安全性が軽視されている」とポストしています。続きを読む...

検索

人気記事

2026.01.31 1:16
2026.02.05 11:21
2026.02.05 23:40
2026.02.05 22:18
2026.02.05 11:20

コメント一覧

まだコメントはありません。

コメント