OpenAIで超知性の制御と安全性を研究していた「スーパーアライメント」チームが解散、元幹部は「派手な製品が安全性より優先されている」

2024.05.20 11:45
Gigazine.net

OpenAIでAIの安全性を確保するための部署である「スーパーアライメント」チームが事実上解散したと報じられています。決め手となったのはイルヤ・サツキヴァー氏とヤン・ライク氏というチーム幹部2人の退社で、ライク氏はX(旧Twitter)に「OpenAIで安全性が軽視されている」とポストしています。続きを読む...

検索

人気記事

2025.08.01 10:09
2025.09.11 22:18
2025.09.11 22:47
2025.09.11 23:39
2025.09.11 22:16

コメント一覧

まだコメントはありません。

コメント