OpenAIで超知性の制御と安全性を研究していた「スーパーアライメント」チームが解散、元幹部は「派手な製品が安全性より優先されている」

2024.05.20 11:45
Gigazine.net

OpenAIでAIの安全性を確保するための部署である「スーパーアライメント」チームが事実上解散したと報じられています。決め手となったのはイルヤ・サツキヴァー氏とヤン・ライク氏というチーム幹部2人の退社で、ライク氏はX(旧Twitter)に「OpenAIで安全性が軽視されている」とポストしています。続きを読む...

検索

人気記事

2025.06.17 14:35
2025.06.17 9:23
2025.06.17 19:15
2025.06.17 15:01
2025.06.16 14:01

コメント一覧

まだコメントはありません。

コメント