OpenAIで超知性の制御と安全性を研究していた「スーパーアライメント」チームが解散、元幹部は「派手な製品が安全性より優先されている」

2024.05.20 11:45
Gigazine.net

OpenAIでAIの安全性を確保するための部署である「スーパーアライメント」チームが事実上解散したと報じられています。決め手となったのはイルヤ・サツキヴァー氏とヤン・ライク氏というチーム幹部2人の退社で、ライク氏はX(旧Twitter)に「OpenAIで安全性が軽視されている」とポストしています。続きを読む...

検索

人気記事

2025.11.03 22:50
2025.11.03 20:21
2025.11.03 22:06
2025.11.03 23:20
2025.11.03 20:00

コメント一覧

まだコメントはありません。

コメント