OpenAIで超知性の制御と安全性を研究していた「スーパーアライメント」チームが解散、元幹部は「派手な製品が安全性より優先されている」

2024.05.20 11:45
Gigazine.net

OpenAIでAIの安全性を確保するための部署である「スーパーアライメント」チームが事実上解散したと報じられています。決め手となったのはイルヤ・サツキヴァー氏とヤン・ライク氏というチーム幹部2人の退社で、ライク氏はX(旧Twitter)に「OpenAIで安全性が軽視されている」とポストしています。続きを読む...

検索

人気記事

2023.11.30 10:10
2023.10.19 15:35
2023.11.30 11:10
2023.10.19 13:48
2023.10.18 22:46

コメント一覧

まだコメントはありません。

コメント