Startup
OpenAIの共同創設者が安全なAIに特化した新会社Safe Superintelligence (SSI)を設立
OpenAIの共同創設者の一人であるIlya Sutskeverが、安全性への懸念からAI大手を離れ、新たなAIベンチャーSafe Superintelligence (SSI)を立ち上げました。SSIは、その名前が示すように「安全な」AI技術の開発に焦点を当てます。これは、「機密情報を漏洩しない」「人種差別的にならない」から、可能性は低いものの「Boston Dynamicsのロボットに侵入してターミネーターのようなことをしない」まで、幅広い意味を持ちます。Sutskeverは、パロアルトとテルアビブを拠点とする同社の発表で、「世界初の直接的なSSIラボを立ち上げ、安全な超知能という一つの目標と一つの製品を掲げています」と述べています。
SSIの共同創設者には、技術の専門家であるDaniel GrossとDaniel Levyが加わっています。GrossはTIME誌の2023年AI分野で最も影響力のある100人に選ばれ、LevyはOpenAIのシニア開発者でした。Sutskeverは、イスラエル国籍を持つOpenAIの主任科学者で、昨年11月にOpenAIのCEO Sam Altmanを追放する動きを主導しました。これは、二人が数ヶ月前まで密接に協力していたことから衝撃的でした。取締役会(Sutskeverを含む)は当初Altmanの解任に成功しましたが、投資家や従業員からの強い圧力を受けて5日後に復帰しました。Sutskeverは6ヶ月後に同社を辞任し、OpenAIのAIリスクチームは崩壊しました。SSIは、「安全な超知能の構築は、我々の時代で最も重要な技術的課題です」と述べ、経営上の負担や製品サイクルに左右されず、短期的な商業的圧力から安全性、セキュリティ、進歩を守ることを目指しています。
関連ニュース
最新ニュース
営業支援AIのRegie.ai、リアルタイム購買シグナルを活用した次世代アウトバウンド営業機能「Signal Selling」を発表
2025/04/24
軍事用AIのEdgeRunner AI、Second Front Systemsとの提携で戦術現場へのAI導入を加速
2025/04/24
AIワークフォースマネジメントのTeambridge、サンフランシスコ歴史的ビルに本社を開設
2025/04/24
EdTechのKira、K-12向けAI学習プラットフォームを公開—教員支援と個別教育を実現
2025/04/24
サイバーセキュリティのEntro Security、業界初のNHI・シークレット情報セキュリティ分析エンジンを発表
2025/04/24