1. Home
  2. News
  3. OpenAIの共同創設者が安全なAIに特化した新会社Safe Superintelligence (SSI)を設立
2024/06/24

Startup

OpenAIの共同創設者が安全なAIに特化した新会社Safe Superintelligence (SSI)を設立

OpenAIの共同創設者の一人であるIlya Sutskeverが、安全性への懸念からAI大手を離れ、新たなAIベンチャーSafe Superintelligence (SSI)を立ち上げました。SSIは、その名前が示すように「安全な」AI技術の開発に焦点を当てます。これは、「機密情報を漏洩しない」「人種差別的にならない」から、可能性は低いものの「Boston Dynamicsのロボットに侵入してターミネーターのようなことをしない」まで、幅広い意味を持ちます。Sutskeverは、パロアルトとテルアビブを拠点とする同社の発表で、「世界初の直接的なSSIラボを立ち上げ、安全な超知能という一つの目標と一つの製品を掲げています」と述べています。


SSIの共同創設者には、技術の専門家であるDaniel GrossとDaniel Levyが加わっています。GrossはTIME誌の2023年AI分野で最も影響力のある100人に選ばれ、LevyはOpenAIのシニア開発者でした。Sutskeverは、イスラエル国籍を持つOpenAIの主任科学者で、昨年11月にOpenAIのCEO Sam Altmanを追放する動きを主導しました。これは、二人が数ヶ月前まで密接に協力していたことから衝撃的でした。取締役会(Sutskeverを含む)は当初Altmanの解任に成功しましたが、投資家や従業員からの強い圧力を受けて5日後に復帰しました。Sutskeverは6ヶ月後に同社を辞任し、OpenAIのAIリスクチームは崩壊しました。SSIは、「安全な超知能の構築は、我々の時代で最も重要な技術的課題です」と述べ、経営上の負担や製品サイクルに左右されず、短期的な商業的圧力から安全性、セキュリティ、進歩を守ることを目指しています。

 

TagsAIUnited States

関連ニュース

Contact

AT PARTNERSにご相談ください