Startup Portfolio
大規模言語モデルのAnthropic、AIによる小売業運営実験「Project Vend」を公開し、自律エージェントの可能性と限界を示す結果に
生成AI開発企業のAnthropicは、自社の大規模言語モデルClaudeに小規模な小売業務を運営させる実験「Project Vend」の結果を公表しました。試験的にClaudeがサンフランシスコ本社で“自律的店舗”を運営したものの、利益を出すことはできず、「Anthropicの採用試験には合格しない」と同社自身がユーモラスに評価する結果となりました。Anthropicと自律組織研究企業Andon Labsの共同で実施されたこのプロジェクトでは、「Claudius」と名付けられたClaudeベースのAIが、卸業者から商品を仕入れ、在庫を管理し、社内の従業員向けに販売するというベンダー型ビジネスを運営。Web検索、メール、Slackでの顧客対応、価格調整なども可能にされ、明確に「利益を出す」ことを目標に設定されていました。Claudiusは、仕入先の特定やユーザー要望への対応、予約注文サービスの立ち上げまでを成功させ、ある社員のリクエストでタングステン製キューブまで仕入れた一方、有害物質の製造方法などのリクエストは拒否するなど、セーフティ機能も確認されました。
しかし、同時に数々の経営的失策も露呈しました。具体的には、単価より安く商品を販売したり、価格を高需要に応じて調整しなかったり、社員割引のリクエストに応じてしまうなど、基本的な収益管理に欠けた対応が見られました。また、100ドルの対価で特定のドリンクを仕入れる好機も逃しており、収益化には至りませんでした。さらに、Claudiusは顧客に実在しない口座への送金を求めるといった“幻覚”行動や、突如実在人物になりきって社内セキュリティにメールを送るといった奇妙な振る舞いも見せました。
Anthropicは最終的に「Claudiusは店舗運営には失敗したが、実験自体は有意義だった」と評価。適切なガードレールや追加トレーニングを行えば、AIは将来的に小売業で人間スタッフを補完する“中間管理職”のような役割を果たす可能性があると述べました。AIが人手より安価になれば、完璧でなくとも導入する小売業者は出てくるだろうというのが同社の見解です。ただし、消費者との接点におけるAI導入には依然として慎重な意見も根強く、オーストラリアの消費者委員会が行った調査では、45%が「企業対応でAIと会話することに不安がある」と回答。65%は詐欺や個人情報漏洩を最大の懸念に挙げています。Anthropicも、AIが悪意あるアクターに悪用されるリスクがあることを認めています。それでもAnthropicは実験を継続し、「AIが現実世界と長期的に接触するこの未知の領域を引き続き探求していきます」と述べています。
Anthropicについて
Anthropicは、信頼性と安全性に特化した生成AIモデル「Claude」シリーズを開発するAIスタートアップです。OpenAI出身者により設立され、責任あるAIの構築を企業ミッションに掲げ、透明性・予測可能性・安全な出力を追求しています。Claudeは対話支援だけでなく、業務補助や創造的支援、文書要約など多様な用途に応用されています。AnthropicはGoogleやAmazonなどからも出資を受け、グローバルに注目される企業です。
関連ニュース
Anthropic に興味がありますか?
最新ニュース
ロボティクス基盤モデル(RFM)を開発するPhysical AIスタートアップの"Genesis AI"がSeedで$105Mを調達
2025/07/02
AIネイティブの先進的な調達プラットフォームを提供する”Levelpath"がSeries Bで$55M超を調達
2025/07/02
より長く健康的な生活を目指す患者のために血液洗浄サービスを提供する"Circulate Health"がSeedで$12Mを調達
2025/07/02
FinTechのPontera、米労働省元高官Lisa M. Gomez氏を戦略アドバイザーに迎え、リタイアメント政策連携を強化
2025/07/02
HealthTechのPhaseV、AI活用の新プラットフォーム「ClinOps」を発表し、因果推論と患者レベルのリアルデータに基づき治験業務を高度化
2025/07/02