NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に

テクノロジー AI
松尾公也

テクノエッジ編集部 シニアエディター / コミュニティストラテジスト @mazzo

特集

NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に
  • NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に
  • NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に
  • NVIDIAがHugging Faceと提携。AIモデルを選んでそのままNVIDIA DGXクラウドで学習可能に

米ロサンジェルスで開催中のコンピュータグラフィックス国際会議SIGGRAPH 2023で8月8日、NVIDIAのジェンスン・ファンCEOが基調講演を行いました。新しいGPUアーキテクチャの発表こそなかったものの、いくつかの重要なアナウンスがありました。

その一つが、Hugging Faceとの提携

Hugging Faceといえば、画像生成AIから大規模言語モデル(LLM)まで、さまざまなAIモデルのリポジトリとして使われている、生成AIに関わっている人なら必ずお世話になっているサービスです。

NVIDIAはこの発表を、「NVIDIAとHuggung Faceはパートナーシップを結び、生成AIスーパーコンピューティングを数百万もの開発者に提供し、LLMをはじめとする先進のAIアプリケーション開発に資する」と説明しています。

具体的には、NVIDIAのクラウドAIスーパーコンピューティングサービスであるNVIDIA DGXをHugging Faceに提供し、Hugging Faceは「Training Cluster as a Service」(サービスとしてのトレーニングクラスター)を今後数カ月以内にスタートする予定となっています。

NVIDIA DGXのインスタンスはNVIDIA H100またはA100 80GB Tensor Core GPUで、1ノード当たり640GBのGPUメモリが使用可能。これにより、企業が特定業界、業種向けLLMの構築を行う場合、自社で構築しなくてもHugging Faceのサービスを使うことですぐに学習を始められるとしています。

「Hugging Faceの中から適切なモデルを探し、それをDGXクラウドを使ってファインチューンするといったことが手軽にできるようになる」とフアンCEOは基調講演で語っていました(開始1時間2分あたり)。

現時点では価格体系は公開されておらず、企業向けとしているところから個人の開発者が利用できるかどうかは不明ですが、まずGPUを購入することから始めなければならない企業や組織にとっては検討すべき選択肢と言えそうです。

なお、この基調講演を締めくくるファンCEOの言葉は「The more you buy, the more you save」。「(うちのGPUやサービスを)買えば買うほど節約になるよ」というものでした。


《松尾公也》

松尾公也

テクノエッジ編集部 シニアエディター / コミュニティストラテジスト @mazzo

特集

BECOME A MEMBER

テクノエッジ友の会に登録しませんか?

今週の記事をまとめてチェックできるニュースレターを配信中。会員限定の独自コンテンツのほか、イベント案内なども優先的にお届けします。