2023.09.29

HEROZ、NVIDIA H100 搭載サーバーの導入を決定 強固なAI開発環境の構築で、 新プロダクト『HEROZ ASK』シリーズ等のサービス提供体制を強化

プレスリリース

 HEROZ株式会社(以下、HEROZ)は、新たにNVIDIA ® H100 80GBを搭載したサーバー(ジーデップ・アドバンス社製 GSV-SMC4U8G-Hモデル、以下、H100搭載サーバー)を導入します。今回採用されたNVIDIA® H100 Tensor コア GPUは、前世代のNVIDIA ® A100と比較して、大規模言語モデルのAI学習を最大9倍高速化し、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。さらに、H100の複合的な技術革新により、大規模な言語モデルが前世代と比較してAI推論を最大30 倍も高速化することが可能です。
 これにより、LLM(注1)を活用した新プロダクト『HEROZ ASK』シリーズのさらなる拡大を目指します。

1. 導入経緯
 昨今、LLM等の各種モデルの大型化に伴い、独自に大型モデルの学習やチューニングを行うためには、最新のGPUが必要です。HEROZは、LLM等においても独自にチューニングしたモデルを提供していくため、新たにH100搭載サーバーを導入することになりました。

 2018年11月 GPU(NVIDIA V100×128基)導入 
 2020年2月 CPU(Supermicro ブレードサーバー×20ノード)導入
 2020年11月 CPU(Supermicro ブレードサーバー×80ノード)導入
 2021年4月 GPU(NVIDIA A100×72基)導入
 2023年12月予定 GPU(NVIDIA H100×8基)導入

2. 今後
 新たにH100搭載サーバーを導入することにより、最新GPUによる高速な学習が可能になります。また、1枚当たり80GBの大容量メモリにより、大規模モデルの効率的な学習を得られる効果が期待できます。

3. エンドースメント
 今回のプレスリリースにあたり、株式会社ジーデップ・アドバンス様よりエンドースメントをいただいております。

 HEROZ株式会社様において、弊社製NVIDIA®H100搭載サーバーを採用頂きましたことを大変嬉しく光栄に思います。
 最新のNVIDIA H100は専用の Transformer Engineを搭載しており、前世代に比較し最大約30倍ほどのLLMの高速化が期待できます。HEROZ様の高い技術力と最新のNVIDIA H100 GPUの組み合わせは、今後生成AIやマルチモーダルAIなど、より高性能なAIソリューションの開発に大きく寄与できるものと確信しております。
株式会社ジーデップ・アドバンス
代表取締役社長CEO 飯野匡道

【注釈】
注1: LLM = Large Language Model(大規模言語モデル)

※社名であるHEROZ及びHEROZのロゴマークは、当社の登録商標です。
※その他すべての商標は、各々の所有者の商標または登録商標です。

【HEROZ ASKについて】
 いつでも何でも悩んだときに聞くこと(ASK)ができる、あらゆる質問に答えるAI駆動のSaaSプロダクトです。Always Seek Knowledgeという意味が込められており、蓄積された知見をいつでも探すことができます。これまで十分に活用されてこなかった暗黙知を有効に利用し、企業および産業のAIトランスフォーメーションを促進します。

【HEROZ株式会社について】
HEROZは、今後も独自AIを軸にディープラーニング(深層学習)等の機械学習の研究開発やビジネスに実戦的な応用を続け、AI革命を起こし、未来を創っていきます。

【本件についてのお問い合わせ】
HEROZ株式会社 広報担当
URL:https://heroz.co.jp/contact/
Email:press@heroz.co.jp

Share