「たとえばApple Silliconは、「ニューラルエンジン」と称するモジュールを内蔵しているが、これを使ってAIの学習をすると、なんとCPUよりも遅い。信じられないかもしれないが、これが残酷な事実なのである」
「サイバーエージェントやLINE、東大が相次いで独自の大規模言語モデルを発表しているが、そう言う会社は自社に80GBまで対応する計算資源を抱えているからである。こうした資源は、少なくとも数千万円程度する」
「最新世代のH100は完全に在庫が払底している。それは、最初期にNVIDIAがH100の営業に来た時に「高いからいらない」と門前払いをした日本の企業や政府組織が多かったからである。だったら「欲しい」という会社に先に売るのは当たり前で、AIにおけるVRAM容量の重要性をちゃんと認識していた欧米企業は最初から大量購入を約束したからそれだけの数量が確保できた」
ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 – WirelessWire News https://wirelesswire.jp/2023/08/85203/