aki_iic’s blog

己の欲せざる処人に施す事無かれ、狂人の真似するは即ち狂人なり

TPU

 Google Cloud Blogより。

 私にとってのTPUとはMotorolaのCPU32系統のMC68332,MC68336のペリフェラルであるTime Procesing UnitがTPUとして記憶に残っているのですが与太話はこの辺にして、

 本記事というか情報はGoogleさんの独自プロセサであるTPUの推論専用バージョンのチップというかシステムを開発したというお話。

cloud.google.com

Google Cloud は本日、Google Cloud Next 25 で、第 7 世代の Tensor Processing Unit (TPU) 「Ironwood」を発表しました。Ironwood は、これまでで最もパフォーマンスが高く、スケーラブルなカスタム AI アクセラレータであり、初めて推論に特化し設計された TPU です。TPU は 10 年以上にわたり、Google の最も要求の厳しい AI トレーニングとサービス提供のワークロードを支え、Google Cloud のお客様にも同様のメリットを提供してきました。Ironwood は、これまでで最も強力で高性能、かつエネルギー効率に優れた TPU であり、大規模な思考および推論 AI モデル専用に設計されています。

Ironwood は、AI 開発と進歩を推進するインフラストラクチャにおける重要な局面を示しています。人間による解釈のためにリアルタイム情報を提供する「応答型」のAI モデルから、洞察と解釈を「積極的に」生成するモデルへの移行を表しているのです。当社はこれを「推論の時代」と呼んでおり、AI エージェントは積極的にデータ取得と生成を行い、データのみならず洞察と回答を協同的に提供します。

Ironwood は、次世代の生成 AI と、その膨大な計算および通信要件をサポートするために構築されました。最大 9,216 個の液冷チップを画期的なチップ間相互接続(ICI) ネットワークに接続でき、約 10 MW まで拡張可能です。これは、最も要求の厳しい AI ワークロード向けにハードウェアとソフトウェアを最適化した、Google Cloud AI ハイパー コンピュータ アーキテクチャの新しいコンポーネントの 1 つです。Ironwood により、開発者は Google の Pathways ソフトウェア スタックを活用して、数万個の Ironwood TPU を組み合わせたコンピューティング能力を確実かつ簡単に利用できます。

引用おわり。

 TPUに限らず各社各様のAIアクセラレータは所定のベンチマーク指標でないと性能比較は難しく、単品性能ではシステム性能を特定は難しい訳ではあるのでしょうが、プロセサエレメントの性能向上はシステム性能を底上げするのは多分必然でしょうからアクセラレータとしての追求が続いており、Googleは自社ブランド(製造はODM)のスマホにSoCとしてTPUを搭載している訳だから言いにくいのだけど国内の電電ファミリさんが既存のチップをこねくり回しても太刀打ち困難な状況に至っているという現実があるのでしょう(現場はそんな事は無い・・・のかもしれませんが)。

 こちらはiTmediaの記事ですが上記一次情報の引用に過ぎないのでいつも以上に薄味の様です。いづれにせよサーバサイドの話だからはあ、そうですかと聞き流すしかエンドユーザにはやることが無い:)

www.itmedia.co.jp

 これらの原資は広告収入である事を夢夢忘れる事無き様に・・・不謹慎な言い方だがGAFAってApple以外はサービスの片手間に上記の如き独自プロセサやデータセンタ、仮想化サービスといった「余業」をやっている印象なんですよねぇ。。。それに日本のIT産業が惨敗したというのは言い過ぎなのかもしれませんがCPUもメモリもOSも購入品或いはOSSを組み合わせて世界と戦うのが如何に困難であった(ある)かと言う事なのでしょうか。

スパコンでビジネス成り立つとは到底考えられないのですが(余計なお世話ですね。すみません。)