.. _sec_async: 非同期計算 ========== 今日のコンピュータは高度に並列なシステムであり、複数の CPU コア(多くの場合、各コアに複数のスレッド)、GPU あたり複数の処理要素、そしてしばしばデバイスあたり複数の GPU から構成されている。要するに、私たちは多くの異なる処理を同時に、しばしば異なるデバイス上で実行できる。残念ながら、Python は並列・非同期コードを書くのにあまり向いていない。少なくとも、何らかの追加の助けなしにはそうである。結局のところ、Python は単一スレッドであり、将来これが変わる可能性は低いだろう。MXNet や TensorFlow のような深層学習フレームワークは性能を向上させるために *非同期プログラミング* モデルを採用しているが、 PyTorch は Python 自身のスケジューラを利用しており、そのため性能上のトレードオフが異なる。 PyTorch では、デフォルトで GPU 操作は非同期である。GPU を使う関数を呼び出すと、その操作は特定のデバイスにキューイングされるが、必ずしもすぐに実行されるとは限らない。これにより、CPU や他の GPU 上の操作を含め、より多くの計算を並列に実行できる。 したがって、非同期プログラミングの仕組みを理解することは、計算要件や相互依存を事前に減らすことで、より効率的なプログラムを開発する助けになる。これにより、メモリオーバーヘッドを削減し、プロセッサの利用率を高めることができる。 .. raw:: html
pytorchmxnet
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python from d2l import torch as d2l import numpy, os, subprocess import torch from torch import nn .. raw:: html
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python from d2l import mxnet as d2l import numpy, os, subprocess from mxnet import autograd, gluon, np, npx from mxnet.gluon import nn npx.set_np() .. raw:: html
.. raw:: html
バックエンドによる非同期性 -------------------------- 準備運動として、次の簡単な問題を考えよう。乱数行列を生成して、それを掛け合わせたいとする。NumPy と PyTorch のテンソルの両方でそれを行い、違いを見てみよう。 なお、PyTorch の ``tensor`` は GPU 上に定義されている。 .. raw:: html
pytorchmxnet
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python # Warmup for GPU computation device = d2l.try_gpu() a = torch.randn(size=(1000, 1000), device=device) b = torch.mm(a, a) with d2l.Benchmark('numpy'): for _ in range(10): a = numpy.random.normal(size=(1000, 1000)) b = numpy.dot(a, a) with d2l.Benchmark('torch'): for _ in range(10): a = torch.randn(size=(1000, 1000), device=device) b = torch.mm(a, a) .. raw:: latex \diilbookstyleoutputcell .. parsed-literal:: :class: output numpy: 0.9937 sec torch: 0.0019 sec .. raw:: html
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python with d2l.Benchmark('numpy'): for _ in range(10): a = numpy.random.normal(size=(1000, 1000)) b = numpy.dot(a, a) with d2l.Benchmark('mxnet.np'): for _ in range(10): a = np.random.normal(size=(1000, 1000)) b = np.dot(a, a) .. raw:: latex \diilbookstyleoutputcell .. parsed-literal:: :class: output numpy: 0.8821 sec mxnet.np: 0.0222 sec [07:01:48] ../src/storage/storage.cc:196: Using Pooled (Naive) StorageManager for CPU .. raw:: html
.. raw:: html
PyTorch 経由のベンチマーク結果は桁違いに高速である。 NumPy のドット積は CPU プロセッサ上で実行される一方、 PyTorch の行列積は GPU 上で実行されるため、後者がはるかに高速であることは予想される。しかし、この大きな時間差は、何か別のことが起きていることを示唆している。 デフォルトでは、PyTorch では GPU 操作は非同期である。 PyTorch にすべての計算を返却前に完了させるよう強制すると、以前何が起きていたかが分かりる。つまり、フロントエンドが Python に制御を返している間に、計算はバックエンドで実行されているのである。 .. raw:: html
pytorchmxnet
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python with d2l.Benchmark(): for _ in range(10): a = torch.randn(size=(1000, 1000), device=device) b = torch.mm(a, a) torch.cuda.synchronize(device) .. raw:: latex \diilbookstyleoutputcell .. parsed-literal:: :class: output Done: 0.0025 sec .. raw:: html
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python with d2l.Benchmark(): for _ in range(10): a = np.random.normal(size=(1000, 1000)) b = np.dot(a, a) npx.waitall() .. raw:: latex \diilbookstyleoutputcell .. parsed-literal:: :class: output Done: 1.1622 sec .. raw:: html
.. raw:: html
大まかに言えば、PyTorch にはユーザーとの直接的なやり取りを行うフロントエンド(たとえば Python 経由)と、計算を実行するためにシステムが用いるバックエンドがある。 :numref:`fig_frontends` に示すように、ユーザーは Python や C++ など、さまざまなフロントエンド言語で PyTorch プログラムを書くことができる。どのフロントエンド言語を使っても、PyTorch プログラムの実行は主として C++ 実装のバックエンドで行われる。フロントエンド言語から発行された操作は、実行のためにバックエンドへ渡される。 バックエンドは独自のスレッドを管理し、キューに入ったタスクを継続的に収集して実行する。 これが機能するためには、バックエンドが計算グラフ内の さまざまなステップ間の依存関係を追跡できなければならないことに注意しよう。 したがって、互いに依存する操作を並列化することはできない。 .. _fig_frontends: .. figure:: ../img/frontends.png :width: 300px Programming language frontends and deep learning framework backends. 依存グラフをもう少しよく理解するために、別の簡単な例を見てみよう。 .. raw:: html
pytorchmxnet
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python x = torch.ones((1, 2), device=device) y = torch.ones((1, 2), device=device) z = x * y + 2 z .. raw:: latex \diilbookstyleoutputcell .. parsed-literal:: :class: output tensor([[3., 3.]], device='cuda:0') .. raw:: html
.. raw:: html
.. raw:: latex \diilbookstyleinputcell .. code:: python x = np.ones((1, 2)) y = np.ones((1, 2)) z = x * y + 2 z .. raw:: latex \diilbookstyleoutputcell .. parsed-literal:: :class: output array([[3., 3.]]) .. raw:: html
.. raw:: html
.. _fig_asyncgraph: .. figure:: ../img/asyncgraph.svg The backend tracks dependencies between various steps in the computational graph. 上のコード片は :numref:`fig_asyncgraph` にも示されている。 Python フロントエンドのスレッドが最初の 3 つの文のいずれかを実行すると、単にタスクをバックエンドのキューに返すだけである。最後の文の結果を *表示* する必要があるとき、Python フロントエンドのスレッドは C++ バックエンドのスレッドが変数 ``z`` の結果の計算を終えるまで待機する。この設計の利点の 1 つは、Python フロントエンドのスレッドが実際の計算を行う必要がないことである。したがって、Python の性能にかかわらず、プログラム全体の性能への影響は小さくなる。 :numref:`fig_threading` はフロントエンドとバックエンドの相互作用を示している。 .. _fig_threading: .. figure:: ../img/threading.svg Interactions of the frontend and backend. バリアとブロッカー ------------------ 計算の改善 ---------- まとめ ------ - 深層学習フレームワークは、Python フロントエンドを実行バックエンドから分離することがある。これにより、コマンドをバックエンドへ高速に非同期投入でき、それに伴う並列性が得られる。 - 非同期性により、フロントエンドはかなり応答性が高くなる。ただし、タスクキューを埋めすぎると過剰なメモリ消費につながる可能性があるため注意が必要である。フロントエンドとバックエンドをおおむね同期させるために、ミニバッチごとに同期することが推奨される。 - チップベンダーは、深層学習の効率について、よりきめ細かな洞察を得るための高度な性能解析ツールを提供している。 演習 ---- 1. CPU 上で、この節と同じ行列積演算をベンチマークしなさい。バックエンドによる非同期性はまだ観測できるか。