PyTorch 2.0 チュートリアル : 入門 : テンソル (翻訳/解説)
翻訳 : (株)クラスキャット セールスインフォメーション
作成日時 : 03/17/2023 (2.0.0)
* 本ページは、PyTorch 2.0 Tutorials の以下のページを翻訳した上で適宜、補足説明したものです:
- Introduction to PyTorch : Learn the Basics : Tensor
* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。
- 人工知能研究開発支援
- 人工知能研修サービス(経営者層向けオンサイト研修)
- テクニカルコンサルティングサービス
- 実証実験(プロトタイプ構築)
- アプリケーションへの実装
- 人工知能研修サービス
- PoC(概念実証)を失敗させないための支援
- お住まいの地域に関係なく Web ブラウザからご参加頂けます。事前登録 が必要ですのでご注意ください。
◆ お問合せ : 本件に関するお問い合わせ先は下記までお願いいたします。
- 株式会社クラスキャット セールス・マーケティング本部 セールス・インフォメーション
- sales-info@classcat.com ; Web: www.classcat.com ; ClassCatJP
PyTorch 2.0 チュートリアル : 入門 : テンソル
テンソルは配列と行列に非常に類似した特別なデータ構造です。PyTorch では、モデルのパラメータに加えて、モデルの入力と出力をエンコードするためにテンソルを使用します。
テンソルは NumPy の ndarray に類似しています、テンソルが GPU や他のハードウェア・アクセラレータ上で実行できることを別にして。実際に、テンソルと NumPy 配列は同じ基礎的なメモリを共有できることが多く、データをコピーする必要性を除去しています (Bridge with NumPy 参照)。テンソルはまた自動微分のためにも最適化されます (それについては後で Autograd セクションで更に見ます)。ndarray に馴染みがあれば、テンソル API で居心地が良いでしょう。そうでないなら、後についてきてください!
import torch
import numpy as np
テンソルを初期化する
テンソルは様々な方法で初期化できます。以下の例を見てください :
データから直接
テンソルはデータから直接作成できます。データ型は自動的に推論されます。
data = [[1, 2],[3, 4]]
x_data = torch.tensor(data)
NumPy 配列から
テンソルは NumPy 配列から作成できます (そして vice versa – Bridge with NumPy 参照)。
np_array = np.array(data)
x_np = torch.from_numpy(np_array)
他のテンソルから
新しいテンソルは引数のテンソルのプロパティ (shape, datatype) を保持します、明示的に override されない限りは。
x_ones = torch.ones_like(x_data) # retains the properties of x_data
print(f"Ones Tensor: \n {x_ones} \n")
x_rand = torch.rand_like(x_data, dtype=torch.float) # overrides the datatype of x_data
print(f"Random Tensor: \n {x_rand} \n")
Ones Tensor: tensor([[1, 1], [1, 1]]) Random Tensor: tensor([[0.3881, 0.0399], [0.6512, 0.6374]])
ランダムまたは定数値で
shape はテンソルの次元のタプルです。下の関数では、それは出力テンソルの次元性を決定します。
shape = (2,3,)
rand_tensor = torch.rand(shape)
ones_tensor = torch.ones(shape)
zeros_tensor = torch.zeros(shape)
print(f"Random Tensor: \n {rand_tensor} \n")
print(f"Ones Tensor: \n {ones_tensor} \n")
print(f"Zeros Tensor: \n {zeros_tensor}")
Random Tensor: tensor([[0.5287, 0.0760, 0.5433], [0.0265, 0.0649, 0.7336]]) Ones Tensor: tensor([[1., 1., 1.], [1., 1., 1.]]) Zeros Tensor: tensor([[0., 0., 0.], [0., 0., 0.]])
テンソルの属性
テンソルの属性はそれらの shape, datatype とそれらがその上でストアされている device を記述します。
tensor = torch.rand(3,4)
print(f"Shape of tensor: {tensor.shape}")
print(f"Datatype of tensor: {tensor.dtype}")
print(f"Device tensor is stored on: {tensor.device}")
Shape of tensor: torch.Size([3, 4]) Datatype of tensor: torch.float32 Device tensor is stored on: cpu
テンソル上の演算
算術、線形代数、行列操作 (転置、インデキシング、スライシング)、サンプリング, 等々を含む、100 以上のテンソル演算は ここ で包括的に説明されています。
これらの演算の各々は (典型的には CPU よりも高速なスピードで) GPU 上で実行できます。
デフォルトでは、テンソルは CPU 上で作成されます。(GPU の利用可能性を確認した後) .to メソッドを使用してテンソルを GPU に明示的に移動する必要があります。デバイス間で大規模なテンソルをコピーすることは時間とメモリの観点から高価であり得ることを忘れないでください!
# We move our tensor to the GPU if available
if torch.cuda.is_available():
tensor = tensor.to("cuda")
リストから演算の幾つかを試します。NumPy API に馴染みがあるならば、テンソル API を利用するのが容易なものであることを見出すでしょう。
標準的な numpy-like なインデキシングとスライシング
tensor = torch.ones(4, 4)
print(f"First row: {tensor[0]}")
print(f"First column: {tensor[:, 0]}")
print(f"Last column: {tensor[..., -1]}")
tensor[:,1] = 0
print(tensor)
First row: tensor([1., 1., 1., 1.]) First column: tensor([1., 1., 1., 1.]) Last column: tensor([1., 1., 1., 1.]) tensor([[1., 0., 1., 1.], [1., 0., 1., 1.], [1., 0., 1., 1.], [1., 0., 1., 1.]])
テンソルを結合する (= join)
与えられた次元に沿ってテンソルのシークエンスを連結するために torch.cat を使用できます。torch.stack もまた見てください、torch.cat とは微妙に異なる別のテンソル結合オプションです。
t1 = torch.cat([tensor, tensor, tensor], dim=1)
print(t1)
tensor([[1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.], [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.], [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.], [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.]])
算術演算
# This computes the matrix multiplication between two tensors. y1, y2, y3 will have the same value
# ``tensor.T`` returns the transpose of a tensor
y1 = tensor @ tensor.T
y2 = tensor.matmul(tensor.T)
y3 = torch.rand_like(y1)
torch.matmul(tensor, tensor.T, out=y3)
# This computes the element-wise product. z1, z2, z3 will have the same value
z1 = tensor * tensor
z2 = tensor.mul(tensor)
z3 = torch.rand_like(tensor)
torch.mul(tensor, tensor, out=z3)
tensor([[1., 0., 1., 1.], [1., 0., 1., 1.], [1., 0., 1., 1.], [1., 0., 1., 1.]])
単一要素テンソル
例えばテンソルの総ての値を一つの値に合計することにより、1-要素テンソルを持つ場合、item() を使用してそれを Python 数値に変換することができます :
agg = tensor.sum()
agg_item = agg.item()
print(agg_item, type(agg_item))
12.0 <class 'float'>
In-place 演算
結果を operand (演算対象) にストアする演算は in-place と呼ばれます。それらはサフィックス _ で表記されます。例えば: x.copy_(y), x.t_() は x を変更します。
print(f"{tensor} \n")
tensor.add_(5)
print(tensor)
tensor([[1., 0., 1., 1.], [1., 0., 1., 1.], [1., 0., 1., 1.], [1., 0., 1., 1.]]) tensor([[6., 5., 6., 6.], [6., 5., 6., 6.], [6., 5., 6., 6.], [6., 5., 6., 6.]])
Note : in-place 演算はある程度メモリを節約しますが、履歴を直ちに失うために導関数を計算するときに問題になり得ます。そのため、それらの使用は推奨されません。
NumPy とのブリッジ
CPU 上のテンソルと NumPy 配列は基礎的なメモリ位置を供給できて、そして一つの変更は他方を変更します。
テンソル to NumPy 配列
t = torch.ones(5)
print(f"t: {t}")
n = t.numpy()
print(f"n: {n}")
t: tensor([1., 1., 1., 1., 1.]) n: [1. 1. 1. 1. 1.]
テンソル内の変更は NumPy 配列に反映されます。
t.add_(1)
print(f"t: {t}")
print(f"n: {n}")
t: tensor([2., 2., 2., 2., 2.]) n: [2. 2. 2. 2. 2.]
NumPy 配列 to テンソル
n = np.ones(5)
t = torch.from_numpy(n)
NumPy 配列の変更はテンソルに反映されます。
np.add(n, 1, out=n)
print(f"t: {t}")
print(f"n: {n}")
t: tensor([2., 2., 2., 2., 2.], dtype=torch.float64) n: [2. 2. 2. 2. 2.]
以上