PyTorch 1.8 : PyTorch の学習 : Tensor

PyTorch 1.8 チュートリアル : PyTorch の学習 : Tensor (翻訳/解説)
翻訳 : (株)クラスキャット セールスインフォメーション
作成日時 : 03/18/2021 (1.8.0)

* 本ページは、PyTorch 1.8 Tutorials の以下のページを翻訳した上で適宜、補足説明したものです:

* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。

 

無料セミナー実施中 クラスキャット主催 人工知能 & ビジネス Web セミナー

人工知能とビジネスをテーマにウェビナー (WEB セミナー) を定期的に開催しています。スケジュールは弊社 公式 Web サイト でご確認頂けます。
  • お住まいの地域に関係なく Web ブラウザからご参加頂けます。事前登録 が必要ですのでご注意ください。
  • Windows PC のブラウザからご参加が可能です。スマートデバイスもご利用可能です。
クラスキャットは人工知能・テレワークに関する各種サービスを提供しております :

人工知能研究開発支援 人工知能研修サービス テレワーク & オンライン授業を支援
PoC(概念実証)を失敗させないための支援 (本支援はセミナーに参加しアンケートに回答した方を対象としています。)

お問合せ : 本件に関するお問い合わせ先は下記までお願いいたします。

株式会社クラスキャット セールス・マーケティング本部 セールス・インフォメーション
E-Mail:sales-info@classcat.com  ;  WebSite: https://www.classcat.com/  ;  Facebook

 

PyTorch の学習 : Tensor

Tensor は配列と行列に非常に類似した特別なデータ構造です。PyTorch では、モデルの入力と出力、そしてモデルのパラメータをエンコードするために tensor を使用します。

Tensor は NumPy の ndarray に類似しています、tensor が計算を高速化する GPU や他の特別なハードウェア上で実行できることを除いて。ndarray に馴染みがあれば、Tensor API で居心地が良いでしょう。そうでないなら、素早い API ウォークスルーに一緒についてきてください。

import torch
import numpy as np

 

Tensor 初期化

Tensor は様々な方法で初期化できます。以下のサンプルを見てください :

 
データから直接的に

Tensor はデータから直接的に作成できます。データ型は自動的に推論されます。

data = [[1, 2],[3, 4]]
x_data = torch.tensor(data)

 
NumPy 配列から

Tensor は NumPy 配列から作成できます (そして vice versa – Bridge with NumPy 参照)。

np_array = np.array(data)
x_np = torch.from_numpy(np_array)

 
他のの tensor から :

新しい tensor は引数の tensor のプロパティ (shape, datatype) を保持します、明示的に override されない限りは。

x_ones = torch.ones_like(x_data) # retains the properties of x_data
print(f"Ones Tensor: \n {x_ones} \n")

x_rand = torch.rand_like(x_data, dtype=torch.float) # overrides the datatype of x_data
print(f"Random Tensor: \n {x_rand} \n")
Ones Tensor:
 tensor([[1, 1],
        [1, 1]])

Random Tensor:
 tensor([[0.6435, 0.6118],
        [0.3574, 0.3691]])

 
ランダム or 定数値で :

shape は tensor 次元のタプルです。下の関数では、それは出力 tensor の次元性を決定します。

shape = (2,3,)
rand_tensor = torch.rand(shape)
ones_tensor = torch.ones(shape)
zeros_tensor = torch.zeros(shape)

print(f"Random Tensor: \n {rand_tensor} \n")
print(f"Ones Tensor: \n {ones_tensor} \n")
print(f"Zeros Tensor: \n {zeros_tensor}")
Random Tensor:
 tensor([[0.3301, 0.9568, 0.7705],
        [0.6268, 0.7573, 0.6735]])

Ones Tensor:
 tensor([[1., 1., 1.],
        [1., 1., 1.]])

Zeros Tensor:
 tensor([[0., 0., 0.],
        [0., 0., 0.]])

 

Tensor 属性

Tensor 属性はそれらの shape, データ型とそれらがストアされるデバイスを記述します。

tensor = torch.rand(3,4)

print(f"Shape of tensor: {tensor.shape}")
print(f"Datatype of tensor: {tensor.dtype}")
print(f"Device tensor is stored on: {tensor.device}")
Shape of tensor: torch.Size([3, 4])
Datatype of tensor: torch.float32
Device tensor is stored on: cpu

 

Tensor 演算

転置、インデキシング、スライシング、算術演算、線形代数、ランダムサンプリング等を含む、100 を越える tensor 演算は ここ で包括的に説明されます。

それらの各々は GPU 上で (典型的には CPU 上よりも速いスピードで) 実行できます。

# We move our tensor to the GPU if available
if torch.cuda.is_available():
  tensor = tensor.to('cuda')

リストから演算の幾つかを試します。NumPy API に馴染みがあるならば、Tensor API が利用するに容易であることを見い出すでしょう。

 
標準的な numpy-like インデキシングとスライシング

tensor = torch.ones(4, 4)
tensor[:,1] = 0
print(tensor)
tensor([[1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.]])

 
tensor を結合する

与えられた次元に沿って tensor のシークエンスを結合するために torch.cat を使用できます。torch.stack も見てください、torch.cat とは微妙に異なるもう一つの tensor 結合 op です。

t1 = torch.cat([tensor, tensor, tensor], dim=1)
print(t1)
tensor([[1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.],
        [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.],
        [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.],
        [1., 0., 1., 1., 1., 0., 1., 1., 1., 0., 1., 1.]])

 
tensor を乗算する

# This computes the element-wise product
print(f"tensor.mul(tensor) \n {tensor.mul(tensor)} \n")
# Alternative syntax:
print(f"tensor * tensor \n {tensor * tensor}")
tensor.mul(tensor)
 tensor([[1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.]])

tensor * tensor
 tensor([[1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.]])

これは 2 つの tensor 間の行列乗算を計算します。

print(f"tensor.matmul(tensor.T) \n {tensor.matmul(tensor.T)} \n")
# Alternative syntax:
print(f"tensor @ tensor.T \n {tensor @ tensor.T}")
tensor.matmul(tensor.T)
 tensor([[3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.]])

tensor @ tensor.T
 tensor([[3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.],
        [3., 3., 3., 3.]])

 
In-place 演算

_ サフィックスを持つ演算は in-place です。例えば: x.copy_(y), x.t_() は x を変更します。

print(tensor, "\n")
tensor.add_(5)
print(tensor)
tensor([[1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.],
        [1., 0., 1., 1.]])

tensor([[6., 5., 6., 6.],
        [6., 5., 6., 6.],
        [6., 5., 6., 6.],
        [6., 5., 6., 6.]])

Note
in-place 演算はメモリを節約しますが、履歴の直ちの損失のために導関数を計算するとき問題になり得ます。そのため、それらの使用は奨励されません。

 

Bridge with NumPy

CPU 上の Tensor と NumPy 配列はそれらの基礎的なメモリ位置を共有できて、そして一つの変更は他方を変更します。

 

Tensor to NumPy 配列

t = torch.ones(5)
print(f"t: {t}")
n = t.numpy()
print(f"n: {n}")
t: tensor([1., 1., 1., 1., 1.])
n: [1. 1. 1. 1. 1.]

tensor 内の変更は NumPy 配列に反映します。

t.add_(1)
print(f"t: {t}")
print(f"n: {n}")
t: tensor([2., 2., 2., 2., 2.])
n: [2. 2. 2. 2. 2.]

 

NumPy 配列 to Tensor

n = np.ones(5)
t = torch.from_numpy(n)

NumPy 配列内の変更は tensor に反映します。

np.add(n, 1, out=n)
print(f"t: {t}")
print(f"n: {n}")
t: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
n: [2. 2. 2. 2. 2.]
 

以上