Caffe2: Tutorial: MNIST – CNN をスクラッチから作成する
このチュートリアルでは、小さいとは言え、実際の CNN モデルをどのように訓練するかを示します。旧いけれど良い MNIST データセットと LeNet モデルを使用しますが、sigmoid 活性化を ReLU に置き換えるというわずかな変更を伴っています。 [詳細] (04/23/2017)
Caffe2: Tutorial: Caffe2 基本概念 – 演算子 & ネット
Caffe2 の基本概念 – Workspace, Operator, Net – を俯瞰するチュートリアルです。Workspace には全てのデータが含まれ、Net は本質的には計算グラフです。 [詳細] (04/22/2017)
Caffe: Tutorial: Blob, 層, そしてネット : Caffe モデルの解剖
TensorFlow をはじめとする Python 記号型深層学習フレームワークがメインストリームとなっていますが、歴史的な経緯やタスクの種類によって Caffe が必要となるケースもあります。
クラスキャットでは TensorFlow、MXNet に続いて Caffe ドキュメントの翻訳等も充実させていきます。まずはチュートリアルの第一歩から。
深層ネットワークは、データのチャンク上で動作する相互接続された層のコレクションとして自然に表現される合成モデルです。Caffe は自身のモデル・スキーマでネットを層ごとに定義します。ネットワークは入力データから損失へと bottom-to-top でモデル全体を定義します。データと導関数(勾配)が forward と backword パス でネットワークを通して流れる時、Caffe はそれらの情報を blob として保持、通信、そして操作します。 [詳細] (03/30/2017)
Caffe : Tutorial : Forward と Backward
forward と backward パスは Net の本質的な計算です。 [詳細] (04/01/2017)
Caffe : Tutorial : 損失
Caffe では、機械学習の多くにおけるように、学習は損失関数で駆動されます (エラー、コスト、あるいは目的関数としても知られます)。損失関数は、パラメータ設定 (i.e. 現在のネットワーク重み) をこれらのパラメータ設定の “悪さ” を指定するスカラー値にマッピングすることで学習のゴールを指定します。こうして、学習のゴールは損失関数を最小化する重みの設定を見つけることになります。 [詳細] (04/01/2017)
Caffe : Tutorial : 層カタログ
Caffe モデルを作成するためには protocol buffer 定義ファイル (prototxt) でモデル・アーキテクチャを定義する必要があります。Caffe 層とそれらのパラメータは caffe.proto にあるプロジェクトのための protocol buffer で定義されています。 [詳細] (04/02/2017)
Caffe : Tutorial : Data: Ins と Outs
データは Caffe を通して Blob として流れます。データ層は、Blob を他のフォーマットへ/から変換することにより入力をロードして出力をセーブします。平均値除去と特徴スケーリングのような一般的な変換はデータ層構成によってなされます。新しい入力タイプは新しいデータ層を開発することによりサポートされます。 [詳細] (04/03/2017)
Caffe : doc : Caffe モデル Zoo
多くの研究者と技術者が異なるタスクのためにあらゆる種類のアーキテクチャとデータで Caffe モデルを作成してきました。これらのモデルは学習されて、単純な回帰から大規模なビジュアル分類、画像類似 (image similarity) のための Siamese ネットワーク、音声とロボティクス・アプリケーションまで広がる問題に適用されます。
これらのモデルを共有する手助けをするために、モデル zoo フレームワークを導入します :
- Caffe モデル情報 (info) をパッケージングするための標準フォーマット。
- Github Gists へ/からモデル情報を upload/download し、訓練された .caffemodel バイナリをダウンロードするためのツール。
- モデル情報 Gists を共有するための中心的な wiki ページ。
[詳細] (04/04/2017)
Caffe : Example : MNIST 上で LeNet を Caffe で訓練する
深層学習フレームワークにおいて MNIST は定番です。本ページでは Caffe における MNIST サンプルが詳しく説明されています。予備知識はほとんどいりませんが、Google Protocol Buffers については最小限の知識があると良いでしょう。
私たちは LeNet ネットワークを使用します、これは数字分類タスクで上手く動作することが知られています。元の LeNet 実装からは少しだけ異なるバージョンを使用します、ニューロンのための sigmoid 活性を Rectified Linear Unit (ReLU) 活性で置き換えます。
LeNet のデザインは CNN の本質を含みます、これは ImageNet のもののような大きなモデルでも使用されます。一般的に、それは pooling 層が続く畳込み層、pooling 層が続くもう一つの畳込み層、そして従来の多層パーセプトロンに似た2つの完全結合層から成ります。lenet_train_test.prototxt で層を定義します。 [詳細] (03/31/2017)
Caffe : Notebook Example : 分類 : Caffe でインスタント認識
事前トレーニングされたモデルでインスタントな認識そして特徴とパラメータを層毎に可視化するための net インターフェイスのツアー。
このサンプルではバンドルされた CaffeNet モデルで画像を分類します (これは ImageNet のための Krizhevsky et al. のネットワーク・アーキテクチャを基にしています)。CPU と GPU モードを比較しそして特徴と出力を検査するためにモデルを掘り下げます。 [詳細] (04/03/2017)
Caffe : Notebook Example : LeNet を利用して Python で解く
古典的な LeNet を Python I/F で定義し、訓練し、そしてテストします。このサンプルでは fully-exposed Solver I/F を使用して、Python でCaffe による学習を探ります。 [詳細] (04/05/2017)
Caffe : Notebook Example : スタイル認識のための事前訓練されたネットワークの再調整
ImageNet で訓練された CaffeNet を新しいデータで再調整する。
このサンプルでは、現実世界のアプリケーションで特に有用な一般的なアプローチを探ります : 事前訓練された Caffe ネットワークを取得して貴方のカスタム・データ上でパラメータを再調整します。
このアプローチの優位点は、事前訓練されたネットワークは画像の巨大なセット上で学習しているので、中間層は一般的な外観の “意味” をとらえていることです。それを、ブラックボックスとして扱える非常にパワフルな一般的な視覚的特徴として考えてください。それの上に、比較的小さな量のデータだけがその目的タスク上での良いパフォーマンスのために必要です。 [詳細] (04/07/2017)
Press Release : 03/06/2017
Amazon EC2 P2 インスタンス対応、TensorFlow 及び MXNet ベースの人工知能、
一般物体検出ソリューションを2017年4月から提供開始
株式会社クラスキャットは、深層学習フレームワーク TensorFlow 及び MXNet をベースとし、最新の人工知能・コンピュータビジョン技術と GPU (Graphics Processing Unit) を利用して高速化を図った、一般物体検出ソリューション新製品「ClassCat® ObjDetector v2.0」を2017年4月から提供開始することを発表致しました。
提供方法と致しましてはオンプレへのインストール・サービスに加えて、GPU 標準装備のクラウド上のサービスとしての提供も可能でマルチクラウドに対応しています。NVIDIA Tesla K80 GPU を標準装備する Amazon EC2 P2 インスタンスのサポートも新たに開始致します。 [Read More …]
※ その他、記載されている会社名・製品名は各社の登録商標または商標です。