必要な数学だけでわかるディープラーニングの理論と実装

Front Cover
秀和システム, 2018 - 247 pages
人工知能のためのプログラミング入門。アルゴリズムの基礎から実践までを解説!数式をPythonプログラムに落とし込む!
 

What people are saying - Write a review

We haven't found any reviews in the usual places.

Contents

Body
9
Index
245
Back Matter
248
Back Flap
249
Back Cover
250

Other editions - View all

Common terms and phrases

1s/step 2ms/step 33のフィルターを使用 activation='relu activation='sigmoid activation='softmax Backpropagation batch_size batch_size=batch_size Conv2D conv2d_1 Conv2D Convolution2D Convolution2D datagen datagen.flow dense_1 Dense draw(X_batch Dropout Epoch g.next ImageDataGenerator img_h img_w import numpy inline import matplotlib.pyplot Jupyter keras keras.datasets import keras.layers import keras.layers import Conv2D keras.models import Sequential keras.utils import np_utils kernel_regularizer=regularizers.l2(weight_decay kernel_size=(3 Layer type loss loss='categorical_crossentropy LSTM Machine Learning matplotlib inline import matplotlib.pyplot as plt max max max MaxPooling2D MaxPooling2D(pool_size=(2 metrics=['accuracy mnist model model.add model.add(BatchNormalization model.add(Dense model.add(Flatten model.compile model.fit model.summary Neural Neural Networks Non-trainable params np.array numpy as np Output Shape Param padding='same plt.plot plt.show plt.subplot(2 plt.xlabel('epoch print(x ReLU Sequential from keras.layers shuffle=False tanh Total params Trainable params val_acc val_loss validation_data verbose=1 x_tests x_trains y_batch σ σ これを4階テンソルを使って60000回繰り返す(訓練データの場合 ゼロパディングを行う テストデータ ドロップアウト なし ニューロン数 バイアスの数 フィルターの数は32 ます ミニバッチのサイズ ユニット数 入力データの形状 入力層 出力されたサマリー 出力層 学習の進捗状況を出力する 学習回数 学習評価として正解率を指定 拡張データをリストに格納 拡張データを作成 描画出力 書式 正則化を行う 正規化 正解ラベル 正解ラベルをワンホット表現に変換 活性化関数 訓練データ 誤差 重み 重みの数 隠れ層

Bibliographic information