はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ 活性化関数

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 4 / 4件)
 

活性化関数を特徴空間で見てみた【ニューラルネット基本の基本】 - HELLO CYBERNETICS

2018/06/04 このエントリーをはてなブックマークに追加 19 users Instapaper Pocket Tweet Facebook Share Evernote Clip HELLO CYBERNETICS bookmark 行列

2018 - 06 - 04 活性化関数を特徴空間で見てみた【ニューラルネット基本の基本】 人工知能 人工知能-ディープラーニング Follow @ML_deep SNSでこの記事をシェアする Bookmark! Facebook Twitter Google+ Pocket はじめに 特徴空間でデータの変換を見る データの準備 行列で変換してみる シグモイド活性化関数を通してみる ReLU活性化... 続きを読む

ニューラルネットワークのパラメータ設定方法(scikit-learnのMLPClassifier)

2017/10/19 このエントリーをはてなブックマークに追加 30 users Instapaper Pocket Tweet Facebook Share Evernote Clip ニューラルネットワーク scikit-learn 学習 種類

ニューラルネットワークを作成する際に、層の数、ニューロンの数、活性化関数の種類等考えるべきパラメータは非常に多くあります。 そこで、これらのパラメータがどのようにモデルや学習に影響を与えるかということをscikit-learnの MLPClassifier  を使って解説したいと思います。 MLPClassifierを使うと、非常に簡単にニューラルネットワークを使うことができます。 今回はそれぞれ... 続きを読む

DeepLearning系ライブラリ、Kerasがあまりにも便利だったので使い方メモ - プロクラシスト

2017/01/07 このエントリーをはてなブックマークに追加 468 users Instapaper Pocket Tweet Facebook Share Evernote Clip Keras ニューラルネット プロクラシスト 使い方メモ 練習

2017 - 01 - 07 DeepLearning系ライブラリ、Kerasがあまりにも便利だったので使い方メモ IT/機械学習系 Google+ Pocket スポンサーリンク こんにちは、ほけきよです。 以前練習として、1から ニューラルネット をプログラムで書いたことがあります。 それはそれでデータの流れだとか、活性化関数の働きだとか得るものは多かったのですが、 今回 Keras と言うも... 続きを読む

JavaによるDeep Learningの実装(Dropout + ReLU 編) - Yusuke Sugomori's Blog

2015/08/26 このエントリーをはてなブックマークに追加 35 users Instapaper Pocket Tweet Facebook Share Evernote Clip deeplearning dropout Java ラムダ式

前回のpythonに引き続き、今回はjavaでDropout + ReLUを実装したコードを紹介します。package名は”DeepLearning”としました。下記の4つのファイルで構成されています。・Dropout.java ・HiddenLayer.java ・LogisticRegression.java ・utils.javaReLU以外の活性化関数にも対応できるよう、ラムダ式を用いて”... 続きを読む

 
(1 - 4 / 4件)