はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ 線形回帰モデル

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 6 / 6件)
 

統計学で用いる行列演算の小技 - Qiita

2024/05/24 このエントリーをはてなブックマークに追加 30 users Instapaper Pocket Tweet Facebook Share Evernote Clip Qiita 行列演算 統計学 行列 株式会社Nospare

はじめに 千葉大学・株式会社Nospareの川久保です.今回は,統計学(特に多変量解析)で多く出てくる行列演算の小技集を,線形回帰モデルにおける簡単な実用例を交えて紹介します. 転置に関する公式 行列の転置とは,$(i,j)$要素を$(j,i)$要素に入れ替えることです.$m$行$n$列の行列$A$の$(i,j)$要素を$a_{ij} \ (i=1,... 続きを読む

プロでもよくある線形回帰モデルの間違い - Qiita

2022/08/15 このエントリーをはてなブックマークに追加 15 users Instapaper Pocket Tweet Facebook Share Evernote Clip データサイエンス 不足 Qiita 解説 解説記事

最近、データサイエンスが流行っていることもあり、線形回帰モデルについても解説記事を見かけることが多くなりました。情報にアクセスしやすくなったのはいいことだと思うんですが、ずっと以前から間違いや解説の不足が多い理論なので、私なりに解説を試みたいと思います。全体的にあまり厳密ではありませんが、線形回... 続きを読む

決定係数について - Qiita

2022/01/28 このエントリーをはてなブックマークに追加 16 users Instapaper Pocket Tweet Facebook Share Evernote Clip Qiita Nospare ベクトル パラメータ 行列

はじめに 千葉大学/Nospareの米倉です.今回は決定係数について解説したいと思います. 決定係数とは まずは次のような線形回帰モデルを考えます, $$y=X\beta+\epsilon.$$ ここで$y,X,\beta$はそれぞれ,$n$次元の被説明変数のベクトル,$X$は説明変数ベクトルからなる$n\times d$の行列,$\beta$は$d$次元のパラメータ... 続きを読む

Pythonで理解するディープラーニング入門 - Speaker Deck

2019/10/10 このエントリーをはてなブックマークに追加 331 users Instapaper Pocket Tweet Facebook Share Evernote Clip Python Speaker Deck コーディング 題材

ディープラーニングの仕組みを理解するための一番のポイントは「損失関数」と「勾配降下法」の考え方です。本講演では、線形回帰モデルを題材に、この2つの考え方についてPythonのコーディングも含めた形で説明します。講演者の著作「最短コースでわかるディープラーニングの数学」からエッセンスをお届けします。 続きを読む

【書籍紹介】ガウス過程と機械学習 - HELLO CYBERNETICS

2019/03/25 このエントリーをはてなブックマークに追加 15 users Instapaper Pocket Tweet Facebook Share Evernote Clip ガウス過程 ガウス分布 HELLO CYBERNETICS

はじめに 目次とコメント 0章 たった5分でガウス過程が分かってしまう 1章 線形回帰モデル 2章 ガウス分布 3章 ガウス過程 4章 確率的生成モデルとガウス過程 5章 ガウス過程の計算法 6章 ガウス過程の適用 7章 ガウス過程による教師なし学習 ガウス過程のライブラリ GPy GPyTorch GPflow はじめに 既に機械学習界隈の... 続きを読む

高次元データに対するL1正則化の有効性|内場 崇之|note

2018/12/17 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip 数理 変数 高次元データ 個数 有効性

Introduction高次元データでの回帰問題に対して、線形回帰モデルのL1正則化(Lasso回帰)の有効性は広く知られているところです。この有効性の理由は数理統計的な側面からも理解が進んで来ました。代表的な結果の1つに、Lasso回帰の 変数の個数に対して必要なサンプルサイズは対数的にしか増加しない。と言う性質が挙げ... 続きを読む

 
(1 - 6 / 6件)