タグ kisa12012
人気順 10 users 50 users 100 users 500 users 1000 users機械学習界隈の情報収集方法 - kisa12012の日記
こんにちは.Machine Learning Advent Calendar (MLAC) 2013の14日目を担当します,[twitter:@kisa12012]です.普段は博士学生として,各地を放浪しながら機械学習の研究をしてます.今回の記事はボストンで執筆しています.現地時間(EST)での締切は守ったのでセーフ…ですよね? 本日は機械学習の技術的な内容の話ではな... 続きを読む
MachineLearning - 機械学習や統計に関する情報収集 - Qiita
機械学習界隈の情報収集方法 http://d.hatena.ne.jp/kisa12012/20131215/1387082769 いきなりですが上記の記事に機械学習に関する有力な情報源がまとまっています。まずはここを参考にするのが良いかと思います。ただ情報が多すぎですので、筆者は Wikicfp と arXiv.org あたりの論文、それにはてなブックマークをチェックしています。 また論文につい... 続きを読む
機械学習界隈の情報収集方法 - kisa12012の日記
こんにちは.Machine Learning Advent Calendar (MLAC) 2013の14日目を担当します,@kisa12012です.普段は博士学生として,各地を放浪しながら機械学習の研究をしてます.今回の記事はボストンで執筆しています.現地時間(EST)での締切は守ったのでセーフ…ですよね?本日は機械学習の技術的な内容の話ではなく,筆者が実践している機械学習関連の情報収集方法につ... 続きを読む
確率的勾配降下法+α の話をしました - kisa12012の日記
先日PFIセミナーにて,「SGD+α: 確率的勾配降下法の現在と未来」というタイトルで発表をしました!発表の機会を設定して頂いたPFIの皆様,ありがとうございます.スライドは以下になります. SGD+α: 確率的勾配降下法の現在と未来 from Hidekazu Oiwa確率的勾配降下法(SGD)はシンプルで大規模データから”そこそこの”解を得るには非常に有効なアルゴリズムです.一度自分で実装して... 続きを読む
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来 Presentation Transcript 2013/10/17 PFIセミナー SGD+α 確率的勾配降下法の現在と未来 東京大学 情報理工学系研究科 大岩 秀和 / @kisa12012 自己紹介 •大岩 秀和 (a.k.a. @kisa12012) •所属: 東大 数理情報 D2 (中川研) •研究: 機械学習・言語処理 •オンライン学習/確率... 続きを読む
研究の参考にしているサイト集 - kisa12012の日記
自分のメモ書きとして,たびたび論文執筆やプレゼン時に参考にしているサイトを以下にまとめてみました. 自身の研究分野である,コンピュータサイエンスや人工知能分野に関連する資料が多めです. 他に参考となる有用なサイトをご存知の方がいらっしゃれば,コメント等で教えて頂けると筆者が喜びます!English Check Manual東大,牧島先生の作成した英字論文執筆/校正のためのチェックマニュアル. 英字... 続きを読む
ICML2012読み会で発表しました && SVMの性能をガタ落ちさせるためには - kisa12012の日記
本日サイボウズラボさんの会場で開催されたICML2012読み会に発表者として参加しました.主催者のnokunoさん,会場係のshuyoさん,また参加者の皆様,ありがとうございました!非常に勉強になりました.今回発表したのは,Poisoning Attacks against Support Vector Machines (Biggio+) です. 発表資料 PoisoningAttackSVM ... 続きを読む
Exact Soft Confidence-Weighted Learning (ICML2012) 読んだ - kisa12012の日記
概要オンラインでの分類学習の世界では,CWが非常に強力なアルゴリズムとして注目されています.特に,その圧倒的な分類精度及び収束速度は圧巻の一言であり,自然言語処理を中心に様々な分野で応用例や派生アルゴリズムが提案されています*1.一方で,ノイズデータのが混入していた場合に精度がガタ落ちする性質がCWの重大な欠点として多くの人から指摘されていました.ノイズが予め取り除かれている実験設定ならば良いので... 続きを読む
Twitterの被RT数を増やすには - kisa12012の日記
研究恒例の現実(論文)から逃避するためのブログ執筆です.WWW2011のBest Poster Awardを受賞した”Predicting Popular Messages in Twitter” [Hong+, 2011] を読んだのでそのメモを書き留めます.結果から言ってしまうと,Follower数を多くすればいいよ!被RT数を多くすればいいよ!あなたが超有名人じゃなければ,その時々の流れに乗... 続きを読む
Gmail優先トレイ論文メモ - kisa12012の日記
研究元論文“The Learning Behind Gmail Priority Inbox”, Douglas Aberdeen, Ondrey Pacovsky, Andrew Slater, LCCC : NIPS 2010 Workshop on Learning on Cores, Clusters and Clouds.http://research.google.com/pubs/a... 続きを読む