paper/

ALT

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

FAIR

[2011.10566] Exploring Simple Siamese Representation Learning

概要/ 手法/ 実験/ 仮説: SimSiam は EM アルゴリズムになってる/

https://arxiv.org/abs/2011.10566

自己教師アリ学習 FAIR

GAN

[2111.01007] Projected GANs Converge Faster

概要/ 参考/ Multi-Scale Disciminators + Random Projections/ "Floating Heads"/

https://arxiv.org/abs/2111.01007

GAN

[1704.02304] Adversarial Generator-Encoder Networks

概要/ links/ Adversarial Generator-Encoder (AGE)/ 半教師アリ学習への適用/

https://arxiv.org/abs/1704.02304

GAN

Improved Techniques for Training GANs

概要/ テクニック/ 半教師あり学習 (画像の分類問題)/

https://arxiv.org/abs/1606.03498

深層学習 GAN

Google

Values of User Exploration in Recommender Systems

参考文献/ 概要/ 背景: 強化学習による推薦システム/ 手法/ 評価指標/ オフライン実験評価/

https://dl.acm.org/doi/10.1145/3460231.3474236

推薦システム Google

MarkovLogic

Netflix

twitter

Exploring Twitter Hashtags

Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/

http://arxiv.org/pdf/1111.6553.pdf

自然言語処理 twitter

VAE

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル VAE

アンサンブル学習

イベント検知

オートエンコーダ

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル VAE

オートマトン

クラスタリング

x-means法

参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/

http://www.cs.cmu.edu/~dpelleg/download/xmeans.pdf

機械学習 クラスタリング

グラフ学習

[1810.05997] Predict then Propagate: Graph Neural Networks meet Personalized PageRank

オリジナル PageRank (1998)/ Personalized PageRank (1998)/ Personalized Propagation of Neural Predictions (PPNP)/ Approximate PPNP (APPNP)/

https://arxiv.org/abs/1810.05997

深層学習 グラフ学習

ゲーム

[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues

概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/

https://arxiv.org/abs/1706.05125

言語獲得 ゲーム

データセット

データ水増し

テキストマイニング

テキスト分類

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

トピックモデル

パターン

消去可能正規パターン言語は推論可能: "Polynomial Time Inference of Extended Regular Pattern Languages"

概要/ 消去可能正規パターン言語/ 正規パターン言語クラスは有限の厚みを持つ/ 正規パターン言語の極小言語戦略/

https://link.springer.com/chapter/10.1007/3-540-11980-9_19

形式言語 パターン

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

ハッシュ

モデル説明

代数

Multilayer Perceptron Algebra

INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/

https://arxiv.org/abs/1701.04968

深層学習 代数

余帰納法

共訓練

分類器

Support Vector Machine (SVM)

INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/

http://www.cs.cornell.edu/People/tj/svm_light/#References

機械学習 分類器

Factorization Machines (FMs)

FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/

http://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

分類器 機械学習 推薦システム

Learning Decision Lists (2001)

notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/

https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf

分類器 機械学習

半教師アリ学習

単語分散表現

圏論

Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire

概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/

https://maartenfokkinga.github.io/utwente/mmf91m.pdf

計算 圏論

Combining Monads

論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/

http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps

計算 圏論

埋め込み表現

Local Ordinal Embedding

概要/ イントロ/ Soft Ordinal Embedding; SOE/ Local Ordinal Embedding; LOE/ LOE の実験/ 感想/

http://www.tml.cs.uni-tuebingen.de/team/luxburg/publications/TeradaLuxburg_ICML2014.pdf

埋め込み表現 多様体学習

Poincaré Embeddings for Learning Hierarchical Representations

概要/ 先行研究: Translational/ ポアンカレ空間/ 実験/ 実装/ 感想/

https://arxiv.org/abs/1705.08039

埋め込み表現

多様体学習

Local Ordinal Embedding

概要/ イントロ/ Soft Ordinal Embedding; SOE/ Local Ordinal Embedding; LOE/ LOE の実験/ 感想/

http://www.tml.cs.uni-tuebingen.de/team/luxburg/publications/TeradaLuxburg_ICML2014.pdf

埋め込み表現 多様体学習

[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction

リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/

https://arxiv.org/abs/1802.03426

多様体学習 次元圧縮

多腕バンディット問題

強化学習

形式言語

消去可能正規パターン言語は推論可能: "Polynomial Time Inference of Extended Regular Pattern Languages"

概要/ 消去可能正規パターン言語/ 正規パターン言語クラスは有限の厚みを持つ/ 正規パターン言語の極小言語戦略/

https://link.springer.com/chapter/10.1007/3-540-11980-9_19

形式言語 パターン

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

感情分析

SemEval-2018 Task 3: Irony detection in English tweets

[IIIDYT at SemEval-2018 Task 3: Irony detection in English tweets](http://aclweb.org/anthology/S18-1087)/ [SemEval-2018 Task 3: Irony Detection in English Tweets](http://aclweb.org/anthology/S18-1005)/

https://competitions.codalab.org/competitions/17468#learn_the_details

自然言語処理 感情分析

推薦システム

[2208.09864] Towards Principled User-side Recommender Systems

概要/ 記法/ 問題設定/ 特徴量の復元/ Design Principles/ 提案手法, Consul/ 感想/

https://arxiv.org/abs/2208.09864

推薦システム

Values of User Exploration in Recommender Systems

参考文献/ 概要/ 背景: 強化学習による推薦システム/ 手法/ 評価指標/ オフライン実験評価/

https://dl.acm.org/doi/10.1145/3460231.3474236

推薦システム Google

Latent Linear Critiquing for Conversational Recommender Systems

Critiquing (批評)/ Notation/ Projected Linear Recommendation (PLRec)/ Conversational Critiquing/ 疲れた。続きはいつか読む。/

https://dl.acm.org/doi/10.1145/3366423.3380003

推薦システム

Factorization Machines (FMs)

FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/

http://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

分類器 機械学習 推薦システム

教師ナシ学習

文分散表現

最適化

A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem

重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/

http://epubs.siam.org/doi/abs/10.1137/S0097539704444750

最適化 集合被覆

極性分析

模擬世界

機械学習

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

Support Vector Machine (SVM)

INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/

http://www.cs.cornell.edu/People/tj/svm_light/#References

機械学習 分類器

Factorization Machines (FMs)

FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/

http://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

分類器 機械学習 推薦システム

Learning Decision Lists (2001)

notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/

https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf

分類器 機械学習

x-means法

参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/

http://www.cs.cmu.edu/~dpelleg/download/xmeans.pdf

機械学習 クラスタリング

次元圧縮

[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction

リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/

https://arxiv.org/abs/1802.03426

多様体学習 次元圧縮

正則化

活性化関数

深層学習

[1810.05997] Predict then Propagate: Graph Neural Networks meet Personalized PageRank

オリジナル PageRank (1998)/ Personalized PageRank (1998)/ Personalized Propagation of Neural Predictions (PPNP)/ Approximate PPNP (APPNP)/

https://arxiv.org/abs/1810.05997

深層学習 グラフ学習

[2003.08063] Stable Neural Flows

Python ライブラリ/ 関連/ 概要/ DNN -> Flow/ Neural Flows/ 機械学習への適用/

https://arxiv.org/abs/2003.08063

深層学習

[1811.00995] Invertible Residual Networks

ResNet の形式化/ リプシッツ連続なResNetの構成/ 生成モデル/

https://arxiv.org/abs/1811.00995

深層学習

Set Transformer

概要/ 集合の学習/ 背景/ Set Transformer/

https://arxiv.org/abs/1810.00825

深層学習 集合学習

[1806.10909] ResNet with one-neuron hidden layers is a Universal Approximator

概要/ 万能関数近似性/ ResNet の構成/ 証明の概要 (理解する自信ない)/

https://arxiv.org/abs/1806.10909

深層学習

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル VAE

Multilayer Perceptron Algebra

INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/

https://arxiv.org/abs/1701.04968

深層学習 代数

Improved Techniques for Training GANs

概要/ テクニック/ 半教師あり学習 (画像の分類問題)/

https://arxiv.org/abs/1606.03498

深層学習 GAN

Virtual Adversarial Training

概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/

https://arxiv.org/abs/1507.00677

物体検出 深層学習

物体検出

Virtual Adversarial Training

概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/

https://arxiv.org/abs/1507.00677

物体検出 深層学習

生成モデル

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル VAE

画像生成

画像認識

異常検出

自動獲得

自動着色

自動翻訳

A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records

Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/

http://dl.acm.org/citation.cfm?id=1944600

自然言語処理 自動翻訳

自動要約

自己教師アリ学習

[2011.10566] Exploring Simple Siamese Representation Learning

概要/ 手法/ 実験/ 仮説: SimSiam は EM アルゴリズムになってる/

https://arxiv.org/abs/2011.10566

自己教師アリ学習 FAIR

自然言語処理

SemEval-2018 Task 3: Irony detection in English tweets

[IIIDYT at SemEval-2018 Task 3: Irony detection in English tweets](http://aclweb.org/anthology/S18-1087)/ [SemEval-2018 Task 3: Irony Detection in English Tweets](http://aclweb.org/anthology/S18-1005)/

https://competitions.codalab.org/competitions/17468#learn_the_details

自然言語処理 感情分析

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records

Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/

http://dl.acm.org/citation.cfm?id=1944600

自然言語処理 自動翻訳

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 順序学習

Exploring Twitter Hashtags

Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/

http://arxiv.org/pdf/1111.6553.pdf

自然言語処理 twitter

自然言語生成

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 順序学習

行列分解

[1603.05572] Supervised Matrix Factorization for Cross-Modality Hashing

Abstract/ Non-negative Matrix Factorization; NMF/ クロスモーダル/ Supervised Hash Function/

https://arxiv.org/abs/1603.05572

行列分解

言語モデル

言語横断

言語獲得

[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues

概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/

https://arxiv.org/abs/1706.05125

言語獲得 ゲーム

計算

Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire

概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/

https://maartenfokkinga.github.io/utwente/mmf91m.pdf

計算 圏論

Combining Monads

論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/

http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps

計算 圏論

読みかけ

距離学習

[1804.06655] Deep Face Recognition: A Survey

概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/

https://arxiv.org/abs/1804.06655

顔認証 距離学習 類似度学習

近傍探索

量子計算

集合学習

Set Transformer

概要/ 集合の学習/ 背景/ Set Transformer/

https://arxiv.org/abs/1810.00825

深層学習 集合学習

集合被覆

A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem

重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/

http://epubs.siam.org/doi/abs/10.1137/S0097539704444750

最適化 集合被覆

順序学習

Learning to Rank (RankNet)

ランク学習 (ランキング学習)/ RankNet [^1]/ 参考文献/

http://icml.cc/2015/wp-content/uploads/2015/06/icml_ranking.pdf

順序学習

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 順序学習

顔認証

[1804.06655] Deep Face Recognition: A Survey

概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/

https://arxiv.org/abs/1804.06655

顔認証 距離学習 類似度学習

類似度学習

[1804.06655] Deep Face Recognition: A Survey

概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/

https://arxiv.org/abs/1804.06655

顔認証 距離学習 類似度学習

all papers

[1603.05572] Supervised Matrix Factorization for Cross-Modality Hashing

Abstract/ Non-negative Matrix Factorization; NMF/ クロスモーダル/ Supervised Hash Function/

https://arxiv.org/abs/1603.05572

行列分解

Local Ordinal Embedding

概要/ イントロ/ Soft Ordinal Embedding; SOE/ Local Ordinal Embedding; LOE/ LOE の実験/ 感想/

http://www.tml.cs.uni-tuebingen.de/team/luxburg/publications/TeradaLuxburg_ICML2014.pdf

埋め込み表現 多様体学習

[2208.09864] Towards Principled User-side Recommender Systems

概要/ 記法/ 問題設定/ 特徴量の復元/ Design Principles/ 提案手法, Consul/ 感想/

https://arxiv.org/abs/2208.09864

推薦システム

Values of User Exploration in Recommender Systems

参考文献/ 概要/ 背景: 強化学習による推薦システム/ 手法/ 評価指標/ オフライン実験評価/

https://dl.acm.org/doi/10.1145/3460231.3474236

推薦システム Google

[2011.10566] Exploring Simple Siamese Representation Learning

概要/ 手法/ 実験/ 仮説: SimSiam は EM アルゴリズムになってる/

https://arxiv.org/abs/2011.10566

自己教師アリ学習 FAIR

[2111.01007] Projected GANs Converge Faster

概要/ 参考/ Multi-Scale Disciminators + Random Projections/ "Floating Heads"/

https://arxiv.org/abs/2111.01007

GAN

[1810.05997] Predict then Propagate: Graph Neural Networks meet Personalized PageRank

オリジナル PageRank (1998)/ Personalized PageRank (1998)/ Personalized Propagation of Neural Predictions (PPNP)/ Approximate PPNP (APPNP)/

https://arxiv.org/abs/1810.05997

深層学習 グラフ学習

[2003.08063] Stable Neural Flows

Python ライブラリ/ 関連/ 概要/ DNN -> Flow/ Neural Flows/ 機械学習への適用/

https://arxiv.org/abs/2003.08063

深層学習

Latent Linear Critiquing for Conversational Recommender Systems

Critiquing (批評)/ Notation/ Projected Linear Recommendation (PLRec)/ Conversational Critiquing/ 疲れた。続きはいつか読む。/

https://dl.acm.org/doi/10.1145/3366423.3380003

推薦システム

消去可能正規パターン言語は推論可能: "Polynomial Time Inference of Extended Regular Pattern Languages"

概要/ 消去可能正規パターン言語/ 正規パターン言語クラスは有限の厚みを持つ/ 正規パターン言語の極小言語戦略/

https://link.springer.com/chapter/10.1007/3-540-11980-9_19

形式言語 パターン

[1811.00995] Invertible Residual Networks

ResNet の形式化/ リプシッツ連続なResNetの構成/ 生成モデル/

https://arxiv.org/abs/1811.00995

深層学習

[1804.06655] Deep Face Recognition: A Survey

概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/

https://arxiv.org/abs/1804.06655

顔認証 距離学習 類似度学習

SemEval-2018 Task 3: Irony detection in English tweets

[IIIDYT at SemEval-2018 Task 3: Irony detection in English tweets](http://aclweb.org/anthology/S18-1087)/ [SemEval-2018 Task 3: Irony Detection in English Tweets](http://aclweb.org/anthology/S18-1005)/

https://competitions.codalab.org/competitions/17468#learn_the_details

自然言語処理 感情分析

Set Transformer

概要/ 集合の学習/ 背景/ Set Transformer/

https://arxiv.org/abs/1810.00825

深層学習 集合学習

Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire

概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/

https://maartenfokkinga.github.io/utwente/mmf91m.pdf

計算 圏論

[1806.10909] ResNet with one-neuron hidden layers is a Universal Approximator

概要/ 万能関数近似性/ ResNet の構成/ 証明の概要 (理解する自信ない)/

https://arxiv.org/abs/1806.10909

深層学習

[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction

リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/

https://arxiv.org/abs/1802.03426

多様体学習 次元圧縮

Poincaré Embeddings for Learning Hierarchical Representations

概要/ 先行研究: Translational/ ポアンカレ空間/ 実験/ 実装/ 感想/

https://arxiv.org/abs/1705.08039

埋め込み表現

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル VAE

[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues

概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/

https://arxiv.org/abs/1706.05125

言語獲得 ゲーム

Learning to Rank (RankNet)

ランク学習 (ランキング学習)/ RankNet [^1]/ 参考文献/

http://icml.cc/2015/wp-content/uploads/2015/06/icml_ranking.pdf

順序学習

[1704.02304] Adversarial Generator-Encoder Networks

概要/ links/ Adversarial Generator-Encoder (AGE)/ 半教師アリ学習への適用/

https://arxiv.org/abs/1704.02304

GAN

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

Combining Monads

論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/

http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps

計算 圏論

Support Vector Machine (SVM)

INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/

http://www.cs.cornell.edu/People/tj/svm_light/#References

機械学習 分類器

Multilayer Perceptron Algebra

INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/

https://arxiv.org/abs/1701.04968

深層学習 代数

Improved Techniques for Training GANs

概要/ テクニック/ 半教師あり学習 (画像の分類問題)/

https://arxiv.org/abs/1606.03498

深層学習 GAN

Virtual Adversarial Training

概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/

https://arxiv.org/abs/1507.00677

物体検出 深層学習

Factorization Machines (FMs)

FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/

http://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

分類器 機械学習 推薦システム

A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records

Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/

http://dl.acm.org/citation.cfm?id=1944600

自然言語処理 自動翻訳

Learning Decision Lists (2001)

notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/

https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf

分類器 機械学習

A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem

重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/

http://epubs.siam.org/doi/abs/10.1137/S0097539704444750

最適化 集合被覆

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 順序学習

x-means法

参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/

http://www.cs.cmu.edu/~dpelleg/download/xmeans.pdf

機械学習 クラスタリング

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

Exploring Twitter Hashtags

Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/

http://arxiv.org/pdf/1111.6553.pdf

自然言語処理 twitter