paper/

言語モデル

Class-based n-gram models of natural language

n-gram/ interpolated estimation (Jelinek and Mercer, 1980)/ n-gram class model/ 尤度/ Prictical/

http://dl.acm.org/citation.cfm?id=176316

言語モデル 自然言語処理

言語獲得

[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues

概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/

https://arxiv.org/abs/1706.05125

言語獲得 ゲーム

最適化

A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem

重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/

http://epubs.siam.org/doi/abs/10.1137/S0097539704444750

最適化 集合被覆

順序学習

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 wikipedia 順序学習

分類器

Support Vector Machine (SVM)

INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/

http://www.cs.cornell.edu/People/tj/svm_light/#References

機械学習 分類器

Factorization Machines (FMs)

FMs とは何か/ 手法の概要/ $d$-way FM/ SVM との比較/ 行列分解との比較/

http://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

分類器 機械学習

Learning Decision Lists (2001)

notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/

https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf

分類器 機械学習

計算

Combining Monads

論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/

http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps

計算

圏論

Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire

論文リンク/ 概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/

2018-09-08 (Sat.)

プログラミング 圏論

多様体学習

[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction

リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/

https://arxiv.org/abs/1802.03426

多様体学習 次元圧縮

生成モデル

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル

次元圧縮

[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction

リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/

https://arxiv.org/abs/1802.03426

多様体学習 次元圧縮

模擬世界

強化学習

画像認識

活性化関数

ALT

Polynomial time inference of extended regular pattern languages

要旨/ Lemma 1/ Theorem 1/ Lemma 2/ Proposition 1/ 標準形 (canonical form)/ Theorem 6/ Theorem 7/ 部分列 (subsequence)/ Proposition 2/ Theorem 8/

http://link.springer.com/chapter/10.1007/3-540-11980-9_19

ALT 形式言語 パターン

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 復習/ 和積パターン表現の定義/ 定義/ 和積標準形/ 例/ 特徴集合/ 補題 3.2/ 補題 3.3 (補題2.2の上位互換)/ 定理 3.4/ 正例からの帰納学習/ 正提示/ 推論アルゴリズム/ k-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

FAIR

GAN

[1704.02304] Adversarial Generator-Encoder Networks

概要/ links/ Adversarial Generator-Encoder (AGE)/ 半教師アリ学習への適用/

https://arxiv.org/abs/1704.02304

GAN

Improved Techniques for Training GANs

概要/ テクニック/ 半教師あり学習 (画像の分類問題)/

https://arxiv.org/abs/1606.03498

深層学習 GAN

半教師アリ学習

MLP

Multilayer Perceptron Algebra

INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/

https://arxiv.org/abs/1701.04968

MLP 機械学習

MarkovLogic

顔認証

単語分散表現

教師ナシ学習

余帰納法

類似度学習

機械学習

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

Support Vector Machine (SVM)

INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/

http://www.cs.cornell.edu/People/tj/svm_light/#References

機械学習 分類器

Multilayer Perceptron Algebra

INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/

https://arxiv.org/abs/1701.04968

MLP 機械学習

Factorization Machines (FMs)

FMs とは何か/ 手法の概要/ $d$-way FM/ SVM との比較/ 行列分解との比較/

http://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

分類器 機械学習

Learning Decision Lists (2001)

notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/

https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf

分類器 機械学習

x-means法

参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/

http://www.cs.cmu.edu/~dpelleg/download/xmeans.pdf

機械学習 クラスタリング

形式言語

Polynomial time inference of extended regular pattern languages

要旨/ Lemma 1/ Theorem 1/ Lemma 2/ Proposition 1/ 標準形 (canonical form)/ Theorem 6/ Theorem 7/ 部分列 (subsequence)/ Proposition 2/ Theorem 8/

http://link.springer.com/chapter/10.1007/3-540-11980-9_19

ALT 形式言語 パターン

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 復習/ 和積パターン表現の定義/ 定義/ 和積標準形/ 例/ 特徴集合/ 補題 3.2/ 補題 3.3 (補題2.2の上位互換)/ 定理 3.4/ 正例からの帰納学習/ 正提示/ 推論アルゴリズム/ k-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

正則化

物体検出

Virtual Adversarial Training

概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/

https://arxiv.org/abs/1507.00677

物体検出 深層学習

共訓練

sampling

twitter

Exploring Twitter Hashtags

Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/

http://arxiv.org/pdf/1111.6553.pdf

自然言語処理 twitter

極性分析

wikipedia

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 wikipedia 順序学習

アンサンブル学習

イベント検知

推薦システム

オートエンコーダ

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル

読みかけ

クラスタリング

x-means法

参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/

http://www.cs.cmu.edu/~dpelleg/download/xmeans.pdf

機械学習 クラスタリング

ゲーム

[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues

概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/

https://arxiv.org/abs/1706.05125

言語獲得 ゲーム

テキストマイニング

Learning Phrase Patterns for Text Classification

Intro/ 先行研究/ phrase pattern/ learning/ 尺度/ Lemma/ Word shape/ POS/ Named entity (NE)/ LIWC dictionary ($89.95)/ MPQA subjectivity lexicon/ manual/ automatic/ Speaker role/ Alignment move/ Authority claim/ Result/

http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440

自然言語処理 テキストマイニング テキスト分類

テキスト分類

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

Learning Phrase Patterns for Text Classification

Intro/ 先行研究/ phrase pattern/ learning/ 尺度/ Lemma/ Word shape/ POS/ Named entity (NE)/ LIWC dictionary ($89.95)/ MPQA subjectivity lexicon/ manual/ automatic/ Speaker role/ Alignment move/ Authority claim/ Result/

http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440

自然言語処理 テキストマイニング テキスト分類

集合被覆

A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem

重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/

http://epubs.siam.org/doi/abs/10.1137/S0097539704444750

最適化 集合被覆

データ水増し

トピックモデル

埋め込み表現

Poincaré Embeddings for Learning Hierarchical Representations

概要/ 先行研究: Translational/ ポアンカレ空間/ 実験/ 実装/ 感想/

https://arxiv.org/abs/1705.08039

埋め込み表現

ハッシュ

量子計算

パターン

Polynomial time inference of extended regular pattern languages

要旨/ Lemma 1/ Theorem 1/ Lemma 2/ Proposition 1/ 標準形 (canonical form)/ Theorem 6/ Theorem 7/ 部分列 (subsequence)/ Proposition 2/ Theorem 8/

http://link.springer.com/chapter/10.1007/3-540-11980-9_19

ALT 形式言語 パターン

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 復習/ 和積パターン表現の定義/ 定義/ 和積標準形/ 例/ 特徴集合/ 補題 3.2/ 補題 3.3 (補題2.2の上位互換)/ 定理 3.4/ 正例からの帰納学習/ 正提示/ 推論アルゴリズム/ k-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

プログラミング

Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire

論文リンク/ 概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/

2018-09-08 (Sat.)

プログラミング 圏論

距離学習

モデル説明

ランク学習

Learning to Rank (RankNet)

ランク学習 (ランキング学習)/ RankNet [^1]/ 参考文献/

http://icml.cc/2015/wp-content/uploads/2015/06/icml_ranking.pdf

ランク学習

自動獲得

自動着色

自動翻訳

A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records

Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/

http://dl.acm.org/citation.cfm?id=1944600

自然言語処理 自動翻訳

自動要約

自然言語処理

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records

Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/

http://dl.acm.org/citation.cfm?id=1944600

自然言語処理 自動翻訳

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 wikipedia 順序学習

Class-based n-gram models of natural language

n-gram/ interpolated estimation (Jelinek and Mercer, 1980)/ n-gram class model/ 尤度/ Prictical/

http://dl.acm.org/citation.cfm?id=176316

言語モデル 自然言語処理

Learning Phrase Patterns for Text Classification

Intro/ 先行研究/ phrase pattern/ learning/ 尺度/ Lemma/ Word shape/ POS/ Named entity (NE)/ LIWC dictionary ($89.95)/ MPQA subjectivity lexicon/ manual/ automatic/ Speaker role/ Alignment move/ Authority claim/ Result/

http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440

自然言語処理 テキストマイニング テキスト分類

Exploring Twitter Hashtags

Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/

http://arxiv.org/pdf/1111.6553.pdf

自然言語処理 twitter

自然言語生成

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 wikipedia 順序学習

深層学習

Set Transformer

概要/ 集合の学習/ 背景/ Set Transformer/

https://arxiv.org/abs/1810.00825

深層学習

[1806.10909] ResNet with one-neuron hidden layers is a Universal Approximator

概要/ 万能関数近似性/ ResNet の構成/ 証明の概要 (理解する自信ない)/

https://arxiv.org/abs/1806.10909

深層学習

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル

Improved Techniques for Training GANs

概要/ テクニック/ 半教師あり学習 (画像の分類問題)/

https://arxiv.org/abs/1606.03498

深層学習 GAN

Virtual Adversarial Training

概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/

https://arxiv.org/abs/1507.00677

物体検出 深層学習

all papers

Set Transformer

概要/ 集合の学習/ 背景/ Set Transformer/

https://arxiv.org/abs/1810.00825

深層学習

Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire

論文リンク/ 概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/

2018-09-08 (Sat.)

プログラミング 圏論

[1806.10909] ResNet with one-neuron hidden layers is a Universal Approximator

概要/ 万能関数近似性/ ResNet の構成/ 証明の概要 (理解する自信ない)/

https://arxiv.org/abs/1806.10909

深層学習

[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction

リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/

https://arxiv.org/abs/1802.03426

多様体学習 次元圧縮

Poincaré Embeddings for Learning Hierarchical Representations

概要/ 先行研究: Translational/ ポアンカレ空間/ 実験/ 実装/ 感想/

https://arxiv.org/abs/1705.08039

埋め込み表現

Variational Autoencoders (VAEs)

index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/

https://arxiv.org/abs/1606.05908

深層学習 オートエンコーダ 生成モデル

[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues

概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/

https://arxiv.org/abs/1706.05125

言語獲得 ゲーム

Learning to Rank (RankNet)

ランク学習 (ランキング学習)/ RankNet [^1]/ 参考文献/

http://icml.cc/2015/wp-content/uploads/2015/06/icml_ranking.pdf

ランク学習

[1704.02304] Adversarial Generator-Encoder Networks

概要/ links/ Adversarial Generator-Encoder (AGE)/ 半教師アリ学習への適用/

https://arxiv.org/abs/1704.02304

GAN

Using Maximum Entropy for Text Classification

最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/

http://www.kamalnigam.com/papers/maxent-ijcaiws99.pdf

自然言語処理 機械学習 テキスト分類

Combining Monads

論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/

http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps

計算

Support Vector Machine (SVM)

INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/

http://www.cs.cornell.edu/People/tj/svm_light/#References

機械学習 分類器

Multilayer Perceptron Algebra

INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/

https://arxiv.org/abs/1701.04968

MLP 機械学習

Improved Techniques for Training GANs

概要/ テクニック/ 半教師あり学習 (画像の分類問題)/

https://arxiv.org/abs/1606.03498

深層学習 GAN

Virtual Adversarial Training

概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/

https://arxiv.org/abs/1507.00677

物体検出 深層学習

Factorization Machines (FMs)

FMs とは何か/ 手法の概要/ $d$-way FM/ SVM との比較/ 行列分解との比較/

http://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

分類器 機械学習

A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records

Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/

http://dl.acm.org/citation.cfm?id=1944600

自然言語処理 自動翻訳

Learning Decision Lists (2001)

notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/

https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf

分類器 機械学習

A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem

重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/

http://epubs.siam.org/doi/abs/10.1137/S0097539704444750

最適化 集合被覆

Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)

Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/

http://www.aclweb.org/anthology/P09-1024

自然言語処理 自然言語生成 wikipedia 順序学習

x-means法

参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/

http://www.cs.cmu.edu/~dpelleg/download/xmeans.pdf

機械学習 クラスタリング

Polynomial time inference of extended regular pattern languages

要旨/ Lemma 1/ Theorem 1/ Lemma 2/ Proposition 1/ 標準形 (canonical form)/ Theorem 6/ Theorem 7/ 部分列 (subsequence)/ Proposition 2/ Theorem 8/

http://link.springer.com/chapter/10.1007/3-540-11980-9_19

ALT 形式言語 パターン

正規パターン言語の和と共通部分の帰納学習

導入 (先に学ぶべきことリスト)/ 復習/ 和積パターン表現の定義/ 定義/ 和積標準形/ 例/ 特徴集合/ 補題 3.2/ 補題 3.3 (補題2.2の上位互換)/ 定理 3.4/ 正例からの帰納学習/ 正提示/ 推論アルゴリズム/ k-和積言語の学習/

http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf

ALT パターン 形式言語

Class-based n-gram models of natural language

n-gram/ interpolated estimation (Jelinek and Mercer, 1980)/ n-gram class model/ 尤度/ Prictical/

http://dl.acm.org/citation.cfm?id=176316

言語モデル 自然言語処理

Learning Phrase Patterns for Text Classification

Intro/ 先行研究/ phrase pattern/ learning/ 尺度/ Lemma/ Word shape/ POS/ Named entity (NE)/ LIWC dictionary ($89.95)/ MPQA subjectivity lexicon/ manual/ automatic/ Speaker role/ Alignment move/ Authority claim/ Result/

http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440

自然言語処理 テキストマイニング テキスト分類

Exploring Twitter Hashtags

Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/

http://arxiv.org/pdf/1111.6553.pdf

自然言語処理 twitter