Introduction/ Relational Patterns/
Introduction/ Relational Patterns/
導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/
http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf
[2011.10566] Exploring Simple Siamese Representation Learning
概要/ 手法/ 実験/ 仮説: SimSiam は EM アルゴリズムになってる/
[2111.06849] Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited Data
概要/ APA; Adaptive Pseudo Augmentation/
概要/ 参考/ Multi-Scale Disciminators + Random Projections/ "Floating Heads"/
概要/ links/ Adversarial Generator-Encoder (AGE)/ 半教師アリ学習への適用/
概要/ あらまし/ Triplet Training with GAN/
概要/ テクニック/ 半教師あり学習 (画像の分類問題)/
参考文献/ 概要/ 背景: 強化学習による推薦システム/ 手法/ 評価指標/ オフライン実験評価/
概要/ 考察/ Markov Logic による極性判定の形式化/ 実験/ 感想/
Negative Interactions for Improved Collaborative Filtering: Don’t go Deeper, go Higher
概要/ Review: Pair-wise Model/ Higher-Order Model/ HOSLIM との比較/ 実験/
リンク/ 関連??/ Hyperspherical VAE/
[1807.06358] IntroVAE: Introspective Variational Autoencoders for Photographic Image Synthesis
概要/ IntroVAE/ Results/
リンク/ 概要/ vMF 分布/ vMF VAE/
index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/
FSD/ Introduction/ 既存研究/ アプローチ/ 新規性/ Experiments/
Introduction/ 質の高さ/ タスク/ コーパス/ フィルタリング/ 文の点数/ Result/
Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/
INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/
Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire
概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/
論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/
http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps
Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire
概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/
論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/
http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps
[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues
概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/
概要/ DAC/ Lemma 2/
Learning Confidence for Out-of-Distribution Detection in Neural Networks
リンク/ 概要/ Confidence Estimation/
概要/ downsampling/ bagging/
https://pdfs.semanticscholar.org/a8ef/5a810099178b70d1490a4e6fc4426b642cde.pdf
[1605.06955] Semi-Supervised Classification Based on Classification from Positive and Unlabeled Data
リンク/ 概要/ Background/ 提案される半教師アリ学習/ 解析/
概要/ 実装/ FFMs/ パラメータ数、計算量/
INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/
FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/
notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/
https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf
[2010.01412] Sharpness-Aware Minimization for Efficiently Improving Generalization
概要/ 復習/ Theorem 1/ SAM/
links/ 概要/ Algorithm/
Illustration/ 定理/
http://www.jstor.org/stable/3689577?seq=1#page_scan_tab_contents
A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem
重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/
[1810.12890] DropBlock: A regularization method for convolutional networks
概要/ 関連/ DropBlock/ 実験/
[1708.04552] Improved Regularization of Convolutional Neural Networks with Cutout
概要/ 実装/ 類似提案 ([1708.04896] Random Erasing Data Augmentation)/ 参考/
概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/
Deep Learning Face Representation from Predicting 10,000 Classes (DeepID)
概要/ 手法/ Verification/ 感想/
FSD/ Introduction/ 既存研究/ アプローチ/ 新規性/ Experiments/
概要/ パターン和言語/ パターン和言語の極小言語/
http://www-ikn.ist.hokudai.ac.jp/~arim/papers/arimura_stacs94.pdf
消去可能正規パターン言語は推論可能: "Polynomial Time Inference of Extended Regular Pattern Languages"
概要/ 消去可能正規パターン言語/ 正規パターン言語クラスは有限の厚みを持つ/ 正規パターン言語の極小言語戦略/
Introduction/ Relational Patterns/
導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/
http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf
Introduction/ Coinductive Datatypes/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.252.3961
概要/ Basic Ideas/
タスクの概要/ ソースコード/ SCONE dataset/ モデル/
概要/ パターン和言語/ パターン和言語の極小言語/
http://www-ikn.ist.hokudai.ac.jp/~arim/papers/arimura_stacs94.pdf
消去可能正規パターン言語は推論可能: "Polynomial Time Inference of Extended Regular Pattern Languages"
概要/ 消去可能正規パターン言語/ 正規パターン言語クラスは有限の厚みを持つ/ 正規パターン言語の極小言語戦略/
Introduction/ Relational Patterns/
導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/
http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf
[IIIDYT at SemEval-2018 Task 3: Irony detection in English tweets](http://aclweb.org/anthology/S18-1087)/ [SemEval-2018 Task 3: Irony Detection in English Tweets](http://aclweb.org/anthology/S18-1005)/
https://competitions.codalab.org/competitions/17468#learn_the_details
概要/ 手法/ 結果/
手法/ Data/ 分類/ baseline/
http://www.aaai.org/ocs/index.php/ICWSM/ICWSM10/paper/viewFile/1495/1851/
概要/ 考察/ Markov Logic による極性判定の形式化/ 実験/ 感想/
タスクの概要/ ソースコード/ SCONE dataset/ モデル/
概要/ DAC/ Lemma 2/
Learning Confidence for Out-of-Distribution Detection in Neural Networks
リンク/ 概要/ Confidence Estimation/
概要/ 実装/ FFMs/ パラメータ数、計算量/
最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/
INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/
リンク/ model explanation とは/ 局所性/ agnostic/ LIME/
FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/
notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/
https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf
Efficient k-Nearest Neighbor Graph Construction for Generic Similarity Measures
概要/ 実装/ 解説スライド/ 参考/
参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/
概要/ Matryoshka Representation Learning/ 結果/
[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction
リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/
[2402.17764] The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
概要/ BitNet b1.58/ 結果/
[2307.08621] Retentive Network: A Successor to Transformer for Large Language Models
概要/ 良さ/ Transformer との性能比較/ Retentive Network (RetNet)/
[1912.11160] RecVAE: a New Variational Autoencoder for Top-N Recommendations with Implicit Feedback
流れ/ Background/ RecVAE/ 実験/
[1810.05997] Predict then Propagate: Graph Neural Networks meet Personalized PageRank
オリジナル PageRank (1998)/ Personalized PageRank (1998)/ Personalized Propagation of Neural Predictions (PPNP)/ Approximate PPNP (APPNP)/
[2010.01412] Sharpness-Aware Minimization for Efficiently Improving Generalization
概要/ 復習/ Theorem 1/ SAM/
概要/ ReLU 族/ 性能/
Python ライブラリ/ 関連/ 概要/ DNN -> Flow/ Neural Flows/ 機械学習への適用/
[2002.00585] Proving the Lottery Ticket Hypothesis: Pruning is All You Need
概要/ 部分 NN の構成/ 実験/
概要/ SVM/ GAN/ 一般化(?) SVM/ GAN との関連/
ResNet の形式化/ リプシッツ連続なResNetの構成/ 生成モデル/
リンク/ 関連??/ Hyperspherical VAE/
[1807.06358] IntroVAE: Introspective Variational Autoencoders for Photographic Image Synthesis
概要/ IntroVAE/ Results/
概要/ DAC/ Lemma 2/
Learning Implicitly Recurrent CNNs Through Parameter Sharing
概要/ Soft Parameter Sharing/
[1707.05589] On the State of the Art of Evaluation in Neural Language Models
概要/ Models/ Dataset/ Training/ Evaluation/ Results/
[1810.12890] DropBlock: A regularization method for convolutional networks
概要/ 関連/ DropBlock/ 実験/
リンク/ 概要/ SE Module/
Learning Confidence for Out-of-Distribution Detection in Neural Networks
リンク/ 概要/ Confidence Estimation/
Deep contextualized word reprensetations (Embedding from Language Models; ELMo)
概要/ Bidirectional Language Model (biLM)/ ELMo/
概要/ 集合の学習/ 背景/ Set Transformer/
リンク/ 概要/ vMF 分布/ vMF VAE/
概要/ 提案/ Examples/
[1806.10909] ResNet with one-neuron hidden layers is a Universal Approximator
概要/ 万能関数近似性/ ResNet の構成/ 証明の概要 (理解する自信ない)/
[1710.03282] Checkpoint Ensembles: Ensemble Methods from a Single Training Process
概要/ 既存手法/ 提案手法/ 実験/
[1806.05236] Manifold Mixup: Encouraging Meaningful On-Manifold Interpolation as a Regularizer
概要/ 手法/ 実験/
概要/ Github/ 手法/ 結果/
概要/ Basic Ideas/
index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/
[1708.04552] Improved Regularization of Convolutional Neural Networks with Cutout
概要/ 実装/ 類似提案 ([1708.04896] Random Erasing Data Augmentation)/ 参考/
概要/ アイデア/ 実験/
[1704.06904] Residual Attention Network for Image Classification
概要/ 手法 - attention learning/
[1406.4729] Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
概要/ SPP-layer/ 参考/
links/ 概要/ 手法/ 実験/ 感想/
INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/
概要/ テクニック/ 半教師あり学習 (画像の分類問題)/
概要/ GAN (復習事項)/ AAE/ 応用例/
概要・手法/ メリット/
概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/
ImageNet Classification with Deep Convolutional Neural Networks
memo/ The Architecture/ The Dataset/
src/ 概要/ 手法/ 実験/ REMARKS/
参考/ 関連/ 概要/ 手法/ 実装/
Bounding Box Prediction/
概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/
[1812.01718] Deep Learning for Classical Japanese Literature
リンク/ 概要/ データセット/ Experiments/
Learning Implicitly Recurrent CNNs Through Parameter Sharing
概要/ Soft Parameter Sharing/
[1810.12890] DropBlock: A regularization method for convolutional networks
概要/ 関連/ DropBlock/ 実験/
リンク/ 概要/ SE Module/
概要/ Github/ 手法/ 結果/
[1708.04552] Improved Regularization of Convolutional Neural Networks with Cutout
概要/ 実装/ 類似提案 ([1708.04896] Random Erasing Data Augmentation)/ 参考/
[1704.06904] Residual Attention Network for Image Classification
概要/ 手法 - attention learning/
[1406.4729] Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
概要/ SPP-layer/ 参考/
links/ 概要/ 手法/ 実験/ 感想/
A Computational Cognitive Model of Novel Word Generalization
Introduction/ 既存研究: Xu and Tenenbaum (X&T), 2007/ The Word Learning Framework/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.697.2491
A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records
Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/
Detecting Erroneous Sentences using Automatically Mined Sequential Patterns
Erroneous/ LSP (Labeled sequential pattern)/ クラス/ 列 `LHS` の生成/ 参考文献/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.129.893
[1603.05572] Supervised Matrix Factorization for Cross-Modality Hashing
Abstract/ Non-negative Matrix Factorization; NMF/ クロスモーダル/ Supervised Hash Function/
Implicit Feedback/ Personalized Ranking/ 行列分解への適用/
[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues
概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/
タスクの概要/ ソースコード/ SCONE dataset/ モデル/
概要/ SVM/ GAN/ 一般化(?) SVM/ GAN との関連/
概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/
Deep Learning Face Representation from Predicting 10,000 Classes (DeepID)
概要/ 手法/ Verification/ 感想/
概要/ あらまし/ Triplet Training with GAN/
Speeding Up the Xbox Recommender System Using a Euclidean Transformation for Inner-Product Spaces
INDEX/ 概要/ 記法/ 問題設定/ 定理: MIP, NN, MCS は同値/
Illustration/ 定理/
http://www.jstor.org/stable/3689577?seq=1#page_scan_tab_contents
A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem
重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/
From RankNet to LambdaRank to LambdaMART: An Overview - Microsoft Research
概要/ RankNet/ LambdaRank/ LambdaMART/ 参考文献/
Learning to Rank: From Pairwise Approach to Listwise Approach
概要/ ListNet [^1]/ 参考/
http://www.machinelearning.org/proceedings/icml2007/papers/139.pdf
ランク学習 (ランキング学習)/ RankNet [^1]/ 参考文献/
http://icml.cc/2015/wp-content/uploads/2015/06/icml_ranking.pdf
Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)
Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/
[1810.05997] Predict then Propagate: Graph Neural Networks meet Personalized PageRank
オリジナル PageRank (1998)/ Personalized PageRank (1998)/ Personalized Propagation of Neural Predictions (PPNP)/ Approximate PPNP (APPNP)/
リンク/ model explanation とは/ 局所性/ agnostic/ LIME/
概要/ イントロ/ Soft Ordinal Embedding; SOE/ Local Ordinal Embedding; LOE/ LOE の実験/ 感想/
http://www.tml.cs.uni-tuebingen.de/team/luxburg/publications/TeradaLuxburg_ICML2014.pdf
[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction
リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/
No Training Required: Exploring Random Encoders for Sentence Classification
概要/ アプローチ/ Results/
[1803.05449] SentEval: An Evaluation Toolkit for Universal Sentence Representations
概要/ Intro/ Aims/ Evaluations/
概要/ ReLU 族/ 性能/
概要/ 提案/ Examples/
リンク/ 関連??/ Hyperspherical VAE/
[1807.06358] IntroVAE: Introspective Variational Autoencoders for Photographic Image Synthesis
概要/ IntroVAE/ Results/
リンク/ 概要/ vMF 分布/ vMF VAE/
index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/
Introduction/ 言語モデル/ Word Classes/
概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/
Deep Learning Face Representation from Predicting 10,000 Classes (DeepID)
概要/ 手法/ Verification/ 感想/
概要/ あらまし/ Triplet Training with GAN/
概要/ 私の実装/ 関連/
Intro/ Data/ Method/ Result/
FSD/ Introduction/ 既存研究/ アプローチ/ 新規性/ Experiments/
最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/
src/ 概要/ モデル/ やっぱよくわからん/
Intro/ 先行研究/ Phrase Pattern/ パターンの学習/ Word Classes/
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440
[1812.01718] Deep Learning for Classical Japanese Literature
リンク/ 概要/ データセット/ Experiments/
[1806.05236] Manifold Mixup: Encouraging Meaningful On-Manifold Interpolation as a Regularizer
概要/ 手法/ 実験/
[1708.04552] Improved Regularization of Convolutional Neural Networks with Cutout
概要/ 実装/ 類似提案 ([1708.04896] Random Erasing Data Augmentation)/ 参考/
[1902.09859] Context Vectors are Reflections of Word Vectors in Half the Dimensions
問題設定/ Theorem 1/ 実験/ 感想/
Deep contextualized word reprensetations (Embedding from Language Models; ELMo)
概要/ Bidirectional Language Model (biLM)/ ELMo/
概要/ Intro: SVD とそのスパイク/ Truncated SVD の詳細/ Spikeness/ グラフモデル/ 知見/
概要/ Matryoshka Representation Learning/ 結果/
概要/ イントロ/ Soft Ordinal Embedding; SOE/ Local Ordinal Embedding; LOE/ LOE の実験/ 感想/
http://www.tml.cs.uni-tuebingen.de/team/luxburg/publications/TeradaLuxburg_ICML2014.pdf
Poincaré Embeddings for Learning Hierarchical Representations
概要/ 先行研究: Translational/ ポアンカレ空間/ 実験/ 実装/ 感想/
Scalable Approximate NonSymmetric Autoencoder for Collaborative Filtering (SANSA)
資料/ 概要/ EASE の概要/ SANSA/
概要/ Intro: SVD とそのスパイク/ Truncated SVD の詳細/ Spikeness/ グラフモデル/ 知見/
Speeding Up the Xbox Recommender System Using a Euclidean Transformation for Inner-Product Spaces
INDEX/ 概要/ 記法/ 問題設定/ 定理: MIP, NN, MCS は同値/
[2208.09864] Towards Principled User-side Recommender Systems
概要/ 記法/ 問題設定/ 特徴量の復元/ Design Principles/ 提案手法, Consul/ 感想/
[1905.03375] Embarrassingly Shallow Autoencoders for Sparse Data
概要/ モデル/ 他との比較/ 実験/
[1912.11160] RecVAE: a New Variational Autoencoder for Top-N Recommendations with Implicit Feedback
流れ/ Background/ RecVAE/ 実験/
参考文献/ 概要/ 背景: 強化学習による推薦システム/ 手法/ 評価指標/ オフライン実験評価/
Negative Interactions for Improved Collaborative Filtering: Don’t go Deeper, go Higher
概要/ Review: Pair-wise Model/ Higher-Order Model/ HOSLIM との比較/ 実験/
概要/ 動機/ 問題設定/ 推薦ネットワーク/ Private Rank/
タスク/ やりたいこと/ 手法概要/ その他/
http://csse.szu.edu.cn/staff/panwk/publications/Conference-RecSys-20-FISSA.pdf
Implicit Feedback/ Personalized Ranking/ 行列分解への適用/
Latent Linear Critiquing for Conversational Recommender Systems
Critiquing (批評)/ Notation/ Projected Linear Recommendation (PLRec)/ Conversational Critiquing/ 疲れた。続きはいつか読む。/
Collaborative Filtering for Implicit Feedback Datasets (Weighted Regularized Matrix Factorization)
概要/ 手法/ 感想/ 関連/
概要/ 実装/ FFMs/ パラメータ数、計算量/
FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/
src/ 概要/ 手法/ 実験/ REMARKS/
Intro/ Data/ Method/ Result/
No Training Required: Exploring Random Encoders for Sentence Classification
概要/ アプローチ/ Results/
[1707.05589] On the State of the Art of Evaluation in Neural Language Models
概要/ Models/ Dataset/ Training/ Evaluation/ Results/
[IIIDYT at SemEval-2018 Task 3: Irony detection in English tweets](http://aclweb.org/anthology/S18-1087)/ [SemEval-2018 Task 3: Irony Detection in English Tweets](http://aclweb.org/anthology/S18-1005)/
https://competitions.codalab.org/competitions/17468#learn_the_details
[1803.05449] SentEval: An Evaluation Toolkit for Universal Sentence Representations
概要/ Intro/ Aims/ Evaluations/
最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/
src/ 概要/ モデル/ やっぱよくわからん/
FSD/ Introduction/ 既存研究/ アプローチ/ 新規性/ Experiments/
A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records
Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/
A Computational Cognitive Model of Novel Word Generalization
Introduction/ 既存研究: Xu and Tenenbaum (X&T), 2007/ The Word Learning Framework/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.697.2491
Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)
Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/
Multi-Sentence Compression: Finding Shortest Paths in Word Graphs (Filippova, 2010)
概要/ Word graph/ パスの選択/
Detecting Erroneous Sentences using Automatically Mined Sequential Patterns
Erroneous/ LSP (Labeled sequential pattern)/ クラス/ 列 `LHS` の生成/ 参考文献/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.129.893
Introduction/ 質の高さ/ タスク/ コーパス/ フィルタリング/ 文の点数/ Result/
method/ pattern/ 実験/
Introduction/ 言語モデル/ Word Classes/
手法/ Data/ 分類/ baseline/
http://www.aaai.org/ocs/index.php/ICWSM/ICWSM10/paper/viewFile/1495/1851/
Intro/ 先行研究/ Phrase Pattern/ パターンの学習/ Word Classes/
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440
3. 小問集合の抽出/ パターン言語/ 問題文間の類似度/ 実験/
Intro/ Data/ Method/ Result/
Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/
概要/ 考察/ Markov Logic による極性判定の形式化/ 実験/ 感想/
概要/ 各手法/ テク/ Evaluation/
Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)
Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/
Introduction/ 質の高さ/ タスク/ コーパス/ フィルタリング/ 文の点数/ Result/
概要/ GAN (復習事項)/ AAE/ 応用例/
参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/
参考/ PU 学習/
[1605.06955] Semi-Supervised Classification Based on Classification from Positive and Unlabeled Data
リンク/ 概要/ Background/ 提案される半教師アリ学習/ 解析/
概要/ アイデア/ 実験/
参考/ 関連/ 概要/ 手法/ 実装/
リンク/ 関連??/ Hyperspherical VAE/
[1807.06358] IntroVAE: Introspective Variational Autoencoders for Photographic Image Synthesis
概要/ IntroVAE/ Results/
リンク/ 概要/ vMF 分布/ vMF VAE/
index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/
概要/ GAN (復習事項)/ AAE/ 応用例/
src/ 概要/ 手法/ 実験/ REMARKS/
[2011.10566] Exploring Simple Siamese Representation Learning
概要/ 手法/ 実験/ 仮説: SimSiam は EM アルゴリズムになってる/
method/ pattern/ 実験/
Intro/ 先行研究/ Phrase Pattern/ パターンの学習/ Word Classes/
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440
3. 小問集合の抽出/ パターン言語/ 問題文間の類似度/ 実験/
Scalable Approximate NonSymmetric Autoencoder for Collaborative Filtering (SANSA)
資料/ 概要/ EASE の概要/ SANSA/
参考/ PU 学習/
概要/ Intro: SVD とそのスパイク/ Truncated SVD の詳細/ Spikeness/ グラフモデル/ 知見/
概要/ Matryoshka Representation Learning/ 結果/
[2402.17764] The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
概要/ BitNet b1.58/ 結果/
Speeding Up the Xbox Recommender System Using a Euclidean Transformation for Inner-Product Spaces
INDEX/ 概要/ 記法/ 問題設定/ 定理: MIP, NN, MCS は同値/
[2307.08621] Retentive Network: A Successor to Transformer for Large Language Models
概要/ 良さ/ Transformer との性能比較/ Retentive Network (RetNet)/
[1603.05572] Supervised Matrix Factorization for Cross-Modality Hashing
Abstract/ Non-negative Matrix Factorization; NMF/ クロスモーダル/ Supervised Hash Function/
概要/ イントロ/ Soft Ordinal Embedding; SOE/ Local Ordinal Embedding; LOE/ LOE の実験/ 感想/
http://www.tml.cs.uni-tuebingen.de/team/luxburg/publications/TeradaLuxburg_ICML2014.pdf
[2208.09864] Towards Principled User-side Recommender Systems
概要/ 記法/ 問題設定/ 特徴量の復元/ Design Principles/ 提案手法, Consul/ 感想/
FSM/ 可微分 FSM の学習/ 実験/
https://google-research.github.io/self-organising-systems/2022/diff-fsm/
[1905.03375] Embarrassingly Shallow Autoencoders for Sparse Data
概要/ モデル/ 他との比較/ 実験/
[1912.11160] RecVAE: a New Variational Autoencoder for Top-N Recommendations with Implicit Feedback
流れ/ Background/ RecVAE/ 実験/
参考文献/ 概要/ 背景: 強化学習による推薦システム/ 手法/ 評価指標/ オフライン実験評価/
Negative Interactions for Improved Collaborative Filtering: Don’t go Deeper, go Higher
概要/ Review: Pair-wise Model/ Higher-Order Model/ HOSLIM との比較/ 実験/
[2011.10566] Exploring Simple Siamese Representation Learning
概要/ 手法/ 実験/ 仮説: SimSiam は EM アルゴリズムになってる/
[2111.06849] Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited Data
概要/ APA; Adaptive Pseudo Augmentation/
概要/ 参考/ Multi-Scale Disciminators + Random Projections/ "Floating Heads"/
[1810.05997] Predict then Propagate: Graph Neural Networks meet Personalized PageRank
オリジナル PageRank (1998)/ Personalized PageRank (1998)/ Personalized Propagation of Neural Predictions (PPNP)/ Approximate PPNP (APPNP)/
概要/ 動機/ 問題設定/ 推薦ネットワーク/ Private Rank/
[2010.01412] Sharpness-Aware Minimization for Efficiently Improving Generalization
概要/ 復習/ Theorem 1/ SAM/
タスク/ やりたいこと/ 手法概要/ その他/
http://csse.szu.edu.cn/staff/panwk/publications/Conference-RecSys-20-FISSA.pdf
概要/ ReLU 族/ 性能/
Implicit Feedback/ Personalized Ranking/ 行列分解への適用/
Python ライブラリ/ 関連/ 概要/ DNN -> Flow/ Neural Flows/ 機械学習への適用/
Latent Linear Critiquing for Conversational Recommender Systems
Critiquing (批評)/ Notation/ Projected Linear Recommendation (PLRec)/ Conversational Critiquing/ 疲れた。続きはいつか読む。/
[2002.00585] Proving the Lottery Ticket Hypothesis: Pruning is All You Need
概要/ 部分 NN の構成/ 実験/
概要/ SVM/ GAN/ 一般化(?) SVM/ GAN との関連/
Collaborative Filtering for Implicit Feedback Datasets (Weighted Regularized Matrix Factorization)
概要/ 手法/ 感想/ 関連/
概要/ パターン和言語/ パターン和言語の極小言語/
http://www-ikn.ist.hokudai.ac.jp/~arim/papers/arimura_stacs94.pdf
消去可能正規パターン言語は推論可能: "Polynomial Time Inference of Extended Regular Pattern Languages"
概要/ 消去可能正規パターン言語/ 正規パターン言語クラスは有限の厚みを持つ/ 正規パターン言語の極小言語戦略/
概要/ 手法/ 結果/
概要/ 各手法/ テク/ Evaluation/
ResNet の形式化/ リプシッツ連続なResNetの構成/ 生成モデル/
[1902.09859] Context Vectors are Reflections of Word Vectors in Half the Dimensions
問題設定/ Theorem 1/ 実験/ 感想/
概要/ リンク/ 距離学習の概要/ ユークリッド距離ベース/ 角度/cosine 距離ベース/
links/ 概要/ Algorithm/
[1812.01718] Deep Learning for Classical Japanese Literature
リンク/ 概要/ データセット/ Experiments/
リンク/ 関連??/ Hyperspherical VAE/
No Training Required: Exploring Random Encoders for Sentence Classification
概要/ アプローチ/ Results/
[1807.06358] IntroVAE: Introspective Variational Autoencoders for Photographic Image Synthesis
概要/ IntroVAE/ Results/
概要/ DAC/ Lemma 2/
Learning Implicitly Recurrent CNNs Through Parameter Sharing
概要/ Soft Parameter Sharing/
[1707.05589] On the State of the Art of Evaluation in Neural Language Models
概要/ Models/ Dataset/ Training/ Evaluation/ Results/
[IIIDYT at SemEval-2018 Task 3: Irony detection in English tweets](http://aclweb.org/anthology/S18-1087)/ [SemEval-2018 Task 3: Irony Detection in English Tweets](http://aclweb.org/anthology/S18-1005)/
https://competitions.codalab.org/competitions/17468#learn_the_details
[1809.00946] Twin-GAN -- Unpaired Cross-Domain Image Translation with Weight-Sharing GANs
リンク/ 概要/ 手法/
[1803.05449] SentEval: An Evaluation Toolkit for Universal Sentence Representations
概要/ Intro/ Aims/ Evaluations/
[1810.12890] DropBlock: A regularization method for convolutional networks
概要/ 関連/ DropBlock/ 実験/
リンク/ 概要/ SE Module/
Learning Confidence for Out-of-Distribution Detection in Neural Networks
リンク/ 概要/ Confidence Estimation/
Deep contextualized word reprensetations (Embedding from Language Models; ELMo)
概要/ Bidirectional Language Model (biLM)/ ELMo/
概要/ 集合の学習/ 背景/ Set Transformer/
リンク/ 概要/ vMF 分布/ vMF VAE/
Functional Programming with Bananas, Lenses, Envelopes and Barbed Wire
概要/ 表記/ リストの場合/ 代数的データ型 (Algebraic data types)/ 再帰スキーム/ 計算規則/ Parameterized Types (パラメータ化された型)/
概要/ 提案/ Examples/
[1806.10909] ResNet with one-neuron hidden layers is a Universal Approximator
概要/ 万能関数近似性/ ResNet の構成/ 証明の概要 (理解する自信ない)/
[1710.03282] Checkpoint Ensembles: Ensemble Methods from a Single Training Process
概要/ 既存手法/ 提案手法/ 実験/
[1806.05236] Manifold Mixup: Encouraging Meaningful On-Manifold Interpolation as a Regularizer
概要/ 手法/ 実験/
Bounding Box Prediction/
[1802.03426] UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction
リンク/ 概要/ イントロ/ アルゴリズムの概要/ 準備 - Fuzzy topological representation/ 次元削減の方法/ 実装/ 使ってみる/
概要/ Github/ 手法/ 結果/
概要/ Basic Ideas/
概要/ downsampling/ bagging/
https://pdfs.semanticscholar.org/a8ef/5a810099178b70d1490a4e6fc4426b642cde.pdf
[1605.06955] Semi-Supervised Classification Based on Classification from Positive and Unlabeled Data
リンク/ 概要/ Background/ 提案される半教師アリ学習/ 解析/
Poincaré Embeddings for Learning Hierarchical Representations
概要/ 先行研究: Translational/ ポアンカレ空間/ 実験/ 実装/ 感想/
index/ 参考文献/ 概要/ VAE (M1)/ Conditional Variational Autoencoders (CVAE, M2)/ MNIST 実験/
[1708.04552] Improved Regularization of Convolutional Neural Networks with Cutout
概要/ 実装/ 類似提案 ([1708.04896] Random Erasing Data Augmentation)/ 参考/
概要/ アイデア/ 実験/
概要/ 実装/ FFMs/ パラメータ数、計算量/
[1704.06904] Residual Attention Network for Image Classification
概要/ 手法 - attention learning/
From RankNet to LambdaRank to LambdaMART: An Overview - Microsoft Research
概要/ RankNet/ LambdaRank/ LambdaMART/ 参考文献/
[1706.05125] Deal or No Deal? End-to-End Learning for Negotiation Dialogues
概要/ ソースコード・データセット/ ゲーム (タスク) の概要/ 手法/ 結果/ 参考文献/
タスクの概要/ ソースコード/ SCONE dataset/ モデル/
[1406.4729] Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
概要/ SPP-layer/ 参考/
Learning to Rank: From Pairwise Approach to Listwise Approach
概要/ ListNet [^1]/ 参考/
http://www.machinelearning.org/proceedings/icml2007/papers/139.pdf
ランク学習 (ランキング学習)/ RankNet [^1]/ 参考文献/
http://icml.cc/2015/wp-content/uploads/2015/06/icml_ranking.pdf
Deep Learning Face Representation from Predicting 10,000 Classes (DeepID)
概要/ 手法/ Verification/ 感想/
概要/ links/ Adversarial Generator-Encoder (AGE)/ 半教師アリ学習への適用/
概要/ あらまし/ Triplet Training with GAN/
links/ 概要/ 手法/ 実験/ 感想/
最大エントロピーによるテキスト分類の直感的な知見/ model/ features for Text Classification/ Experiment/
論文リンク/ 概要/ モナド/ モナド内包 (Monad Comprehension)/ リストモナドと他モナドとの合成/ モナドの分配則 (distributive laws)/
http://homepages.inf.ed.ac.uk/wadler/papers/monadscomb/monadscomb.ps
INDEX/ 実装/ 動機/ notation/ 目的関数/ カーネル拡張/
リンク/ model explanation とは/ 局所性/ agnostic/ LIME/
INDEX/ 概要/ 私の感想/ 動機/ $\ell$ 層MLP ($\ell$-layer MLP)/ MLP 操作の諸定義/ 特性 MLP (Characteric MLP)/ MLP 操作の諸定義 (part 2)/
概要/ テクニック/ 半教師あり学習 (画像の分類問題)/
概要/ GAN (復習事項)/ AAE/ 応用例/
概要・手法/ メリット/
概要/ Adversarial Example/ Adversarial Training/ Virtual Adversarial Training (VAT)/ 実装/
FM とは何か/ モデル/ $d$-way FM/ SVM との比較/ 行列分解との関係/
src/ 概要/ モデル/ やっぱよくわからん/
ImageNet Classification with Deep Convolutional Neural Networks
memo/ The Architecture/ The Dataset/
src/ 概要/ 手法/ 実験/ REMARKS/
参考/ 関連/ 概要/ 手法/ 実装/
概要/ 私の実装/ 関連/
FSD/ Introduction/ 既存研究/ アプローチ/ 新規性/ Experiments/
Introduction/ Relational Patterns/
A Novel Method for Bilingual Web Page Acquisition from Search Engine Web Records
Introduction/ Overview/ Clustering with Path Similarity/ Data Record Extraction/ Bilingual Web Page Verification/ Experiments and Results/ Conclusion/
A Computational Cognitive Model of Novel Word Generalization
Introduction/ 既存研究: Xu and Tenenbaum (X&T), 2007/ The Word Learning Framework/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.697.2491
notation/ 2.4 決定木/ 2.6 決定リスト/ 3. 他の述語との関係/ 4. Polynomial Learnability/
https://people.csail.mit.edu/rivest/Rivest-DecisionLists.pdf
Introduction/ Coinductive Datatypes/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.252.3961
Illustration/ 定理/
http://www.jstor.org/stable/3689577?seq=1#page_scan_tab_contents
A Better-Than-Greedy Approximation Algorithm for the Minimum Set Cover Problem
重み付き最小集合被覆問題/ 貪欲法/ 提案手法: The greedy algorithm with withdrawals (GAWW)/
Automatically Generating Wikipedia Artciles: A Structure-Aware Approach (Sauper+, 2009)
Goal/ 感想/ Overview/ Content Planning/ 生成物/ 生成物/ / Method Overview/ Method::前処理::訓練事例/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理::テンプレート学習 (Section 3.1)/ 事前処理 (誰か読んで)/ 事前処理::Search: 作ったテンプレート毎に excerpts (抜粋) を拾う (Section 3.1)/ ここまで/ Selection Model (Section 3.2.1)/ 推定と学習/ 推定::Ranking/ 推定::最適化/ 推定::最適化::Redundancy Constraints/ 推定::最適化::Solving the ILP/ $w_j$ の学習/ Perceptron Ranking Algorithm [Collins, 02] (蛇足)/ The perceptron training for ranking/ Update/ voted perceptron (もっと蛇足)/ 学習::Ranking Perceptron/ 評価/ データ/ Baselines/ ROUGE-1 結果 (Table 3)/ REACTIONS/
Efficient k-Nearest Neighbor Graph Construction for Generic Similarity Measures
概要/ 実装/ 解説スライド/ 参考/
Multi-Sentence Compression: Finding Shortest Paths in Word Graphs (Filippova, 2010)
概要/ Word graph/ パスの選択/
Detecting Erroneous Sentences using Automatically Mined Sequential Patterns
Erroneous/ LSP (Labeled sequential pattern)/ クラス/ 列 `LHS` の生成/ 参考文献/
http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.129.893
Introduction/ 質の高さ/ タスク/ コーパス/ フィルタリング/ 文の点数/ Result/
参考/ Intro/ notation/ ベイズ情報量基準 (BIC)/
導入 (先に学ぶべきことリスト)/ 趣旨/ 和積パターン言語の定義/ $k$-和積パターン言語/ 定理 3.1/ 言語の包含関係/ $k$-和積パターン言語の学習/ $k$-和積言語の学習/
http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1426-8.pdf
method/ pattern/ 実験/
Introduction/ 言語モデル/ Word Classes/
手法/ Data/ 分類/ baseline/
http://www.aaai.org/ocs/index.php/ICWSM/ICWSM10/paper/viewFile/1495/1851/
Intro/ 先行研究/ Phrase Pattern/ パターンの学習/ Word Classes/
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6457440
3. 小問集合の抽出/ パターン言語/ 問題文間の類似度/ 実験/
Intro/ Data/ Method/ Result/
Intro/ Dataset/ Hashtag co-occurrences/ Clustered graph/ Classification/ 学習/
概要/ 考察/ Markov Logic による極性判定の形式化/ 実験/ 感想/