- Notifications
You must be signed in to change notification settings - Fork10
Machine-Learning-Tokyo/EN-JP-ML-Lexicon
Folders and files
Name | Name | Last commit message | Last commit date | |
---|---|---|---|---|
Repository files navigation
This is an English-Japanese lexicon for Machine Learning and Deep Learning terminology, based on the translation work for theMachine Learning andDeep Learning cheatsheets created by@afshinea for Stanford's CS 229 Machine Learning and CS 230 Deep Learning. We have included the Japanese cheat sheet translations that were created and reviewed by a team of MLT members for each topic.
Yoshiyuki Nakai,Yuta Kanzawa, Hideaki Hamano, Tran Tuan Anh,Takatoshi Nao, Kamuela Lau, Rob Altena, Wataru Oniki andSuzana Ilic.
English | 日本語 |
---|---|
Adaptive learning rates | 適応学習率 |
Analytical gradient | 解析的勾配 |
Architecture | アーキテクチャ |
Backpropagation | 誤差逆伝播法 |
Batch normalization | バッチ正規化 |
Binary classification | 二項分類 |
Calculation | 計算 |
Chain rule | 連鎖律 |
Coefficients | 係数 |
Color shift | カラーシフト |
Contrast change | コントラスト(鮮やかさ)の修正 |
Convolution layer | 畳み込み層 |
Cross-entropy loss | 交差エントロピー誤差 |
Dampens oscillations | 振動を抑制する |
Data augmentation | データ拡張 |
Data processing | データ処理 |
Deep learning | 深層学習 |
Derivative | 微分 |
Dropout | Dropout (ドロップアウト) |
Early stopping | Early stopping (学習の早々な終了) |
Epoch | エポック |
Error | 損失 |
Evaluation | 評価 |
Finding optimal weights | 最適な重みの探索 |
Flip | 反転 |
Forward propagation | 順伝播 |
Fully connected layer | 全結合層 |
Gradient checking | 勾配チェック |
Gradient descent | 勾配降下法 |
Gradient of the loss | 損失の勾配 |
Hyperparameter | ハイパーパラメータ |
Improvement to SGD | SGDの改良 |
Information loss | 情報損失 |
Learning algorithm | 学習アルゴリズム |
Learning rate | 学習率 |
Loss function | 損失関数 |
Mini-batch | ミニバッチ |
Momentum | Momentum(運動量) |
Neural network training | ニューラルネットワークの学習 |
Noise addition | ノイズの付加 |
Non-linear layer | 非線形層 |
Numerical gradient | 数値的勾配 |
Optimizing convergence | 収束の最適化 |
Output | 出力 |
Overfitting | 過学習 |
Parameter tuning | パラメータチューニング |
Parametrize | パラメータ化する |
Pre-trained weights | 学習済みの重み |
Prevent overfitting | 過学習を避けるために |
Random crop | ランダムな切り抜き |
Regularization | 正規化 |
Root Mean Square propagation | 二乗平均平方根のプロパゲーション |
Rotation | 回転 |
Transfer learning | 転移学習 |
Type | 種類 |
Updating weights | 重み更新 |
Validation loss | バリデーションの損失 |
Weight regularization | 重みの正規化 |
Weights initialization | 重みの初期化 |
Xavier initialization | Xavier初期化 |
English | 日本語 |
---|---|
Activation | 活性化 |
Activation functions | 活性化関数 |
Activation map | 活性化マップ |
Anchor box | アンカーボックス |
Architecture | アーキテクチャ |
Average pooling | 平均プーリング |
Bias | バイアス |
Bounding box | バウンディングボックス |
Computational trick architectures | 計算トリックアーキテクチャ |
Convolution | 畳み込み |
Convolution layer | 畳み込み層 |
Convolutional Neural Networks | 畳み込みニューラルネットワーク |
Deep Learning | 深層学習 |
Detection | 検出 |
Dimensions | 次元 |
Discriminative model | 識別モデル |
Face verification/recognition | 顔認証/認識 |
Feature map | 特徴マップ |
Filter hyperparameters | フィルタハイパーパラメタ |
Fine tuning | ファインチューニング |
Flatten | 平滑化 |
Fully connected | 全結合 |
Generative Adversarial Net | 敵対的生成ネットワーク |
Generative model | 生成モデル |
Gram matrix | グラム行列 |
Image classification | 画像分類 |
Inception Network | インセプションネットワーク |
Intersection over Union | 和集合における共通部分の割合 (IoU) |
Layer | 層 |
Localization | 位置特定 |
Max pooling | 最大プーリング |
Model complexity | モデルの複雑さ |
Neural style transfer | ニューラルスタイル変換 |
Noise | ノイズ |
Non-linearity | 非線形性 |
Non-max suppression | 非極大抑制 |
Object detection | オブジェクト検出 |
Object recognition | 物体認識 |
One Shot Learning | One Shot学習 |
Padding | パディング |
Parameter compatibility | パラメータの互換性 |
Pooling | プーリング |
R-CNN | R-CNN |
Receptive field | 受容野 |
Rectified Linear Unit | 正規化線形ユニット (ReLU) |
Residual Network (ResNet) | 残差ネットワーク (ResNet) |
Segmentation | セグメンテーション |
Siamese Network | シャムネットワーク |
Softmax | ソフトマックス |
Stride | ストライド |
Style matrix | スタイル行列 |
Style/content cost function | スタイル/コンテンツコスト関数 |
Training set | 学習セット |
Triplet loss | トリプレット損失 |
Tuning hyperparameters | ハイパーパラメータの調整 |
You Only Look Once (YOLO) | YOLO |
English | 日本語 |
---|---|
1-hot representation | 1-hot 表現 |
A Conditional language model | 条件付き言語モデル |
A language model | 言語モデル |
Amount of attention | 注意量 |
Attention model | アテンションモデル |
Beam search | ビームサーチ |
Bidirectional RNN | 双方向 RNN |
Binary classifiers | バイナリ分類器 |
Bleu score | ブルースコア(機械翻訳比較スコア) |
Brevity penalty | 簡潔さへのペナルティ |
CBOW | CBOW |
Co-occurence matrix | 共起行列 |
Conditional probabilities | 条件付き確率 |
Cosine similarity | コサイン類似度 |
Deep RNN | ディープ RNN |
Embedding Matrix | 埋め込み行列 |
Exploding gradient | 勾配爆発 |
Forget gate | 忘却ゲート |
GloVe | グローブ |
Gradient clipping | 勾配クリッピング |
GRU | ゲート付き回帰型ユニット |
Length normalization | 言語長正規化 |
Length normalization | 文章の長さの正規化 |
Likelihood | 可能性 |
Long term/ dependencies | 長期依存性関係 |
LSTM | 長・短期記憶 |
Machine translation | 機会翻訳 |
Motivation and notations | 動機と表記 |
Multiplicative gradien | 掛け算の勾配 |
N-gram | n-gram |
Naive greedy search | 単純な貪欲法 |
Negative sampling | ネガティブサンプリング |
Notations | ノーテーション |
Output gate | 出力ゲート |
Perplexity | パープレキシティ |
Relevance gate | 関連ゲート |
Skip-gram | スキップグラム |
Skip-gram | スキップグラム |
Softener | 緩衝パラメータ |
t-SNE | t-SNE |
Target/context likelihood model | ターゲット/コンテキスト尤度モデル |
Update gate | 更新ゲート |
Vanishing gradient | 勾配喪失 |
Weighting function | 重み関数 |
Word Embedding | 単語埋め込み |
Word2vec | Word2vec |
English | 日本語 |
---|---|
Adaptive boosting | 適応的ブースティング |
Batch gradient descent | バッチ勾配降下法 |
Bayes' rule | ベイズの定理 |
Bernoulli | ベルヌーイ |
Bernoulli distribution | ベルヌーイ分布 |
Bias | バイア |
Binary trees | 二分木 |
Boosting | ブースティング |
Boosting step | ブースティングステップ |
Canonical parameter | 正準パラメータ |
Categorical variable | カテゴリ変数 |
Chernoff bound | チェルノフ上界 |
Class | クラス |
Classification | 分類 |
Classification and Regression Trees (CART) | 分類・回帰ツリー (CART) |
Classifier | 分類器 |
Closed form solution | 閉形式の解 |
Coefficients | 係数 |
Confusion matrix | 混同行列 |
Continuous values | 連続値 |
Cost function | コスト関数 |
Cross-entropy | クロスエントロピー |
Cross validation | 交差検証 / クロスバリデーション |
Decision boundary | 決定境界 |
Decision trees | 決定ツリー |
Discriminative model | 判別モデル |
Distribution | 分布 |
Empirical error | 経験誤差 |
Ensemble methods | アンサンブル学習 |
Error rate | 誤答率 |
Estimation | 推定 |
Exponential distributions | 般的な指数分布族 |
Exponential family | 指数分布族 ― 正準パラメータ |
Feature engineering | 特徴量エンジニアリング |
Feature mapping | 特徴写像 |
Features | 特徴 |
Framework | フレームワーク |
Function | 関数 |
Gaussian | ガウス |
Gaussian Discriminant Analysis | ガウシアン判別分析 |
Gaussian kernel | ガウシアンカーネル |
Generalized Linear Models | 一般化線形モデル |
Generative Learning | 生成学習 |
Generative model | 生成モデル |
Geometric | 幾何 |
Good performance | 的に良い性能 |
Gradient boosting | 勾配ブースティング |
Gradient descent | 勾配降下法 |
Highly uninterpretable | 解釈しにくい |
Hinge loss | ヒンジ損失 |
Hoeffding inequality | ヘフディング不等式 |
Hold out | ホールドアウト |
Hypothesis | 仮説 |
Independent | 独立 |
Input | 入力 |
Interpretable | 解釈しやすい |
k-nearest neighbors (k-NN) | k近傍法 (k-NN) |
Kernel | カーネル |
Kernel mapping | カーネル写像 |
Kernel trick | カーネルトリック |
Lagrange multipliers | ラグランジュ乗数 |
Lagrangian | ラグランジアン |
Learning Theory | 学習理論 |
Least Mean Squares | 最小2乗法 |
Least squared error | 最小2乗誤差 |
Likelihood | 尤度 |
Linear classifier | 線形分類器 |
Linear discriminant analysis | 線形判別分析(LDA) |
Linear models | 線形モデル |
Linear regression | 線形回帰 |
Link function | リンク関数 |
Locally Weighted Regression | 局所重み付き回帰 |
Log-likelihood | 対数尤度 |
Logistic loss | ロジスティック損失 |
Logistic regression | ロジスティック回帰 |
Loss function | 損失関数 |
Matrix | 行列 |
Maximizing the likelihood | 尤度を最大にする |
Minimum distance | 最短距離 |
Misclassification | 誤分類 |
Missing value | 欠損値 |
Multi-class logistic regression | 多クラス分類ロジスティック回帰 |
Multi-label classification | 多ラベル分類 / マルチラベル分類 |
Multidimensional generalization | 高次元正則化 |
Naive Bayes | ナイーブベイズ |
Natural parameter | 自然パラメータ |
Non-linear separability | 非線形分離問題 |
Non-parametric approaches | ノン・パラメトリックな手法 |
Normal equations | 正規方程式 |
Normalization parameter | 正規化定数 |
Numerical variable | 数値変数 |
Optimal margin classifier | 最適マージン分類器 |
Optimal parameters | 最適なパラメータ |
Optimization | 最適化 |
Optimization problem | 最適化問題 |
Ordinary least squares | 最小2乗回帰 |
Output | 出力 |
Parameter | パラメータ |
Parameter update | パラメータ更新 |
Poisson | ポワソン |
Prediction | 予測 |
Probability | 確率 |
Probability distributions of the data | データの確率分布 |
Probably Approximately Correct (PAC) | 確率的に近似的に正しい (PAC) |
Random forest | ランダムフォレスト |
Random variable | ランダムな変数 |
Randomly selected features | ランダムに選択された特徴量 |
Recommendation | レコメンデーション |
Regression | 回帰 |
Sample mean | 標本平均 |
Shattering | 細分化 |
Sigmoid function | シグモイド関数 |
Softmax regression | ソフトマックス回帰 |
Spam detection | スパム検知 |
Stochastic gradient descent | 確率的勾配降下法 |
Supervised Learning | 教師あり学習 |
Support Vector Machine (SVM) | サポートベクターマシン |
Text classification | テキスト分類 |
To maximize | 最大化する |
To minimize | 最小化する |
To predict | 予測する |
Training data | 学習データ |
Training error | 学習誤差 |
Tree-based methods | ツリーベース学習 |
Union bound | 和集合上界 |
Update rule | 更新ルール |
Upper bound theorem | 上界定理 |
Vapnik-Chervonenkis (VC) dimension | ヴァプニク・チェルヴォーネンキス次元 (VC) |
Variables | 変数 |
Variance | 分散 |
Weights | 重み |
English | 日本語 |
---|---|
Agglomerative hierarchical | 凝集階層 |
Average linkage | 平均リンケージ |
Bell and Sejnowski ICA algorithm | ベルとシノスキーのICAアルゴリズム |
Calinski-Harabaz index | Calinski-Harabazインデックス |
Centroids | 重心 |
Clustering | クラスタリング |
Clustering assessment metrics | クラスタリング評価指標 |
Complete linkage | 完全リンケージ |
Convergence | 収束 |
Diagonal | Diagonal |
Dimension reduction | 次元削減 |
Dispersion matrices | 分散行列 |
Distortion function | ひずみ関数 |
E-step | E-ステップ |
Eigenvalue | 固有値 |
Eigenvector | 固有ベクトル |
Expectation-Maximization | 期待値最大化法 |
Factor analysis | 因子分析 |
Gaussians initialization | ガウス分布初期化 |
Hierarchical clustering | 階層的クラスタリング |
Independent component analysis (ICA) | 独立成分分析 |
Jensen's inequality | イェンセンの不等式 |
K-means clustering | K平均法 |
Latent variables | 潜在変数 |
M-step | M-ステップ |
Means initialization | 平均の初期化 |
Orthogonal matrix | 実直交行列 |
Posterior probabilities | 事後確率 |
Principal components | 主成分 |
Principal component analysis (PCA) | 主成分分析 |
Random variables | ランダムな変数 |
Silhouette coefficient | シルエット係数 |
Spectral theorem | スペクトル定理 |
Unmixing matrix | 非混合行列 |
Unsupervised learning | 教師なし学習 |
Ward linkage | ウォードリンケージ |
English | 日本語 |
---|---|
Axiom | 公理 |
Bayes' rule | ベイズの定理 |
Boundary | 境界 |
Characteristic function | 特性関数 |
Chebyshev's inequality | チェビシェフの不等式 |
Chi-square statistic | カイ二乗統計量 |
Combinatorics | 組合せ |
Conditional Probability | 条件付き確率 |
Continuous | 連続 |
Cumulative distribution function (CDF) | 累積分布関数 |
Cumulative function | 累積関数 |
Discrete | 離散 |
Distribution | 分布 |
Event | 事象 |
Expected value | 期待値 |
Generalized expected value | 一般化した期待値 |
Jointly Distributed Random Variables | 同時分布の確率変数 |
Leibniz integral rule | ライプニッツの積分則 |
Marginal density | 周辺密度 |
Mutual information | 相互情報量 |
Mutually exclusive events | 互いに排反な事象 |
Order | 順番 |
Partition | 分割 |
Pearson correlation coefficient | 相関係数 (ピアソンの積率相関係数) |
Permutation | 順列 |
Probability | 確率 |
Probability density function (PDF) | 確率密度関数 |
Probability distribution | 確率分布 |
Random variable | 確率変数 |
Result | 結果 |
Sample space | 標本空間 |
Sequence | 数列 |
Spearman's rank correlation coefficient | スピアマンの順位相関係数 |
Standard deviation | 標準偏差 |
Standard error | 標準誤差 |
Statistics | 統計 |
Subset | 部分集合 |
Type | 種類 |
Variance | 分散 |
Weighted mean | 加重平均 |
English | 日本語 |
---|---|
Antisymmetric | 反対称 |
Calculus | 微積分 |
Column | 列 |
Column-vector | 列ベクトル |
Diagonal | 対角成 |
Element | 要素 |
Function | 関数 |
Invertible | 可逆 |
Linear Algebra | 線形代数 |
Matrix | 行列 |
Norm | ノルム |
Notation | 表記法 |
Row | 行 |
Scalar | スカラー |
Square matrix | 正方行列 |
Sum | 和 |
Symmetric | 対称 |
Symmetric decomposition | 対称分解 |
Trace | 跡 |
Vector | ベクトル |
Vector space | ベクトル空間 |
About
This is a English-Japanese lexicon for Machine Learning and Deep Learning terminology.
Resources
Uh oh!
There was an error while loading.Please reload this page.
Stars
Watchers
Forks
Releases
No releases published
Packages0
No packages published
Contributors8
Uh oh!
There was an error while loading.Please reload this page.