Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Softmax function
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Softmax_function
http://dbpedia.org/ontology/abstract En matemáticas, la función softmax, o funcEn matemáticas, la función softmax, o función exponencial normalizada,​ es una generalización de la Función logística. Se emplea para "comprimir" un vector K-dimensional, , de valores reales arbitrarios en un vector K-dimensional,, de valores reales en el rango [0, 1]. La función está dada por: para j = 1, …, K. En teoría de la probabilidad, la salida de la función softmax puede ser utilizada para representar una distribución categórica– la distribución de probabilidad sobre K diferentes posibles salidas. La función softmax es empleada en varios métodos de clasificación multiclase tales como Regresión Logística Multinomial,​ análisis discriminante lineal multiclase, clasificadores Bayesianos ingenuos (naive Bayes), y Redes Neuronales Artificiales.​ Bayes), y Redes Neuronales Artificiales.​ , The softmax function, also known as softarThe softmax function, also known as softargmax or normalized exponential function, converts a vector of K real numbers into a probability distribution of K possible outcomes. It is a generalization of the logistic function to multiple dimensions, and used in multinomial logistic regression. The softmax function is often used as the last activation function of a neural network to normalize the output of a network to a probability distribution over predicted output classes, based on Luce's choice axiom.put classes, based on Luce's choice axiom. , In der Mathematik ist die sogenannte SoftmIn der Mathematik ist die sogenannte Softmax-Funktion oder normalisierte Exponentialfunktion eine Verallgemeinerung der logistischen Funktion, die einen -dimensionalen Vektor mit reellen Komponenten in einen -dimensionalen Vektor ebenfalls als Vektor reeller Komponenten in den Wertebereich transformiert, wobei sich die Komponenten zu aufsummieren. Der Wert kommt nur im Sonderfall vor. Die Funktion ist gegeben durch: für j = 1, …, K. In der Wahrscheinlichkeitstheorie kann die Ausgabe der Softmax-Funktion genutzt werden, um eine – also eine Wahrscheinlichkeitsverteilung über unterschiedliche mögliche Ereignisse – darzustellen. Tatsächlich entspricht dies der der kategorialen Wahrscheinlichkeitsverteilung. Somit ist die Softmax-Funktion der Gradient der -Funktion. Die Softmax-Funktion wird in verschiedenen Methoden der Multiklassen-Klassifikation verwendet, wie bspw. bei der multinomialen logistischen Regression (auch bekannt als Softmax-Regression), der multiklassen-bezogenen linearen Diskriminantenanalyse, bei naiven Bayes-Klassifikatoren und künstlichen neuronalen Netzen. Insbesondere in der multinomialen logistischen Regression sowie der linearen Diskriminantenanalyse entspricht die Eingabe der Funktion dem Ergebnis von distinkten linearen Funktionen, und die ermittelte Wahrscheinlichkeit für die -te Klasse gegeben ein Stichprobenvektor und einem Gewichtsvektor entspricht: Dies kann angesehen werden als Komposition von linearen Funktionen und der Softmax-Funktion (wobei das innere Produkt von und bezeichnet). Die Ausführung ist äquivalent zur Anwendung eines linearen Operators definiert durch bei Vektoren , so dass dadurch die originale, möglicherweise hochdimensionale Eingabe in Vektoren im -dimensionalen Raum transformiert wird.im -dimensionalen Raum transformiert wird. , In matematica, una funzione softmax, o funIn matematica, una funzione softmax, o funzione esponenziale normalizzata, è una generalizzazione di una funzione logistica che mappa un vettore -dimensionale di valori reali arbitrari in un vettore -dimensionale di valori compresi in un intervallo la cui somma è . La funzione è data da: per La funzione softmax è anche il gradiente della funzione . La funzione softmax è usata in vari metodi di , come la , analisi discriminante lineare multiclasse, classificatori bayesiani e reti neurali artificiali.tori bayesiani e reti neurali artificiali. , В математиці, функція Softmax, або ж нормоВ математиці, функція Softmax, або ж нормована експоненційна функція:198 — це узагальнення логістичної функції, що «стискує» K-вимірний вектор із довільним значеннями компонент до K-вимірного вектора з дійсними значеннями компонент в області [0, 1] що в сумі дають одиницю. Функція задається наступним чином: for j = 1, …, K. В теорії ймовірності, результат софтмакс-функції може використовуватись для того щоб представити категорійний розподіл, тобто розподіл ймовірності при K різних можливих варіантах. Функція софтмакс використовується в різних методах , таких, як наприклад (також відома як софтмакс-регресія), багатокласовий лінійний розділювальний аналіз, наївний баєсів класифікатор, і штучні нейронні мережі.ів класифікатор, і штучні нейронні мережі. , Softmax — это обобщение логистической функSoftmax — это обобщение логистической функции для многомерного случая. Функция преобразует вектор размерности в вектор той же размерности, где каждая координата полученного вектора представлена вещественным числом в интервале [0,1] и сумма координат равна 1. Координаты вычисляются следующим образом: Координаты вычисляются следующим образом: , 소프트맥스 함수(Softmax function)는 로지스틱 함수의 다차원 일반화이다. 에서 쓰이고, 인공신경망에서 확률분포를 얻기 위한 마지막 활성함수로 많이 사용된다. 이름과 달리 최댓값(max) 함수를 매끄럽거나 부드럽게 한 것이 아니라, 최댓값의 인수인 형태의 함수를 매끄럽게 한 것이다. 그 계산 방법은 입력값을 자연로그의 밑을 밑으로 한 지수 함수를 취한 뒤 그 지수함수의 합으로 나눠주는 것이다. , En mathématiques, la fonction softmax, ou En mathématiques, la fonction softmax, ou fonction exponentielle normalisée, est une généralisation de la fonction logistique qui prend en entrée un vecteur de K nombres réels et qui en sort un vecteur de K nombres réels strictement positifs et de somme 1. La fonction est définie par : pour tout . C'est-à-dire que la composante j du vecteur est égale à l'exponentielle de la composante j du vecteur z divisée par la somme des exponentielles de toutes les composantes de z. En théorie des probabilités, la sortie de la fonction softmax peut être utilisée pour représenter une loi catégorielle – c’est-à-dire une loi de probabilité sur K différents résultats possibles. La fonction softmax est également connue pour être utilisée dans diverses méthodes de classification en classes multiples, par exemple dans le cas de réseaux de neurones artificiels.le cas de réseaux de neurones artificiels. , ソフトマックス関数(ソフトマックスかんすう、softmax function)は、ロソフトマックス関数(ソフトマックスかんすう、softmax function)は、ロジスティック関数を多次元に拡張したもの。ネットワークの出力を確率分布に変換することができるので、ニューラルネットワークの最後の活性化関数としてよく用いられる。 ソフトマックス関数は、 K 個の実数からなるベクトル z を入力として受け取り、入力の指数に比例する K 個の確率で構成される確率分布に正規化する。つまり、ソフトマックス関数を適用することで、各成分は区間 に収まり、全ての成分の和が 1 になるため、「確率」として解釈できるようになる。入力値が大きいほど「確率」も大きい。 に対し、標準(単位)ソフトマックス関数 は次のように定義される。 簡単に言えば、入力ベクトルの の各成分 に標準的な指数関数を適用し、これらすべての指数の合計で割ることによって、値を正規化する。この正規化により、出力ベクトル の成分の和が 1 になることが保障される。 e(ネイピア数)の代わりに別の基底 b > 0 を用いることもできる。 0 < b < 1 であれば、入力値が小さいほど出力される確率が高くなり、 b の値を小さくすると、入力値が小さいところに集中する確率分布となる。b > 1の場合、入力値が大きいほど出力される確率が大きくなり、 b の値を大きくすると、最大の入力値が大きい位置に集中する確率分布が作成される。 実数 β を用いて ないし と記載すると、次の表現を得る。 基底が固定されている分野もあれば、基底を変化させる分野もある。と、次の表現を得る。 基底が固定されている分野もあれば、基底を変化させる分野もある。 , 在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量 “压缩”到另一个K维实向量 中,使得每一个元素的范围都在之间,并且所有元素的和为1(也可視為一個 (k-1)維的hyperplane或subspace)。该函数的形式通常按下面的式子给出: for j = 1, …, K. Softmax函数实际上是有限项离散概率分布的梯度对数归一化。因此,Softmax函数在包括 多项逻辑回归 ,多项线性判别分析,朴素贝叶斯分类器和人工神经网络等的多种基于機率的多分类问题方法中都有着广泛应用。 特别地,在多项逻辑回归和线性判别分析中,函数的输入是从K个不同的線性函數得到的结果,而样本向量 x 属于第 j 个分类的機率为: 这可以被视作K个线性函数Softmax函数的复合()。属于第 j 个分类的機率为: 这可以被视作K个线性函数Softmax函数的复合()。
http://dbpedia.org/ontology/wikiPageExternalLink http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/ +
http://dbpedia.org/ontology/wikiPageID 6152185
http://dbpedia.org/ontology/wikiPageLength 30855
http://dbpedia.org/ontology/wikiPageRevisionID 1122135912
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Category:Functions_and_mappings + , http://dbpedia.org/resource/Category:Exponentials + , http://dbpedia.org/resource/Interval_%28mathematics%29 + , http://dbpedia.org/resource/Probability_distribution + , http://dbpedia.org/resource/1%2C_2%5D%2C_%5B3%2C_4 + , http://dbpedia.org/resource/Discrete_uniform_distribution + , http://dbpedia.org/resource/Standard_logistic_function + , http://dbpedia.org/resource/Boundary_%28topology%29 + , http://dbpedia.org/resource/Computational_complexity + , http://dbpedia.org/resource/Independence_of_irrelevant_alternatives + , http://dbpedia.org/resource/Category:Articles_with_example_Julia_code + , http://dbpedia.org/resource/Jump_discontinuity + , http://dbpedia.org/resource/Elixir_%28programming_language%29 + , http://dbpedia.org/resource/Partition_function_%28statistical_mechanics%29 + , http://dbpedia.org/resource/Category:Articles_with_example_R_code + , http://dbpedia.org/resource/Word2vec + , http://dbpedia.org/resource/Category:Logistic_regression + , http://dbpedia.org/resource/Yoshua_Bengio + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Base_%28exponentiation%29 + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Huffman_tree + , http://dbpedia.org/resource/Cross_entropy + , http://dbpedia.org/resource/Tropical_analysis + , http://dbpedia.org/resource/Category:Computational_neuroscience + , http://dbpedia.org/resource/Max-plus_semiring + , http://dbpedia.org/resource/R_%28programming_language%29 + , http://dbpedia.org/resource/Exponential_tilting + , http://dbpedia.org/resource/Raku_%28programming_language%29 + , http://dbpedia.org/resource/Smooth_approximation + , http://dbpedia.org/resource/Rational_choice_theory + , http://dbpedia.org/resource/Linear_constraint + , http://dbpedia.org/resource/Standard_simplex + , http://dbpedia.org/resource/Kronecker_delta + , http://dbpedia.org/resource/Cross-entropy + , http://dbpedia.org/resource/Coldness + , http://dbpedia.org/resource/Vector_space + , http://dbpedia.org/resource/Maximum + , http://dbpedia.org/resource/Exponential_function + , http://dbpedia.org/resource/Min-plus_semiring + , http://dbpedia.org/resource/Multinomial_logit + , http://dbpedia.org/resource/Decision_theory + , http://dbpedia.org/resource/Softplus + , http://dbpedia.org/resource/Category:Articles_with_example_Python_%28programming_language%29_code + , http://dbpedia.org/resource/Luce%27s_choice_axiom + , http://dbpedia.org/resource/Probability_theory + , http://dbpedia.org/resource/Hyperplane + , http://dbpedia.org/resource/Smooth_maximum + , http://dbpedia.org/resource/Microstate_%28statistical_mechanics%29 + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/Categorical_distribution + , http://dbpedia.org/resource/Multinomial_logistic_regression + , http://dbpedia.org/resource/Temperature + , http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Statistical_mechanics + , http://dbpedia.org/resource/Log_semiring + , http://dbpedia.org/resource/Compact_convergence + , http://dbpedia.org/resource/Python_%28programming_language%29 + , http://dbpedia.org/resource/Linear_discriminant_analysis + , http://dbpedia.org/resource/Boltzmann_distribution + , http://dbpedia.org/resource/Dirichlet_distribution + , http://dbpedia.org/resource/Linear_function + , http://dbpedia.org/resource/Naive_Bayes_classifier + , http://dbpedia.org/resource/Deformation_theory + , http://dbpedia.org/resource/Multiclass_classification + , http://dbpedia.org/resource/One-hot + , http://dbpedia.org/resource/Gibbs_distribution + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Pointwise_convergence + , http://dbpedia.org/resource/Reinforcement_learning + , http://dbpedia.org/resource/Uniform_convergence + , http://dbpedia.org/resource/Arg_max + , http://dbpedia.org/resource/Thermodynamic_beta + , http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Latent_variable + , http://dbpedia.org/resource/Inverse_temperature + , http://dbpedia.org/resource/LogSumExp + , http://dbpedia.org/resource/Julia_%28programming_language%29 + , http://dbpedia.org/resource/Singular_point_of_an_algebraic_variety + , http://dbpedia.org/resource/Function_composition +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Harvtxt + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Rp + , http://dbpedia.org/resource/Template:Sfn + , http://dbpedia.org/resource/Template:Machine_learning + , http://dbpedia.org/resource/Template:Efn + , http://dbpedia.org/resource/Template:Notelist + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Quote + , http://dbpedia.org/resource/Template:See_also + , http://dbpedia.org/resource/Template:Tmath + , http://dbpedia.org/resource/Template:About + , http://dbpedia.org/resource/Template:Mvar +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Articles_with_example_Julia_code + , http://dbpedia.org/resource/Category:Computational_neuroscience + , http://dbpedia.org/resource/Category:Functions_and_mappings + , http://dbpedia.org/resource/Category:Exponentials + , http://dbpedia.org/resource/Category:Articles_with_example_R_code + , http://dbpedia.org/resource/Category:Logistic_regression + , http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Category:Articles_with_example_Python_%28programming_language%29_code +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Softmax_function?oldid=1122135912&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Softmax_function +
owl:sameAs http://dbpedia.org/resource/Softmax_function + , http://fa.dbpedia.org/resource/%D8%A8%DB%8C%D8%B4%DB%8C%D9%86%D9%87_%D9%87%D9%85%D9%88%D8%A7%D8%B1 + , http://zh.dbpedia.org/resource/Softmax%E5%87%BD%E6%95%B0 + , http://rdf.freebase.com/ns/m.0fswxg + , https://global.dbpedia.org/id/4w5Yq + , http://ko.dbpedia.org/resource/%EC%86%8C%ED%94%84%ED%8A%B8%EB%A7%A5%EC%8A%A4_%ED%95%A8%EC%88%98 + , http://www.wikidata.org/entity/Q7554146 + , http://vi.dbpedia.org/resource/H%C3%A0m_softmax + , http://de.dbpedia.org/resource/Softmax-Funktion + , http://es.dbpedia.org/resource/Funci%C3%B3n_SoftMax + , http://yago-knowledge.org/resource/Softmax_function + , http://ru.dbpedia.org/resource/Softmax + , http://fr.dbpedia.org/resource/Fonction_softmax + , http://uk.dbpedia.org/resource/Softmax + , http://no.dbpedia.org/resource/Softmax-funksjonen + , http://it.dbpedia.org/resource/Funzione_softmax + , http://ja.dbpedia.org/resource/%E3%82%BD%E3%83%95%E3%83%88%E3%83%9E%E3%83%83%E3%82%AF%E3%82%B9%E9%96%A2%E6%95%B0 + , http://ca.dbpedia.org/resource/Funci%C3%B3_softmax +
rdf:type http://dbpedia.org/class/yago/Object100002684 + , http://dbpedia.org/class/yago/Model110324560 + , http://dbpedia.org/class/yago/YagoLegalActorGeo + , http://dbpedia.org/class/yago/Whole100003553 + , http://dbpedia.org/class/yago/YagoLegalActor + , http://dbpedia.org/class/yago/WikicatLog-linearModels + , http://dbpedia.org/class/yago/Organism100004475 + , http://dbpedia.org/class/yago/LivingThing100004258 + , http://dbpedia.org/class/yago/CausalAgent100007347 + , http://dbpedia.org/class/yago/Person100007846 + , http://dbpedia.org/class/yago/Worker109632518 + , http://dbpedia.org/class/yago/Assistant109815790 + , http://dbpedia.org/class/yago/PhysicalEntity100001930 +
rdfs:comment 在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量 “压缩”到另一个K维实向量 中,使得每一个元素的范围都在之间,并且所有元素的和为1(也可視為一個 (k-1)維的hyperplane或subspace)。该函数的形式通常按下面的式子给出: for j = 1, …, K. Softmax函数实际上是有限项离散概率分布的梯度对数归一化。因此,Softmax函数在包括 多项逻辑回归 ,多项线性判别分析,朴素贝叶斯分类器和人工神经网络等的多种基于機率的多分类问题方法中都有着广泛应用。 特别地,在多项逻辑回归和线性判别分析中,函数的输入是从K个不同的線性函數得到的结果,而样本向量 x 属于第 j 个分类的機率为: 这可以被视作K个线性函数Softmax函数的复合()。属于第 j 个分类的機率为: 这可以被视作K个线性函数Softmax函数的复合()。 , Softmax — это обобщение логистической функSoftmax — это обобщение логистической функции для многомерного случая. Функция преобразует вектор размерности в вектор той же размерности, где каждая координата полученного вектора представлена вещественным числом в интервале [0,1] и сумма координат равна 1. Координаты вычисляются следующим образом: Координаты вычисляются следующим образом: , 소프트맥스 함수(Softmax function)는 로지스틱 함수의 다차원 일반화이다. 에서 쓰이고, 인공신경망에서 확률분포를 얻기 위한 마지막 활성함수로 많이 사용된다. 이름과 달리 최댓값(max) 함수를 매끄럽거나 부드럽게 한 것이 아니라, 최댓값의 인수인 형태의 함수를 매끄럽게 한 것이다. 그 계산 방법은 입력값을 자연로그의 밑을 밑으로 한 지수 함수를 취한 뒤 그 지수함수의 합으로 나눠주는 것이다. , In der Mathematik ist die sogenannte SoftmIn der Mathematik ist die sogenannte Softmax-Funktion oder normalisierte Exponentialfunktion eine Verallgemeinerung der logistischen Funktion, die einen -dimensionalen Vektor mit reellen Komponenten in einen -dimensionalen Vektor ebenfalls als Vektor reeller Komponenten in den Wertebereich transformiert, wobei sich die Komponenten zu aufsummieren. Der Wert kommt nur im Sonderfall vor. Die Funktion ist gegeben durch: für j = 1, …, K.nktion ist gegeben durch: für j = 1, …, K. , En matemáticas, la función softmax, o funcEn matemáticas, la función softmax, o función exponencial normalizada,​ es una generalización de la Función logística. Se emplea para "comprimir" un vector K-dimensional, , de valores reales arbitrarios en un vector K-dimensional,, de valores reales en el rango [0, 1]. La función está dada por: para j = 1, …, K. En teoría de la probabilidad, la salida de la función softmax puede ser utilizada para representar una distribución categórica– la distribución de probabilidad sobre K diferentes posibles salidas.lidad sobre K diferentes posibles salidas. , En mathématiques, la fonction softmax, ou En mathématiques, la fonction softmax, ou fonction exponentielle normalisée, est une généralisation de la fonction logistique qui prend en entrée un vecteur de K nombres réels et qui en sort un vecteur de K nombres réels strictement positifs et de somme 1. La fonction est définie par : pour tout . C'est-à-dire que la composante j du vecteur est égale à l'exponentielle de la composante j du vecteur z divisée par la somme des exponentielles de toutes les composantes de z.nentielles de toutes les composantes de z. , In matematica, una funzione softmax, o funIn matematica, una funzione softmax, o funzione esponenziale normalizzata, è una generalizzazione di una funzione logistica che mappa un vettore -dimensionale di valori reali arbitrari in un vettore -dimensionale di valori compresi in un intervallo la cui somma è . La funzione è data da: per La funzione softmax è anche il gradiente della funzione . La funzione softmax è usata in vari metodi di , come la , analisi discriminante lineare multiclasse, classificatori bayesiani e reti neurali artificiali.tori bayesiani e reti neurali artificiali. , В математиці, функція Softmax, або ж нормоВ математиці, функція Softmax, або ж нормована експоненційна функція:198 — це узагальнення логістичної функції, що «стискує» K-вимірний вектор із довільним значеннями компонент до K-вимірного вектора з дійсними значеннями компонент в області [0, 1] що в сумі дають одиницю. Функція задається наступним чином: for j = 1, …, K.адається наступним чином: for j = 1, …, K. , The softmax function, also known as softarThe softmax function, also known as softargmax or normalized exponential function, converts a vector of K real numbers into a probability distribution of K possible outcomes. It is a generalization of the logistic function to multiple dimensions, and used in multinomial logistic regression. The softmax function is often used as the last activation function of a neural network to normalize the output of a network to a probability distribution over predicted output classes, based on Luce's choice axiom.put classes, based on Luce's choice axiom. , ソフトマックス関数(ソフトマックスかんすう、softmax function)は、ロソフトマックス関数(ソフトマックスかんすう、softmax function)は、ロジスティック関数を多次元に拡張したもの。ネットワークの出力を確率分布に変換することができるので、ニューラルネットワークの最後の活性化関数としてよく用いられる。 ソフトマックス関数は、 K 個の実数からなるベクトル z を入力として受け取り、入力の指数に比例する K 個の確率で構成される確率分布に正規化する。つまり、ソフトマックス関数を適用することで、各成分は区間 に収まり、全ての成分の和が 1 になるため、「確率」として解釈できるようになる。入力値が大きいほど「確率」も大きい。 に対し、標準(単位)ソフトマックス関数 は次のように定義される。 簡単に言えば、入力ベクトルの の各成分 に標準的な指数関数を適用し、これらすべての指数の合計で割ることによって、値を正規化する。この正規化により、出力ベクトル の成分の和が 1 になることが保障される。 実数 β を用いて ないし と記載すると、次の表現を得る。 基底が固定されている分野もあれば、基底を変化させる分野もある。と、次の表現を得る。 基底が固定されている分野もあれば、基底を変化させる分野もある。
rdfs:label Función SoftMax , Funció softmax , Fonction softmax , Softmax函数 , Softmax-Funktion , Softmax , Softmax function , 소프트맥스 함수 , ソフトマックス関数 , Funzione softmax
rdfs:seeAlso http://dbpedia.org/resource/Arg_max +
hide properties that link here 
http://dbpedia.org/resource/Ludwig_Boltzmann + http://dbpedia.org/ontology/knownFor
http://dbpedia.org/resource/Softmax + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Softmax_activation_function + , http://dbpedia.org/resource/Softargmax + , http://dbpedia.org/resource/Normalized_exponential + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Multiclass_classification + , http://dbpedia.org/resource/Softmax_activation_function + , http://dbpedia.org/resource/Multinomial_logistic_regression + , http://dbpedia.org/resource/Categorical_distribution + , http://dbpedia.org/resource/Fairness_%28machine_learning%29 + , http://dbpedia.org/resource/Restricted_Boltzmann_machine + , http://dbpedia.org/resource/Compositional_data + , http://dbpedia.org/resource/Bregman_divergence + , http://dbpedia.org/resource/Smooth_maximum + , http://dbpedia.org/resource/Transformer_%28machine_learning_model%29 + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Word2vec + , http://dbpedia.org/resource/Rectifier_%28neural_networks%29 + , http://dbpedia.org/resource/WaveNet + , http://dbpedia.org/resource/Paraphrasing_%28computational_linguistics%29 + , http://dbpedia.org/resource/Attention_%28machine_learning%29 + , http://dbpedia.org/resource/Log_semiring + , http://dbpedia.org/resource/LogSumExp + , http://dbpedia.org/resource/Mathematics_of_artificial_neural_networks + , http://dbpedia.org/resource/Connectionist_temporal_classification + , http://dbpedia.org/resource/Luce%27s_choice_axiom + , http://dbpedia.org/resource/Gibbs_measure + , http://dbpedia.org/resource/Naive_Bayes_classifier + , http://dbpedia.org/resource/Ludwig_Boltzmann + , http://dbpedia.org/resource/Multi-armed_bandit + , http://dbpedia.org/resource/Point-set_registration + , http://dbpedia.org/resource/Boltzmann_distribution + , http://dbpedia.org/resource/Conformal_prediction + , http://dbpedia.org/resource/Logistic_regression + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Capsule_neural_network + , http://dbpedia.org/resource/Darkforest + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Exponential_family + , http://dbpedia.org/resource/TensorFlow + , http://dbpedia.org/resource/Knowledge_distillation + , http://dbpedia.org/resource/Simplex + , http://dbpedia.org/resource/Seq2seq + , http://dbpedia.org/resource/Differentiable_neural_computer + , http://dbpedia.org/resource/Softmax + , http://dbpedia.org/resource/Softargmax + , http://dbpedia.org/resource/Normalized_exponential + , http://dbpedia.org/resource/Softmax_function_in_statistical_mechanics + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Softmax_function + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Softmax_function + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.