Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Cross entropy
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Cross_entropy
http://dbpedia.org/ontology/abstract In information theory, the cross-entropy bIn information theory, the cross-entropy between two probability distributions and over the same underlying set of events measures the average number of bits needed to identify an event drawn from the set if a coding scheme used for the set is optimized for an estimated probability distribution , rather than the true distribution .tion , rather than the true distribution . , У теорії інформації перехресна ентропія міУ теорії інформації перехресна ентропія між двома розподілами ймовірності та над спільним простором подій вимірює середню кількість біт, необхідних для впізнання події з простору подій, якщо схема кодування, що використовується, базується на розподілі ймовірностей , замість «істинного» розподілу .ірностей , замість «істинного» розподілу . , En théorie de l'information, l'entropie crEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : , où est l'entropie de , et est la divergence de Kullback-Leibler entre et . Pour et discrets, cela signifie La formule est analogue pour des variables aléatoires continues : NB: La notation est parfois utilisées à la fois pour l'entropie croisée et l'entropie conjointe de et .ie croisée et l'entropie conjointe de et . , Křížová entropie mezi dvěma rozděleními prKřížová entropie mezi dvěma rozděleními pravděpodobnosti a se stejnou podkladovou množinou událostí míry je v teorii informace průměrný počet bitů potřebných pro identifikaci události vybrané z množiny, jestliže kódovací schéma používané pro množinu je optimalizované pro odhadnuté rozdělení pravděpodobnosti místo skutečného rozdělení .vděpodobnosti místo skutečného rozdělení . , 情報理論において、交差エントロピー(こうさエントロピー)またはクロスエントロピー(英: cross entropy)は、2つの確率分布の間に定義される尺度である。符号化方式が、真の確率分布 ではなく、ある所定の確率分布 に基づいている場合に、とりうる複数の事象の中からひとつの事象を特定するために必要となるビット数の平均値を表す。 , Na teoria da informação, a entropia cruzadNa teoria da informação, a entropia cruzada se refere à diferença entre duas distribuições de probabilidade (verdadeira) e (estimada) sobre o mesmo conjunto de eventos. Na prática, a entropia cruzada mede o número médio de bits necessários para identificar um evento , se a codificação utilizada for otimizada para a distribuição de probabilidade estimada , em vez de otimizada para a distribuição de probabilidade verdadeira .distribuição de probabilidade verdadeira . , Nella teoria dell'informazione, l'entropiaNella teoria dell'informazione, l'entropia incrociata (o cross-entropia) fra due distribuzioni di probabilità e , relative allo stesso insieme di eventi, misura il numero medio di bit necessari per identificare un evento estratto dall'insieme nel caso sia utilizzato uno schema ottimizzato per una distribuzione di probabilità piuttosto che per la distribuzione vera . piuttosto che per la distribuzione vera . , En teoría de la información, la entropía cEn teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución . La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue: donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa). Si y son variables discretas: Para las distribuciones con variables aleatorias continuas:ciones con variables aleatorias continuas: , 在信息论中,基于相同事件测度的两个概率分布和的交叉熵(英語:Cross entropy)是指,当基于一个“非自然”(相对于“真实”分布而言)的概率分布进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。 给定两个概率分布和,相对于的交叉熵定义为: 其中是的熵,是从与的KL散度(也被称为p相对于q的相对熵)。 对于离散分布和,这意味着: 对于连续分布也是类似的。我们假设和在测度 上是绝对连续的(通常 是Lebesgue measure on a )。设和分别为的在测度 上概率密度函数。则 , En teoria de la informació, l'entropia creEn teoria de la informació, l'entropia creuada entre dues distribucions de probabilitat mesura la mitjana de bits necessaris per identificar un esdeveniment d'un conjunt de possibilitats, si un esquema de codificació està basat en una distribució de probabilitat donada , més que en la veritable distribució . L'entropia creuada per a dues distribucions i sobre el mateix espai de probabilitat es defineix com: on és l'entropia de , i és la divergència de Kullback-Leibler entri i (també coneguda com a entropia relativa). Si i són variables discretes: Per a les distribucions amb variables aleatòries contínues:ucions amb variables aleatòries contínues: , Die Kreuzentropie ist in der InformationstDie Kreuzentropie ist in der Informationstheorie und der mathematischen Statistik ein Maß für die Qualität eines Modells für eine Wahrscheinlichkeitsverteilung. Eine Minimierung der Kreuzentropie in Bezug auf die Modellparameter kommt einer Maximierung der Log-Likelihood-Funktion gleich.ierung der Log-Likelihood-Funktion gleich. , В теории информации перекрёстная энтропия В теории информации перекрёстная энтропия между двумя распределениями вероятностей измеряет среднее число бит, необходимых для опознания события из набора возможностей, если используемая схема кодирования базируется на заданном распределении вероятностей , вместо «истинного» распределения . Перекрестная энтропия для двух распределений и над одним и тем же вероятностным пространством определяется следующим образом: , где — энтропия , и — расстояние Кульбака—Лейблера от до (также известная как относительная энтропия). Для дискретного и это означает Ситуация для непрерывного распределения аналогична: Нужно учесть, что, несмотря на формальную аналогию функционалов для непрерывного и дискретного случаев, они обладают разными свойствами и имеют разный смысл. Непрерывный случай имеет ту же специфику, что и понятие дифференциальной энтропии. NB: Запись иногда используется как для перекрёстной энтропии, так и для совместной энтропии и .нтропии, так и для совместной энтропии и . , 정보 이론에서 교차 엔트로피란, 두 확률 분포 p 와 q를 구분하기 위해 필요한 평균 비트 수를 의미한다.
http://dbpedia.org/ontology/wikiPageExternalLink http://heliosphan.org/cross-entropy.html +
http://dbpedia.org/ontology/wikiPageID 1735250
http://dbpedia.org/ontology/wikiPageLength 13332
http://dbpedia.org/ontology/wikiPageRevisionID 1121154382
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Conditionally_independent + , http://dbpedia.org/resource/Kraft%27s_inequality + , http://dbpedia.org/resource/Borel_set + , http://dbpedia.org/resource/Mutual_information + , http://dbpedia.org/resource/Measure_%28mathematics%29 + , http://dbpedia.org/resource/Continuous_random_variable + , http://dbpedia.org/resource/Absolutely_continuous + , http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Gibbs%27_inequality + , http://dbpedia.org/resource/Binary_regression + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/Lebesgue_measure + , http://dbpedia.org/resource/Linear_regression + , http://dbpedia.org/resource/Bit + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Expected_value + , http://dbpedia.org/resource/Optimization + , http://dbpedia.org/resource/Cross-entropy_method + , http://dbpedia.org/resource/Category:Loss_functions + , http://dbpedia.org/resource/Information_entropy + , http://dbpedia.org/resource/Logistic_loss + , http://dbpedia.org/resource/Support_%28measure_theory%29 + , http://dbpedia.org/resource/Sigma-algebra + , http://dbpedia.org/resource/Maximum_likelihood_estimation + , http://dbpedia.org/resource/Likelihood + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/Conditional_entropy + , http://dbpedia.org/resource/Joint_entropy + , http://dbpedia.org/resource/Monte_Carlo_method + , http://dbpedia.org/resource/Probability_distribution + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Category:Entropy_and_information + , http://dbpedia.org/resource/Discrete_random_variable + , http://dbpedia.org/resource/Logistic_regression +
http://dbpedia.org/property/backgroundColour #F5FFFA
http://dbpedia.org/property/borderColour #0073CF
http://dbpedia.org/property/cellpadding 6
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:EquationRef + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:NumBlk + , http://dbpedia.org/resource/Template:Equation_box_1 + , http://dbpedia.org/resource/Template:Information_theory + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Main +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Entropy_and_information + , http://dbpedia.org/resource/Category:Loss_functions +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Cross_entropy?oldid=1121154382&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Cross_entropy +
owl:sameAs http://rdf.freebase.com/ns/m.05s170 + , http://fr.dbpedia.org/resource/Entropie_crois%C3%A9e + , http://ru.dbpedia.org/resource/%D0%9F%D0%B5%D1%80%D0%B5%D0%BA%D1%80%D1%91%D1%81%D1%82%D0%BD%D0%B0%D1%8F_%D1%8D%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F + , http://pt.dbpedia.org/resource/Entropia_cruzada + , http://ja.dbpedia.org/resource/%E4%BA%A4%E5%B7%AE%E3%82%A8%E3%83%B3%E3%83%88%E3%83%AD%E3%83%94%E3%83%BC + , http://zh.dbpedia.org/resource/%E4%BA%A4%E5%8F%89%E7%86%B5 + , http://de.dbpedia.org/resource/Kreuzentropie + , http://ca.dbpedia.org/resource/Entropia_creuada + , http://fa.dbpedia.org/resource/%D8%A2%D9%86%D8%AA%D8%B1%D9%88%D9%BE%DB%8C_%D9%85%D8%AA%D9%82%D8%A7%D8%B7%D8%B9 + , http://it.dbpedia.org/resource/Entropia_incrociata + , http://es.dbpedia.org/resource/Entrop%C3%ADa_cruzada + , http://ko.dbpedia.org/resource/%EA%B5%90%EC%B0%A8_%EC%97%94%ED%8A%B8%EB%A1%9C%ED%94%BC + , http://cs.dbpedia.org/resource/K%C5%99%C3%AD%C5%BEov%C3%A1_entropie + , https://global.dbpedia.org/id/ea9q + , http://www.wikidata.org/entity/Q1685498 + , http://dbpedia.org/resource/Cross_entropy + , http://uk.dbpedia.org/resource/%D0%9F%D0%B5%D1%80%D0%B5%D1%85%D1%80%D0%B5%D1%81%D0%BD%D0%B0_%D0%B5%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D1%96%D1%8F +
rdfs:comment Nella teoria dell'informazione, l'entropiaNella teoria dell'informazione, l'entropia incrociata (o cross-entropia) fra due distribuzioni di probabilità e , relative allo stesso insieme di eventi, misura il numero medio di bit necessari per identificare un evento estratto dall'insieme nel caso sia utilizzato uno schema ottimizzato per una distribuzione di probabilità piuttosto che per la distribuzione vera . piuttosto che per la distribuzione vera . , In information theory, the cross-entropy bIn information theory, the cross-entropy between two probability distributions and over the same underlying set of events measures the average number of bits needed to identify an event drawn from the set if a coding scheme used for the set is optimized for an estimated probability distribution , rather than the true distribution .tion , rather than the true distribution . , У теорії інформації перехресна ентропія міУ теорії інформації перехресна ентропія між двома розподілами ймовірності та над спільним простором подій вимірює середню кількість біт, необхідних для впізнання події з простору подій, якщо схема кодування, що використовується, базується на розподілі ймовірностей , замість «істинного» розподілу .ірностей , замість «істинного» розподілу . , Křížová entropie mezi dvěma rozděleními prKřížová entropie mezi dvěma rozděleními pravděpodobnosti a se stejnou podkladovou množinou událostí míry je v teorii informace průměrný počet bitů potřebných pro identifikaci události vybrané z množiny, jestliže kódovací schéma používané pro množinu je optimalizované pro odhadnuté rozdělení pravděpodobnosti místo skutečného rozdělení .vděpodobnosti místo skutečného rozdělení . , Na teoria da informação, a entropia cruzadNa teoria da informação, a entropia cruzada se refere à diferença entre duas distribuições de probabilidade (verdadeira) e (estimada) sobre o mesmo conjunto de eventos. Na prática, a entropia cruzada mede o número médio de bits necessários para identificar um evento , se a codificação utilizada for otimizada para a distribuição de probabilidade estimada , em vez de otimizada para a distribuição de probabilidade verdadeira .distribuição de probabilidade verdadeira . , 情報理論において、交差エントロピー(こうさエントロピー)またはクロスエントロピー(英: cross entropy)は、2つの確率分布の間に定義される尺度である。符号化方式が、真の確率分布 ではなく、ある所定の確率分布 に基づいている場合に、とりうる複数の事象の中からひとつの事象を特定するために必要となるビット数の平均値を表す。 , En teoria de la informació, l'entropia creEn teoria de la informació, l'entropia creuada entre dues distribucions de probabilitat mesura la mitjana de bits necessaris per identificar un esdeveniment d'un conjunt de possibilitats, si un esquema de codificació està basat en una distribució de probabilitat donada , més que en la veritable distribució . L'entropia creuada per a dues distribucions i sobre el mateix espai de probabilitat es defineix com: on és l'entropia de , i és la divergència de Kullback-Leibler entri i (també coneguda com a entropia relativa). Si i són variables discretes:a relativa). Si i són variables discretes: , En théorie de l'information, l'entropie crEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : , où est l'entropie de , et est la divergence de Kullback-Leibler entre et . Pour et discrets, cela signifieentre et . Pour et discrets, cela signifie , В теории информации перекрёстная энтропия В теории информации перекрёстная энтропия между двумя распределениями вероятностей измеряет среднее число бит, необходимых для опознания события из набора возможностей, если используемая схема кодирования базируется на заданном распределении вероятностей , вместо «истинного» распределения . Перекрестная энтропия для двух распределений и над одним и тем же вероятностным пространством определяется следующим образом: , где — энтропия , и — расстояние Кульбака—Лейблера от до (также известная как относительная энтропия). Для дискретного и это означает энтропия). Для дискретного и это означает , Die Kreuzentropie ist in der InformationstDie Kreuzentropie ist in der Informationstheorie und der mathematischen Statistik ein Maß für die Qualität eines Modells für eine Wahrscheinlichkeitsverteilung. Eine Minimierung der Kreuzentropie in Bezug auf die Modellparameter kommt einer Maximierung der Log-Likelihood-Funktion gleich.ierung der Log-Likelihood-Funktion gleich. , 在信息论中,基于相同事件测度的两个概率分布和的交叉熵(英語:Cross entropy)是指,当基于一个“非自然”(相对于“真实”分布而言)的概率分布进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。 给定两个概率分布和,相对于的交叉熵定义为: 其中是的熵,是从与的KL散度(也被称为p相对于q的相对熵)。 对于离散分布和,这意味着: 对于连续分布也是类似的。我们假设和在测度 上是绝对连续的(通常 是Lebesgue measure on a )。设和分别为的在测度 上概率密度函数。则 , En teoría de la información, la entropía cEn teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución . La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue: donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa). Si y son variables discretas:a relativa). Si y son variables discretas: , 정보 이론에서 교차 엔트로피란, 두 확률 분포 p 와 q를 구분하기 위해 필요한 평균 비트 수를 의미한다.
rdfs:label Kreuzentropie , Entropía cruzada , 交叉熵 , Перехресна ентропія , Entropia incrociata , Перекрёстная энтропия , Entropia creuada , 交差エントロピー , Entropie croisée , Křížová entropie , Cross entropy , Entropia cruzada , 교차 엔트로피
hide properties that link here 
http://dbpedia.org/resource/Log_loss + , http://dbpedia.org/resource/Minxent + , http://dbpedia.org/resource/Cross-entropy + , http://dbpedia.org/resource/XE_loss + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Quantities_of_information + , http://dbpedia.org/resource/Index_of_information_theory_articles + , http://dbpedia.org/resource/Loss_functions_for_classification + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Cross-entropy_method + , http://dbpedia.org/resource/Index_of_physics_articles_%28C%29 + , http://dbpedia.org/resource/Wishart_distribution + , http://dbpedia.org/resource/Beta_distribution + , http://dbpedia.org/resource/Principle_of_maximum_entropy + , http://dbpedia.org/resource/Statistical_distance + , http://dbpedia.org/resource/Neural_architecture_search + , http://dbpedia.org/resource/Variational_autoencoder + , http://dbpedia.org/resource/Logistic_regression + , http://dbpedia.org/resource/List_of_probability_distributions + , http://dbpedia.org/resource/Continuous_Bernoulli_distribution + , http://dbpedia.org/resource/Central_tendency + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Softmax_function + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/Log_loss + , http://dbpedia.org/resource/TensorFlow + , http://dbpedia.org/resource/Knowledge_distillation + , http://dbpedia.org/resource/Gibbs%27_inequality + , http://dbpedia.org/resource/Minxent + , http://dbpedia.org/resource/Cross-entropy + , http://dbpedia.org/resource/XE_loss + , http://dbpedia.org/resource/Xentropy + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Cross_entropy + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Cross_entropy + owl:sameAs
http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + rdfs:seeAlso
 

 

Enter the name of the page to start semantic browsing from.