Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Conditional entropy
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Conditional_entropy
http://dbpedia.org/ontology/abstract Entropia warunkowa – wartość używana w teoEntropia warunkowa – wartość używana w teorii informacji. Mierzy, ile wynosi entropia nieznanej zmiennej losowej jeśli wcześniej znamy wartość innej zmiennej losowej Zapisuje się ją jako i tak jak inne entropie mierzy w bitach. Intuicyjnie entropia ta mierzy, o ile entropia pary zmiennych i jest większa od entropii samej zmiennej czyli ile dodatkowej informacji dostajemy na podstawie zmiennej jeśli znamy zmienną na podstawie zmiennej jeśli znamy zmienną , En théorie de l'information, l'entropie coEn théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire , lorsque l'on connait exactement une variable aléatoire . On note l'entropie conditionnelle de sachant . Comme les autres entropies, elle se mesure généralement en bits.pies, elle se mesure généralement en bits. , In der Informationstheorie ist die bedingtIn der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen , welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable bekannt wird. Die bedingte Entropie wird geschrieben und hat einen Wert zwischen 0 und , der ursprünglichen Entropie von . Sie wird in der gleichen Maßeinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus der Wert von funktional bestimmt werden kann, und den Wert , wenn und stochastisch unabhängig sind.t , wenn und stochastisch unabhängig sind. , في نظرية المعلومات، تحدد الإنتروبيا الشرطية (أو الالتباس equivocation) كمية المعلومات اللازمة لوصف نتيجة متغير عشوائي بالنظر إلى أن قيمة متغير عشوائي آخر معروف. هنا، يتم قياس المعلومات في شانون، ناتس، أو hartleys. انتروبيا مشروطة مكتوب مثل . , In information theory, the conditional entIn information theory, the conditional entropy quantifies the amount of information needed to describe the outcome of a random variable given that the value of another random variable is known. Here, information is measured in shannons, nats, or hartleys. The entropy of conditioned on is written as . entropy of conditioned on is written as . , В теорії інформації умо́вна ентропі́я (абоВ теорії інформації умо́вна ентропі́я (або ухи́льність, англ. conditional entropy, equivocation) — це оцінка кількості інформації, необхідної, щоб описати вихід випадкової змінної , враховуючи, що значення іншої випадкової змінної є відомим. Тут інформація вимірюється в шеннонах, натах або гартлі. Ентропія , обумовлена записується як .лі. Ентропія , обумовлена записується як . , Podmíněná entropie (anglicky conditional ePodmíněná entropie (anglicky conditional entropy) v teorii informace kvantifikuje množství informace potřebné pro popsání výsledku náhodného pokusu , pokud je známá hodnota jiné náhodné proměnné . Měří se stejně jako informační entropie v bitech (kterým se v této souvislosti také říká „shannons“), někdy v „přirozených jednotkách“ nebo v desítkových číslicích (nazývaný „dits“, „bans“ nebo „“). Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie. Entropii podmíněnou zapisujeme , kde je velké řecké písmeno Éta.pisujeme , kde je velké řecké písmeno Éta. , L'entropia condicional és una extensió del concepte d'entropia de la informació en processos on intervenen diverses variables aleatòries no necessàriament independents. , Informazioaren teorian baldintzazko entropiak zera neurtzen du: zorizko aldagaiaren balioa ezaguna izanik, zorizko aldagaia deskribatzeko behar den informazio kantitatea. Entropia kontzeptuaren hedapen bat da. , Nella teoria dell'informazione l'entropia Nella teoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria noto il valore di un'altra variabile aleatoria . Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita. L'entropia di condizionata da si definisce come .pia di condizionata da si definisce come . , 在信息论中,条件熵描述了在已知第二个随机变量 的值的前提下,随机变量 的信息熵还有多少。同其它的信息熵一样,条件熵也用Sh、nat、Hart等信息单位表示。基于 條件的 的信息熵,用 表示。 , La entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienen varias variables aleatorias no necesariamente independientes.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Entropy-mutual-information-relative-entropy-relation-diagram.svg?width=300 +
http://dbpedia.org/ontology/wikiPageID 908548
http://dbpedia.org/ontology/wikiPageLength 11706
http://dbpedia.org/ontology/wikiPageRevisionID 1121545974
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Shannon_%28unit%29 + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Conditional_expectation + , http://dbpedia.org/resource/Joint_entropy + , http://dbpedia.org/resource/Likelihood_function + , http://dbpedia.org/resource/Random_variate + , http://dbpedia.org/resource/Conditional_quantum_entropy + , http://dbpedia.org/resource/Probability_mass_function + , http://dbpedia.org/resource/Entropy_power_inequality + , http://dbpedia.org/resource/Hartley_%28unit%29 + , http://dbpedia.org/resource/Uncertainty_principle + , http://dbpedia.org/resource/Support_%28mathematics%29 + , http://dbpedia.org/resource/Nat_%28unit%29 + , http://dbpedia.org/resource/Estimator + , http://dbpedia.org/resource/Outcome_%28probability%29 + , http://dbpedia.org/resource/Shannon_Entropy + , http://dbpedia.org/resource/Conditional_independence + , http://dbpedia.org/resource/Joint_probability_density_function + , http://dbpedia.org/resource/Quantum_mechanics + , http://dbpedia.org/resource/Information_content + , http://dbpedia.org/resource/Quantum_information_theory + , http://dbpedia.org/resource/Category:Entropy_and_information + , http://dbpedia.org/resource/Bayes%27_rule + , http://dbpedia.org/resource/Discrete_random_variable + , http://dbpedia.org/resource/Independent_random_variables + , http://dbpedia.org/resource/Mutual_information + , http://dbpedia.org/resource/Category:Information_theory + , http://dbpedia.org/resource/File:Entropy-mutual-information-relative-entropy-relation-diagram.svg + , http://dbpedia.org/resource/Conditional_Probability + , http://dbpedia.org/resource/Random_variable + , http://dbpedia.org/resource/Chain_rule_%28probability%29 + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Expected_value + , http://dbpedia.org/resource/Variation_of_information +
http://dbpedia.org/property/backgroundColour #F5FFFA
http://dbpedia.org/property/borderColour #0073CF
http://dbpedia.org/property/cellpadding 6
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:NumBlk + , http://dbpedia.org/resource/Template:Information_theory + , http://dbpedia.org/resource/Template:Equation_box_1 + , http://dbpedia.org/resource/Template:Rp + , http://dbpedia.org/resource/Template:EquationRef + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Short_description +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Entropy_and_information + , http://dbpedia.org/resource/Category:Information_theory +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Conditional_entropy?oldid=1121545974&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Entropy-mutual-information-relative-entropy-relation-diagram.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Conditional_entropy +
owl:sameAs http://fr.dbpedia.org/resource/Entropie_conditionnelle + , http://eu.dbpedia.org/resource/Baldintzazko_entropia + , http://dbpedia.org/resource/Conditional_entropy + , http://he.dbpedia.org/resource/%D7%90%D7%A0%D7%98%D7%A8%D7%95%D7%A4%D7%99%D7%94_%D7%9E%D7%95%D7%AA%D7%A0%D7%99%D7%AA + , http://ar.dbpedia.org/resource/%D8%A7%D8%B9%D8%AA%D9%84%D8%A7%D8%AC_%D8%B4%D8%B1%D8%B7%D9%8A + , http://de.dbpedia.org/resource/Bedingte_Entropie + , http://bar.dbpedia.org/resource/Bedingte_Entropie + , http://fa.dbpedia.org/resource/%D8%A2%D9%86%D8%AA%D8%B1%D9%88%D9%BE%DB%8C_%D8%B4%D8%B1%D8%B7%DB%8C + , http://www.wikidata.org/entity/Q813908 + , http://pl.dbpedia.org/resource/Entropia_warunkowa + , http://es.dbpedia.org/resource/Entrop%C3%ADa_condicional + , http://it.dbpedia.org/resource/Entropia_condizionale + , https://global.dbpedia.org/id/4yW5b + , http://zh.dbpedia.org/resource/%E6%9D%A1%E4%BB%B6%E7%86%B5 + , http://cs.dbpedia.org/resource/Podm%C3%ADn%C4%9Bn%C3%A1_entropie + , http://ca.dbpedia.org/resource/Entropia_condicional + , http://rdf.freebase.com/ns/m.03ny81 + , http://uk.dbpedia.org/resource/%D0%A3%D0%BC%D0%BE%D0%B2%D0%BD%D0%B0_%D0%B5%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D1%96%D1%8F +
rdfs:comment Nella teoria dell'informazione l'entropia Nella teoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria noto il valore di un'altra variabile aleatoria . Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita. L'entropia di condizionata da si definisce come .pia di condizionata da si definisce come . , L'entropia condicional és una extensió del concepte d'entropia de la informació en processos on intervenen diverses variables aleatòries no necessàriament independents. , En théorie de l'information, l'entropie coEn théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire , lorsque l'on connait exactement une variable aléatoire . On note l'entropie conditionnelle de sachant . Comme les autres entropies, elle se mesure généralement en bits.pies, elle se mesure généralement en bits. , 在信息论中,条件熵描述了在已知第二个随机变量 的值的前提下,随机变量 的信息熵还有多少。同其它的信息熵一样,条件熵也用Sh、nat、Hart等信息单位表示。基于 條件的 的信息熵,用 表示。 , В теорії інформації умо́вна ентропі́я (абоВ теорії інформації умо́вна ентропі́я (або ухи́льність, англ. conditional entropy, equivocation) — це оцінка кількості інформації, необхідної, щоб описати вихід випадкової змінної , враховуючи, що значення іншої випадкової змінної є відомим. Тут інформація вимірюється в шеннонах, натах або гартлі. Ентропія , обумовлена записується як .лі. Ентропія , обумовлена записується як . , Entropia warunkowa – wartość używana w teoEntropia warunkowa – wartość używana w teorii informacji. Mierzy, ile wynosi entropia nieznanej zmiennej losowej jeśli wcześniej znamy wartość innej zmiennej losowej Zapisuje się ją jako i tak jak inne entropie mierzy w bitach. Intuicyjnie entropia ta mierzy, o ile entropia pary zmiennych i jest większa od entropii samej zmiennej czyli ile dodatkowej informacji dostajemy na podstawie zmiennej jeśli znamy zmienną na podstawie zmiennej jeśli znamy zmienną , في نظرية المعلومات، تحدد الإنتروبيا الشرطية (أو الالتباس equivocation) كمية المعلومات اللازمة لوصف نتيجة متغير عشوائي بالنظر إلى أن قيمة متغير عشوائي آخر معروف. هنا، يتم قياس المعلومات في شانون، ناتس، أو hartleys. انتروبيا مشروطة مكتوب مثل . , Podmíněná entropie (anglicky conditional ePodmíněná entropie (anglicky conditional entropy) v teorii informace kvantifikuje množství informace potřebné pro popsání výsledku náhodného pokusu , pokud je známá hodnota jiné náhodné proměnné . Měří se stejně jako informační entropie v bitech (kterým se v této souvislosti také říká „shannons“), někdy v „přirozených jednotkách“ nebo v desítkových číslicích (nazývaný „dits“, „bans“ nebo „“). Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie. Entropii podmíněnou zapisujeme , kde je velké řecké písmeno Éta.pisujeme , kde je velké řecké písmeno Éta. , In information theory, the conditional entIn information theory, the conditional entropy quantifies the amount of information needed to describe the outcome of a random variable given that the value of another random variable is known. Here, information is measured in shannons, nats, or hartleys. The entropy of conditioned on is written as . entropy of conditioned on is written as . , La entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienen varias variables aleatorias no necesariamente independientes. , In der Informationstheorie ist die bedingtIn der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen , welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable bekannt wird. Die bedingte Entropie wird geschrieben und hat einen Wert zwischen 0 und , der ursprünglichen Entropie von . Sie wird in der gleichen Maßeinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus der Wert von funktional bestimmt werden kann, und den Wert , wenn und stochastisch unabhängig sind.t , wenn und stochastisch unabhängig sind. , Informazioaren teorian baldintzazko entropiak zera neurtzen du: zorizko aldagaiaren balioa ezaguna izanik, zorizko aldagaia deskribatzeko behar den informazio kantitatea. Entropia kontzeptuaren hedapen bat da.
rdfs:label 条件熵 , Podmíněná entropie , Умовна ентропія , اعتلاج شرطي , Entropia condicional , Entropie conditionnelle , Bedingte Entropie , Entropía condicional , Entropia warunkowa , Entropia condizionale , Baldintzazko entropia , Conditional entropy
hide properties that link here 
http://dbpedia.org/resource/Equivocation_%28information_theory%29 + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Differential_entropy + , http://dbpedia.org/resource/Strong_subadditivity_of_quantum_entropy + , http://dbpedia.org/resource/Variation_of_information + , http://dbpedia.org/resource/Quantities_of_information + , http://dbpedia.org/resource/Fano%27s_inequality + , http://dbpedia.org/resource/Information_diagram + , http://dbpedia.org/resource/Chain_rule_for_Kolmogorov_complexity + , http://dbpedia.org/resource/Index_of_information_theory_articles + , http://dbpedia.org/resource/Mutual_information + , http://dbpedia.org/resource/Binary_symmetric_channel + , http://dbpedia.org/resource/Tf%E2%80%93idf + , http://dbpedia.org/resource/Conditional_quantum_entropy + , http://dbpedia.org/resource/Information_theory_and_measure_theory + , http://dbpedia.org/resource/Kolmogorov%E2%80%93Zurbenko_filter + , http://dbpedia.org/resource/Rate%E2%80%93distortion_theory + , http://dbpedia.org/resource/Von_Neumann_entropy + , http://dbpedia.org/resource/Uncertainty_coefficient + , http://dbpedia.org/resource/One-time_pad + , http://dbpedia.org/resource/Models_of_collaborative_tagging + , http://dbpedia.org/resource/Forecast_verification + , http://dbpedia.org/resource/Quantum_discord + , http://dbpedia.org/resource/Logistic_regression + , http://dbpedia.org/resource/Likelihood_function + , http://dbpedia.org/resource/Joint_entropy + , http://dbpedia.org/resource/Typical_subspace + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Indus_script + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Cross_entropy + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/Information_gain_%28decision_tree%29 + , http://dbpedia.org/resource/John_von_Neumann + , http://dbpedia.org/resource/Dual_total_correlation + , http://dbpedia.org/resource/Joint_quantum_entropy + , http://dbpedia.org/resource/Equivocation_%28information_theory%29 + , http://dbpedia.org/resource/Conditional_information + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Conditional_entropy + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Conditional_entropy + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.