Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Entropy rate
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Entropy_rate
http://dbpedia.org/ontology/abstract 確率の数理理論において確率過程のエントロピーレート(英: entropy rate)確率の数理理論において確率過程のエントロピーレート(英: entropy rate)または情報源レート(source information rate)とは、平たく言えば、確率過程における情報量の時間平均である。可算個の時間添字を持つ確率過程のエントロピーレート は、 ステップまでの の結合エントロピーを で割った量の、 が無限大に向かうときの極限と定義される(極限が存在するときに限る): 一方、関連する量に がある。強定常過程に対しては となる。エントロピーレートは確率過程の一般的性質として捉えることができ、これはと呼ばれる。エントロピーレートは確率過程の複雑性の推定にも使うことができる。また、言語の複雑性の特徴付け、ブラインド信号源分離、量化子器の最適化、データ圧縮アルゴリズムといった広範な対象に応用される。例えば、エントロピーレート最大化基準は機械学習における特徴選択に利用することができる。えば、エントロピーレート最大化基準は機械学習における特徴選択に利用することができる。 , 在概率的数学理论中,非正式地说,一个随机过程的熵率或信源信息率是在一个随机过程的平均信息的时间密度。对于一个索引可数的随机过程,熵率 Η(X) 是 n 个 Xk 过程作为成员的联合熵,在 n 趋向无穷时的极限: 前提是该极限存在。另一种相关量为: 对于强平稳随机过程, 熵率可以被认为是随机信源的一般特性;这是渐近均分割性。 , In the mathematical theory of probability,In the mathematical theory of probability, the entropy rate or source information rate of a stochastic process is, informally, the time density of the average information in a stochastic process. For stochastic processes with a countable index, the entropy rate is the limit of the joint entropy of members of the process divided by , as tends to infinity: when the limit exists. An alternative, related quantity is: For strongly stationary stochastic processes, . The entropy rate can be thought of as a general property of stochastic sources; this is the asymptotic equipartition property. The entropy rate may be used to estimate the complexity of stochastic processes. It is used in diverse applications ranging from characterizing the complexity of languages, blind source separation, through to optimizing quantizers and data compression algorithms. For example, a maximum entropy rate criterion may be used for feature selection in machine learning.for feature selection in machine learning. , В математической теории вероятности энтропВ математической теории вероятности энтропийная скорость случайного процесса является, неформально говоря, временно́й плотностью средней информации в стохастическом процессе. Для стохастических процессов со счётным индексом энтропийная скорость является пределом членов процесса , поделённым на , при стремлении к бесконечности: если предел существует. Альтернативно, связанной величиной является: Для сильно стационарных стохастических процессов . Энтропийную скорость можно рассматривать как общее свойство стохастических источников, то есть . Энтропийная скорость можно использовать для оценки сложности стохастических процессов. Он используется в различных приложениях от описания сложности языков, слепого разделения сигналов до оптимизации преобразователей и алгоритмов сжатия данных. Например, критерий максимальной энтропийной скорость может быть использован для отбора признаков в обучении машин.ван для отбора признаков в обучении машин. , У математичній теорії ймовірності шви́дкісУ математичній теорії ймовірності шви́дкість ентропі́ї або шви́дкість джерела́ інформа́ції (англ. entropy rate, source information rate) стохастичного процесу — це, неформально, часова густина усередненої інформації в стохастичному процесі. Для стохастичних процесів зі зліченним індексом швидкістю ентропії Η(X) є границя спільної ентропії n членів процесу Xk, поділена на n, при прямуванні n до нескінченності: коли ця границя існує. Альтернативною, пов'язаною величиною є Для строго стаціонарних стохастичних процесів . Швидкість ентропії можна розглядати як загальну властивість стохастичних джерел; це є .ну властивість стохастичних джерел; це є . , Die Entropierate (englisch entropy rate) eDie Entropierate (englisch entropy rate) ermöglicht in der Informationstheorie unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen. Formal lässt sie sich folgendermaßen definieren: . Hierbei ist die Anzahl der Zeichen der Nachricht bzw. die Anzahl der Zufallsvariablen. Die Entropierate ermöglicht einen Vergleich der Entropien von Nachrichten unterschiedlicher Länge.n von Nachrichten unterschiedlicher Länge. , La ratio de entropía de una secuencia de nLa ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia con el crecimiento de n. La tasa de entropía de un proceso estocástico viene definida por la ecuación: siempre que dicho límite exista. Una cantidad relacionada con la ratio de entropía ( H(X) ) es: cuando dicho límite existe. H'(X) mide la entropía condicional de la última variable aleatoria en función de todas las anteriores. Para proceso estocásticos estacionarios se cumple H(X)=H'(X)ásticos estacionarios se cumple H(X)=H'(X)
http://dbpedia.org/ontology/wikiPageExternalLink https://archive.today/20121216133431/http:/www3.interscience.wiley.com/cgi-bin/bookhome/110438582%3FCRETRY=1&SRETRY=0 +
http://dbpedia.org/ontology/wikiPageID 11071463
http://dbpedia.org/ontology/wikiPageLength 3165
http://dbpedia.org/ontology/wikiPageRevisionID 1051048994
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Asymptotic_equipartition_property + , http://dbpedia.org/resource/Stochastic_matrix + , http://dbpedia.org/resource/Probability + , http://dbpedia.org/resource/Aperiodic + , http://dbpedia.org/resource/Countable + , http://dbpedia.org/resource/Feature_selection + , http://dbpedia.org/resource/Category:Information_theory + , http://dbpedia.org/resource/Joint_entropy + , http://dbpedia.org/resource/Maximal_Entropy_Random_Walk + , http://dbpedia.org/resource/Category:Temporal_rates + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Markov_information_source + , http://dbpedia.org/resource/Stationary_distribution + , http://dbpedia.org/resource/Asymptotic_distribution + , http://dbpedia.org/resource/Strongly_stationary + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Information_source_%28mathematics%29 + , http://dbpedia.org/resource/Stochastic_process + , http://dbpedia.org/resource/Infinity + , http://dbpedia.org/resource/Independent_and_identically_distributed + , http://dbpedia.org/resource/Category:Markov_models + , http://dbpedia.org/resource/Markov_chain + , http://dbpedia.org/resource/Category:Entropy + , http://dbpedia.org/resource/Limit_%28mathematics%29 +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Information_theory + , http://dbpedia.org/resource/Template:ISBN + , http://dbpedia.org/resource/Template:Reflist +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Information_theory + , http://dbpedia.org/resource/Category:Entropy + , http://dbpedia.org/resource/Category:Markov_models + , http://dbpedia.org/resource/Category:Temporal_rates +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Entropy_rate?oldid=1051048994&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Entropy_rate +
owl:sameAs http://rdf.freebase.com/ns/m.02q_1wr + , http://mk.dbpedia.org/resource/%D0%95%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%81%D0%BA%D0%B0_%D1%81%D1%82%D0%B0%D0%BF%D0%BA%D0%B0 + , http://yago-knowledge.org/resource/Entropy_rate + , http://www.wikidata.org/entity/Q1345213 + , https://global.dbpedia.org/id/MfSL + , http://uk.dbpedia.org/resource/%D0%95%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D1%96%D0%B9%D0%BD%D0%B0_%D1%88%D0%B2%D0%B8%D0%B4%D0%BA%D1%96%D1%81%D1%82%D1%8C + , http://de.dbpedia.org/resource/Entropierate + , http://ru.dbpedia.org/resource/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D0%B9%D0%BD%D0%B0%D1%8F_%D1%81%D0%BA%D0%BE%D1%80%D0%BE%D1%81%D1%82%D1%8C + , http://dbpedia.org/resource/Entropy_rate + , http://bs.dbpedia.org/resource/Stopa_entropije + , http://ja.dbpedia.org/resource/%E3%82%A8%E3%83%B3%E3%83%88%E3%83%AD%E3%83%94%E3%83%BC%E3%83%AC%E3%83%BC%E3%83%88 + , http://zh.dbpedia.org/resource/%E7%86%B5%E7%8E%87 + , http://es.dbpedia.org/resource/Ratio_de_entrop%C3%ADa +
rdf:type http://dbpedia.org/class/yago/WikicatStatisticalModels + , http://dbpedia.org/class/yago/WikicatMarkovModels + , http://dbpedia.org/class/yago/Model110324560 + , http://dbpedia.org/class/yago/Worker109632518 + , http://dbpedia.org/class/yago/LivingThing100004258 + , http://dbpedia.org/class/yago/Organism100004475 + , http://dbpedia.org/class/yago/YagoLegalActorGeo + , http://dbpedia.org/class/yago/YagoLegalActor + , http://dbpedia.org/class/yago/Object100002684 + , http://dbpedia.org/class/yago/Assistant109815790 + , http://dbpedia.org/class/yago/Whole100003553 + , http://dbpedia.org/class/yago/CausalAgent100007347 + , http://dbpedia.org/class/yago/PhysicalEntity100001930 + , http://dbpedia.org/class/yago/Person100007846 +
rdfs:comment In the mathematical theory of probability,In the mathematical theory of probability, the entropy rate or source information rate of a stochastic process is, informally, the time density of the average information in a stochastic process. For stochastic processes with a countable index, the entropy rate is the limit of the joint entropy of members of the process divided by , as tends to infinity: when the limit exists. An alternative, related quantity is:ists. An alternative, related quantity is: , Die Entropierate (englisch entropy rate) eDie Entropierate (englisch entropy rate) ermöglicht in der Informationstheorie unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen. Formal lässt sie sich folgendermaßen definieren: . Hierbei ist die Anzahl der Zeichen der Nachricht bzw. die Anzahl der Zufallsvariablen. Die Entropierate ermöglicht einen Vergleich der Entropien von Nachrichten unterschiedlicher Länge.n von Nachrichten unterschiedlicher Länge. , В математической теории вероятности энтропВ математической теории вероятности энтропийная скорость случайного процесса является, неформально говоря, временно́й плотностью средней информации в стохастическом процессе. Для стохастических процессов со счётным индексом энтропийная скорость является пределом членов процесса , поделённым на , при стремлении к бесконечности: если предел существует. Альтернативно, связанной величиной является:ьтернативно, связанной величиной является: , La ratio de entropía de una secuencia de nLa ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia con el crecimiento de n. La tasa de entropía de un proceso estocástico viene definida por la ecuación: siempre que dicho límite exista. Una cantidad relacionada con la ratio de entropía ( H(X) ) es: cuando dicho límite existe. H'(X) mide la entropía condicional de la última variable aleatoria en función de todas las anteriores. Para proceso estocásticos estacionarios se cumple H(X)=H'(X)ásticos estacionarios se cumple H(X)=H'(X) , 在概率的数学理论中,非正式地说,一个随机过程的熵率或信源信息率是在一个随机过程的平均信息的时间密度。对于一个索引可数的随机过程,熵率 Η(X) 是 n 个 Xk 过程作为成员的联合熵,在 n 趋向无穷时的极限: 前提是该极限存在。另一种相关量为: 对于强平稳随机过程, 熵率可以被认为是随机信源的一般特性;这是渐近均分割性。 , У математичній теорії ймовірності шви́дкісУ математичній теорії ймовірності шви́дкість ентропі́ї або шви́дкість джерела́ інформа́ції (англ. entropy rate, source information rate) стохастичного процесу — це, неформально, часова густина усередненої інформації в стохастичному процесі. Для стохастичних процесів зі зліченним індексом швидкістю ентропії Η(X) є границя спільної ентропії n членів процесу Xk, поділена на n, при прямуванні n до нескінченності: коли ця границя існує. Альтернативною, пов'язаною величиною єує. Альтернативною, пов'язаною величиною є , 確率の数理理論において確率過程のエントロピーレート(英: entropy rate)確率の数理理論において確率過程のエントロピーレート(英: entropy rate)または情報源レート(source information rate)とは、平たく言えば、確率過程における情報量の時間平均である。可算個の時間添字を持つ確率過程のエントロピーレート は、 ステップまでの の結合エントロピーを で割った量の、 が無限大に向かうときの極限と定義される(極限が存在するときに限る): 一方、関連する量に がある。強定常過程に対しては となる。エントロピーレートは確率過程の一般的性質として捉えることができ、これはと呼ばれる。エントロピーレートは確率過程の複雑性の推定にも使うことができる。また、言語の複雑性の特徴付け、ブラインド信号源分離、量化子器の最適化、データ圧縮アルゴリズムといった広範な対象に応用される。例えば、エントロピーレート最大化基準は機械学習における特徴選択に利用することができる。えば、エントロピーレート最大化基準は機械学習における特徴選択に利用することができる。
rdfs:label Entropy rate , エントロピーレート , Entropierate , Ентропійна швидкість , 熵率 , Энтропийная скорость , Ratio de entropía
hide properties that link here 
http://dbpedia.org/resource/Stochastic_process + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Human_genome + , http://dbpedia.org/resource/Y_chromosome + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Maximal_entropy_random_walk + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Grammar-based_code + , http://dbpedia.org/resource/Information_source_%28mathematics%29 + , http://dbpedia.org/resource/Markov_information_source + , http://dbpedia.org/resource/Asymptotic_equipartition_property + , http://dbpedia.org/resource/Random_walk + , http://dbpedia.org/resource/Feature_selection + , http://dbpedia.org/resource/Entropy_%28order_and_disorder%29 + , http://dbpedia.org/resource/Typical_set + , http://dbpedia.org/resource/Bayesian_network + , http://dbpedia.org/resource/Redundancy_%28information_theory%29 + , http://dbpedia.org/resource/Source_information_rate + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Entropy_rate + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Entropy_rate + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.