Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Principle of maximum entropy
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Principle_of_maximum_entropy
http://dbpedia.org/ontology/abstract En mecánica estadística, el principio de mEn mecánica estadística, el principio de máxima entropía establece que la distribución de probabilidad menos sesgada que se le puede atribuir a un sistema estadístico es aquella en la que dadas unas ciertas condiciones fijas maximiza la entropía, , esto es, aquella en la que la desinformación es máxima. Esto viene a decir que en una situación de desconocimiento de información la distribución estadística menos sesgada será aquella en que menos información extrínseca al problema contenga.El anterior principio implica que dada la entropía como una función de la distribución de probabilidad y las j condiciones intrínsecas al problema, la distribución menos sesgada para los N microestados cumplirá que: con las condiciones Empleando los multiplicadores de Lagrange la función a maximizar es:res de Lagrange la función a maximizar es: , Le principe d'entropie maximale consiste, Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : * identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; * choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. Ce choix n'a rien d'arbitraire : de toutes ces distributions, c'est - par définition de l'entropie - celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. Le principe d'entropie maximale considère un principe d'équidistribution (principe d'indifférence de Laplace) et d'indépendance entre événements élémentaires ayant donné lieu à la distribution de probabilité. Il s'agit donc d'un a priori extrêmement « neutre », si toutefois l'espace d'hypothèses est bien choisi.Comme la mesure d'entropie de Shannon considère un ensemble d'états équiprobables, il peut être utile d'adapter l'espace d'hypothèses pour rendre les différents états équiprobables ou alors utiliser l'entropie relative pour normaliser l'expression par rapport à leur probabilités respectives a priori. * (en) Edwin Thompson Jaynes, Information Theory and Statistical Mechanics, 1963 (lire en ligne)tatistical Mechanics, 1963 (lire en ligne) , The principle of maximum entropy states thThe principle of maximum entropy states that the probability distribution which best represents the current state of knowledge about a system is the one with largest entropy, in the context of precisely stated prior data (such as a proposition that expresses ). Another way of stating this: Take precisely stated prior data or testable information about a probability distribution function. Consider the set of all trial probability distributions that would encode the prior data. According to this principle, the distribution with maximal information entropy is the best choice.al information entropy is the best choice. , 最大エントロピー原理(さいだいエントロピーげんり、英: principle of m最大エントロピー原理(さいだいエントロピーげんり、英: principle of maximum entropy)は、認識確率分布を一意に定めるために利用可能な情報を分析する手法である。この原理を最初に提唱したのは Edwin Thompson Jaynes である。彼は1957年に統計力学のギブズ分布を持ち込んだ熱力学()を提唱した際に、この原理も提唱したものである。彼は、熱力学やエントロピーは、情報理論や推定の汎用ツールの応用例と見るべきだと示唆した。他のベイズ的手法と同様、最大エントロピー原理でも事前確率を明示的に利用する。これは古典的統計学における推定手法の代替である。原理でも事前確率を明示的に利用する。これは古典的統計学における推定手法の代替である。 , 최대 엔트로피 원리는 시스템에 대한 현재 지식 상태를 가장 잘 나타내는 확률최대 엔트로피 원리는 시스템에 대한 현재 지식 상태를 가장 잘 나타내는 확률 분포가 가장 큰 엔트로피를 갖는 분포라는 것이다. 이것을 표현하는 또 다른 방법: 확률 분포 함수에 대해 정확하게 언급된 이전 데이터 또는 테스트 가능한 정보를 가져온다. 이전 데이터를 인코딩할 모든 시행 확률 분포 세트를 고려하라는 것이다. 이 원칙에 따르면 정보 엔트로피가 최대인 분포가 최선의 선택이다. 최대 엔트로피 분포는 데이터의 실제 분포에 대해 가장 적은 가정을 하는 분포이므로 최대 엔트로피의 원리는 오컴의 면도날의 적용이라고 볼 수 있다. 분포이므로 최대 엔트로피의 원리는 오컴의 면도날의 적용이라고 볼 수 있다. , Принцип максимума энтропии утверждает, чтоПринцип максимума энтропии утверждает, что наиболее характерными распределениями вероятностей состояний неопределенной среды являются такие распределения, которые максимизируют выбранную меру неопределенности при заданной информации о «поведении» среды. Впервые подобный подход использовал Д.Гиббс для нахождения экстремальных функций распределений физических ансамблей частиц. Впоследствии Э.Джейнсом был предложен формализм восстановления неизвестных законов распределения случайных величин при наличии ограничений из условий максимума энтропии Шеннона.ний из условий максимума энтропии Шеннона. , Die Maximum-Entropie-Methode oder MEM ist Die Maximum-Entropie-Methode oder MEM ist eine Methode der Bayesschen Statistik, die erlaubt, trotz mangelhafter problemspezifischer Information eine A-priori-Wahrscheinlichkeit zuzuweisen. Sie ersetzt frühere Ansätze wie etwa das von Laplace formulierte „Prinzip vom unzureichenden Grunde“.ierte „Prinzip vom unzureichenden Grunde“. , O desenvolvimento do método da máxima entrO desenvolvimento do método da máxima entropia (ME) ocorreu através de duas linhas de pesquisa: inferência estatística (Bernoulli, Bayes, Laplace, Jeffreys, Cox) e modelagem estatística de problemas em mecânica, física e de informação (Maxwell, Boltzmann, Gibbs, Shannon). O objetivo da primeira linha de investigação é a de formular uma teoria/metodologia que permite a compreensão das características gerais (distribuição) de um sistema de informação parcial e incompleto. Na segunda linha de investigação, este mesmo objectivo é expresso na forma de determinar como atribuir valores numéricos (iniciais) das probabilidades quando apenas algumas quantidades globais limitadas (teoricamente) do sistema investigados são conhecidas. O reconhecimento dos objetivos básicos comuns destas duas linhas de pesquisa auxiliou Jaynes (1957) no desenvolvimento do seu trabalho clássico, de formalização da máxima entropia. Isto é, a formalização da ME foi baseada na filosofia da primeira linha de investigação e na matemática da segunda linha de investigação. Jaynes mostrou que maximizar estatisticamente a entropia (mecânica) com a finalidade de revelar o modo como as moléculas de gás estavam distribuídas seria equivalente à simples maximização da entropia (de informação) de Shannon com informação mecânica estatisticamente. O método foi correto para atribuir probabilidades independentemente das especificidades da informação. Esta ideia conduziu a máxima entropia ou à utilização do método da máxima entropia para atribuir probabilidades. Este método tem evoluído para um método mais geral, o método de (MEr), que tem a vantagem de não só atribuir probabilidades, mas atualizá-las quando nova informação é dada sob a forma de restrições sobre os probabilidades. A ME pode ser aplicada para análise de uma grande variedade de problemas na maioria das disciplinas da ciência. por exemplo, trabalhos sobre a reconstrução de imagem e análise espectral em medicina, física, química, biologia, topografia, engenharia, comunicação e informação, investigação de operações, ciência política e economia (tomografia, imagens de satélite, motores de busca, , métodos tipo GMM, modelagem de dados em econometria); a investigação em estimação e inferência estatística (métodos bayesianos e não bayesianos); e inovações em curso no processamento de informação e de TI.so no processamento de informação e de TI.
http://dbpedia.org/ontology/wikiPageExternalLink https://arxiv.org/abs/0708.1593 + , http://cowles.yale.edu/sites/default/files/files/pub/d15/d1569.pdf + , http://www.phys.uu.nl/~wwwgrnsl/jos/mepabst/mep.pdf + , http://repository.upenn.edu/cgi/viewcontent.cgi%3Farticle=1083&context=ircs_reports + , https://web.archive.org/web/20060603144738/http:/www.phys.uu.nl/~wwwgrnsl/jos/mepabst/mep.pdf + , http://bayes.wustl.edu/etj/node1.html + , http://bayes.wustl.edu/etj/articles/cmonkeys.pdf + , http://przyrbwn.icm.edu.pl/APP/PDF/117/a117z602.pdf + , https://web.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf%23page=376%7Caccess-date=2008-08-24 + , http://projecteuclid.org/euclid.ba/1340370710 +
http://dbpedia.org/ontology/wikiPageID 201718
http://dbpedia.org/ontology/wikiPageLength 31022
http://dbpedia.org/ontology/wikiPageRevisionID 1123453486
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Category:Bayesian_statistics + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/Richard_Jeffrey + , http://dbpedia.org/resource/Symmetry_group + , http://dbpedia.org/resource/Convex_optimization + , http://dbpedia.org/resource/Cross_entropy + , http://dbpedia.org/resource/Bayes%27_theorem + , http://dbpedia.org/resource/Symmetries + , http://dbpedia.org/resource/E._T._Jaynes + , http://dbpedia.org/resource/H._K._Kesavan + , http://dbpedia.org/resource/Principle_of_indifference + , http://dbpedia.org/resource/Probability_kinematics + , http://dbpedia.org/resource/Ergodic + , http://dbpedia.org/resource/Statistical_thermodynamics + , http://dbpedia.org/resource/Relative_entropy + , http://dbpedia.org/resource/Maximum_entropy_probability_distribution + , http://dbpedia.org/resource/Stirling%27s_approximation + , http://dbpedia.org/resource/Thermodynamic_equilibrium + , http://dbpedia.org/resource/Conserved_quantities + , http://dbpedia.org/resource/Uniform_distribution_%28discrete%29 + , http://dbpedia.org/resource/Radical_probabilism + , http://dbpedia.org/resource/Quadratic_programming + , http://dbpedia.org/resource/Info-metrics + , http://dbpedia.org/resource/Bayesian_inference + , http://dbpedia.org/resource/Statistical_ensemble + , http://dbpedia.org/resource/Empirical_likelihood + , http://dbpedia.org/resource/Maximum_entropy_spectral_estimation + , http://dbpedia.org/resource/Probability_distribution + , http://dbpedia.org/resource/Cambridge_University_Press + , http://dbpedia.org/resource/Category:Entropy_and_information + , http://dbpedia.org/resource/Akaike_information_criterion + , http://dbpedia.org/resource/Principle_of_transformation_groups + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Proposition + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Category:Probability_assessment + , http://dbpedia.org/resource/Maxwell%E2%80%93Boltzmann_statistics + , http://dbpedia.org/resource/Entropy + , http://dbpedia.org/resource/Maximum_entropy_classifier + , http://dbpedia.org/resource/Molecular_chaos + , http://dbpedia.org/resource/Sufficiency_%28statistics%29 + , http://dbpedia.org/resource/Density_estimation + , http://dbpedia.org/resource/Pitman%E2%80%93Koopman_theorem + , http://dbpedia.org/resource/Dissipation + , http://dbpedia.org/resource/Bounded_interval + , http://dbpedia.org/resource/Category:Statistical_principles + , http://dbpedia.org/resource/Gibbs_distribution + , http://dbpedia.org/resource/Lagrange_multiplier + , http://dbpedia.org/resource/Expected_value + , http://dbpedia.org/resource/Graham_Wallis + , http://dbpedia.org/resource/Mutually_exclusive + , http://dbpedia.org/resource/Marginalization_%28probability%29 + , http://dbpedia.org/resource/Exponentially_tilted_empirical_likelihood + , http://dbpedia.org/resource/Differential_entropy + , http://dbpedia.org/resource/Bayesian_probability + , http://dbpedia.org/resource/Logistic_regression + , http://dbpedia.org/resource/Gibbs_measure + , http://dbpedia.org/resource/Channel_coding + , http://dbpedia.org/resource/Kinetic_theory_of_gases + , http://dbpedia.org/resource/Maximum_entropy_thermodynamics + , http://dbpedia.org/resource/Natural_language_processing + , http://dbpedia.org/resource/Continuous_distribution + , http://dbpedia.org/resource/Logical_inference + , http://dbpedia.org/resource/Real_numbers + , http://dbpedia.org/resource/Information_entropy + , http://dbpedia.org/resource/Closed_form_solution + , http://dbpedia.org/resource/Limiting_density_of_discrete_points + , http://dbpedia.org/resource/Principle_of_maximum_caliber + , http://dbpedia.org/resource/Inference + , http://dbpedia.org/resource/Multinomial_distribution + , http://dbpedia.org/resource/Interval_%28mathematics%29 + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Numerical_analysis + , http://dbpedia.org/resource/Prior_probability + , http://dbpedia.org/resource/Statistical_mechanics + , http://dbpedia.org/resource/Category:Mathematical_principles + , http://dbpedia.org/resource/Partition_function_%28mathematics%29 +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Other_uses_of + , http://dbpedia.org/resource/Template:Colend + , http://dbpedia.org/resource/Template:Cols + , http://dbpedia.org/resource/Template:More_footnotes + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:ISBN + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Authority_control + , http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Statistical_mechanics_topics + , http://dbpedia.org/resource/Template:Bayesian_statistics +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Statistical_principles + , http://dbpedia.org/resource/Category:Mathematical_principles + , http://dbpedia.org/resource/Category:Probability_assessment + , http://dbpedia.org/resource/Category:Bayesian_statistics + , http://dbpedia.org/resource/Category:Entropy_and_information +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Principle_of_maximum_entropy?oldid=1123453486&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Principle_of_maximum_entropy +
owl:sameAs http://ko.dbpedia.org/resource/%EC%B5%9C%EB%8C%80_%EC%97%94%ED%8A%B8%EB%A1%9C%ED%94%BC_%EC%9B%90%EB%A6%AC + , http://rdf.freebase.com/ns/m.01cnn4 + , http://fr.dbpedia.org/resource/Principe_d%27entropie_maximale + , http://yago-knowledge.org/resource/Principle_of_maximum_entropy + , http://dbpedia.org/resource/Principle_of_maximum_entropy + , http://www.wikidata.org/entity/Q1417473 + , http://es.dbpedia.org/resource/Principio_de_m%C3%A1xima_entrop%C3%ADa + , http://fa.dbpedia.org/resource/%D8%A7%D8%B5%D9%84_%D8%AD%D8%AF%D8%A7%DA%A9%D8%AB%D8%B1_%D8%A2%D9%86%D8%AA%D8%B1%D9%88%D9%BE%DB%8C + , http://de.dbpedia.org/resource/Maximum-Entropie-Methode + , https://global.dbpedia.org/id/RUPD + , http://pt.dbpedia.org/resource/M%C3%A1xima_entropia + , http://ja.dbpedia.org/resource/%E6%9C%80%E5%A4%A7%E3%82%A8%E3%83%B3%E3%83%88%E3%83%AD%E3%83%94%E3%83%BC%E5%8E%9F%E7%90%86 + , http://ru.dbpedia.org/resource/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%BC%D0%B0%D0%BA%D1%81%D0%B8%D0%BC%D1%83%D0%BC%D0%B0_%D1%8D%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D0%B8 +
rdf:type http://dbpedia.org/class/yago/Generalization105913275 + , http://dbpedia.org/class/yago/Idea105833840 + , http://dbpedia.org/class/yago/Content105809192 + , http://dbpedia.org/class/yago/WikicatStatisticalPrinciples + , http://dbpedia.org/class/yago/Principle105913538 + , http://dbpedia.org/class/yago/WikicatMathematicalPrinciples + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 + , http://dbpedia.org/class/yago/Cognition100023271 +
rdfs:comment Le principe d'entropie maximale consiste, Le principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : * identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; * choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. La distribution de probabilité obtenue sert ensuite de probabilité a priori dans un processus classique d'inférence bayésienne. * (en) Edwin Thompson Jaynes, Information Theory and Statistical Mechanics, 1963 (lire en ligne)tatistical Mechanics, 1963 (lire en ligne) , The principle of maximum entropy states thThe principle of maximum entropy states that the probability distribution which best represents the current state of knowledge about a system is the one with largest entropy, in the context of precisely stated prior data (such as a proposition that expresses ). Another way of stating this: Take precisely stated prior data or testable information about a probability distribution function. Consider the set of all trial probability distributions that would encode the prior data. According to this principle, the distribution with maximal information entropy is the best choice.al information entropy is the best choice. , Принцип максимума энтропии утверждает, чтоПринцип максимума энтропии утверждает, что наиболее характерными распределениями вероятностей состояний неопределенной среды являются такие распределения, которые максимизируют выбранную меру неопределенности при заданной информации о «поведении» среды. Впервые подобный подход использовал Д.Гиббс для нахождения экстремальных функций распределений физических ансамблей частиц. Впоследствии Э.Джейнсом был предложен формализм восстановления неизвестных законов распределения случайных величин при наличии ограничений из условий максимума энтропии Шеннона.ний из условий максимума энтропии Шеннона. , Die Maximum-Entropie-Methode oder MEM ist Die Maximum-Entropie-Methode oder MEM ist eine Methode der Bayesschen Statistik, die erlaubt, trotz mangelhafter problemspezifischer Information eine A-priori-Wahrscheinlichkeit zuzuweisen. Sie ersetzt frühere Ansätze wie etwa das von Laplace formulierte „Prinzip vom unzureichenden Grunde“.ierte „Prinzip vom unzureichenden Grunde“. , 最大エントロピー原理(さいだいエントロピーげんり、英: principle of m最大エントロピー原理(さいだいエントロピーげんり、英: principle of maximum entropy)は、認識確率分布を一意に定めるために利用可能な情報を分析する手法である。この原理を最初に提唱したのは Edwin Thompson Jaynes である。彼は1957年に統計力学のギブズ分布を持ち込んだ熱力学()を提唱した際に、この原理も提唱したものである。彼は、熱力学やエントロピーは、情報理論や推定の汎用ツールの応用例と見るべきだと示唆した。他のベイズ的手法と同様、最大エントロピー原理でも事前確率を明示的に利用する。これは古典的統計学における推定手法の代替である。原理でも事前確率を明示的に利用する。これは古典的統計学における推定手法の代替である。 , En mecánica estadística, el principio de mEn mecánica estadística, el principio de máxima entropía establece que la distribución de probabilidad menos sesgada que se le puede atribuir a un sistema estadístico es aquella en la que dadas unas ciertas condiciones fijas maximiza la entropía, , esto es, aquella en la que la desinformación es máxima. Esto viene a decir que en una situación de desconocimiento de información la distribución estadística menos sesgada será aquella en que menos información extrínseca al problema contenga.El anterior principio implica que dada la entropía como una función de la distribución de probabilidad y las j condiciones intrínsecas al problema, la distribución menos sesgada para los N microestados cumplirá que:gada para los N microestados cumplirá que: , O desenvolvimento do método da máxima entrO desenvolvimento do método da máxima entropia (ME) ocorreu através de duas linhas de pesquisa: inferência estatística (Bernoulli, Bayes, Laplace, Jeffreys, Cox) e modelagem estatística de problemas em mecânica, física e de informação (Maxwell, Boltzmann, Gibbs, Shannon).ação (Maxwell, Boltzmann, Gibbs, Shannon).
rdfs:label Principle of maximum entropy , Principio de máxima entropía , Принцип максимума энтропии , Máxima entropia , Maximum-Entropie-Methode , Principe d'entropie maximale , 최대 엔트로피 원리 , 最大エントロピー原理
hide properties that link here 
http://dbpedia.org/resource/Maximum_entropy + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Maximum_entropy_method + , http://dbpedia.org/resource/Principle_of_Maximum_Entropy + , http://dbpedia.org/resource/Entropy_maximization + , http://dbpedia.org/resource/MaxEnt + , http://dbpedia.org/resource/Maximum_Entropy + , http://dbpedia.org/resource/Maximum_entropy_model + , http://dbpedia.org/resource/Maximum_entropy_principle + , http://dbpedia.org/resource/Entropy_maximization_principle + , http://dbpedia.org/resource/Testable_information + , http://dbpedia.org/resource/Jaynes%27_principle + , http://dbpedia.org/resource/MAXENT + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Edwin_Thompson_Jaynes + , http://dbpedia.org/resource/Energy + , http://dbpedia.org/resource/Entropy_in_thermodynamics_and_information_theory + , http://dbpedia.org/resource/Principle_of_maximum_caliber + , http://dbpedia.org/resource/Automated_reasoning + , http://dbpedia.org/resource/Aleksandr_Gorban + , http://dbpedia.org/resource/Tsallis_entropy + , http://dbpedia.org/resource/Bayesian_probability + , http://dbpedia.org/resource/Nassim_Nicholas_Taleb + , http://dbpedia.org/resource/Zeeman%E2%80%93Doppler_imaging + , http://dbpedia.org/resource/History_of_statistics + , http://dbpedia.org/resource/Maximal_entropy_random_walk + , http://dbpedia.org/resource/Anderson_localization + , http://dbpedia.org/resource/Named-entity_recognition + , http://dbpedia.org/resource/Transportation_forecasting + , http://dbpedia.org/resource/Doppler_imaging + , http://dbpedia.org/resource/Maximum_entropy_thermodynamics + , http://dbpedia.org/resource/Maximum_entropy_probability_distribution + , http://dbpedia.org/resource/Boltzmann_distribution + , http://dbpedia.org/resource/Dynamic_light_scattering + , http://dbpedia.org/resource/Athanasios_Papoulis + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Boosting_%28machine_learning%29 + , http://dbpedia.org/resource/Cost%E2%80%93benefit_analysis + , http://dbpedia.org/resource/Pipe_network_analysis + , http://dbpedia.org/resource/Land_use_regression_model + , http://dbpedia.org/resource/Lagrange_multiplier + , http://dbpedia.org/resource/Likelihood_function + , http://dbpedia.org/resource/Ising_model + , http://dbpedia.org/resource/List_of_statistics_articles + , http://dbpedia.org/resource/Principle_of_indifference + , http://dbpedia.org/resource/Maximum_entropy_method + , http://dbpedia.org/resource/Algebraic_statistics + , http://dbpedia.org/resource/List_of_probability_topics + , http://dbpedia.org/resource/Divergence_%28statistics%29 + , http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Approximate_Bayesian_computation + , http://dbpedia.org/resource/Independent_component_analysis + , http://dbpedia.org/resource/Robust_Bayesian_analysis + , http://dbpedia.org/resource/Transferable_belief_model + , http://dbpedia.org/resource/Information_extraction + , http://dbpedia.org/resource/Normal_distribution + , http://dbpedia.org/resource/Catalog_of_articles_in_probability_theory + , http://dbpedia.org/resource/Gibbs_algorithm + , http://dbpedia.org/resource/Direct_coupling_analysis + , http://dbpedia.org/resource/Maximum_likelihood_estimation + , http://dbpedia.org/resource/Maximum_entropy_spectral_estimation + , http://dbpedia.org/resource/Akaike_information_criterion + , http://dbpedia.org/resource/Prior_probability + , http://dbpedia.org/resource/Exponential_family + , http://dbpedia.org/resource/Entropy + , http://dbpedia.org/resource/Dissipation + , http://dbpedia.org/resource/Action_%28physics%29 + , http://dbpedia.org/resource/Outline_of_natural_language_processing + , http://dbpedia.org/resource/Bayesian_network + , http://dbpedia.org/resource/Species_distribution_modelling + , http://dbpedia.org/resource/Multidimensional_spectral_estimation + , http://dbpedia.org/resource/Info-metrics + , http://dbpedia.org/resource/Narendra_Kumar_%28physicist%29 + , http://dbpedia.org/resource/Index_of_physics_articles_%28P%29 + , http://dbpedia.org/resource/Quantum_Bayesianism + , http://dbpedia.org/resource/Ensemble_%28mathematical_physics%29 + , http://dbpedia.org/resource/Molecular_chaos + , http://dbpedia.org/resource/Minimum_Fisher_information + , http://dbpedia.org/resource/Maximum-entropy_random_graph_model + , http://dbpedia.org/resource/Soft_configuration_model + , http://dbpedia.org/resource/Generalized_Lotka%E2%80%93Volterra_equation + , http://dbpedia.org/resource/Principle_of_Maximum_Entropy + , http://dbpedia.org/resource/Index_of_information_theory_articles + , http://dbpedia.org/resource/Entropy_maximization + , http://dbpedia.org/resource/MaxEnt + , http://dbpedia.org/resource/Maximum_Entropy + , http://dbpedia.org/resource/Maximum_entropy_model + , http://dbpedia.org/resource/Maximum_entropy_principle + , http://dbpedia.org/resource/Maximum_entropy + , http://dbpedia.org/resource/Entropy_maximization_principle + , http://dbpedia.org/resource/Testable_information + , http://dbpedia.org/resource/Jaynes%27_principle + , http://dbpedia.org/resource/MAXENT + , http://dbpedia.org/resource/All-poles_model + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Principle_of_maximum_entropy + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Principle_of_maximum_entropy + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.