Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Mutual information
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Mutual_information
http://dbpedia.org/ontology/abstract У теорії ймовірностей та теорії інформаціїУ теорії ймовірностей та теорії інформації взає́мна інформа́ція (англ. mutual information, MI) двох випадкових змінних — це міра взаємної залежності між цими двома змінними. Конкретніше, вона визначає «кількість інформації» (в таких одиницях, як шеннони, що зазвичай називають бітами), отримуваної про одну випадкову змінну через спостерігання іншої випадкової змінної. Поняття взаємної інформації нерозривно пов'язане з ентропією випадкової змінної, фундаментальним поняттям теорії інформації, яке кількісно оцінює очікувану «кількість інформації», що міститься у випадковій змінній. Не обмежуючись, як коефіцієнт кореляції, дійснозначними випадковими змінними, взаємна інформація є загальнішою, і визначає, наскільки подібним є спільний розподіл до добутків розкладених відособлених розподілів . Взаємна інформація — це математичне сподівання поточкової взаємної інформації (англ. pointwise mutual information, PMI).(англ. pointwise mutual information, PMI). , Transinformation oder gegenseitige InformaTransinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer Markov-Quelle erster Ordnung, welche die Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren Informationsgehalt dar, der vom Sender zum Empfänger gelangt und somit maximal sein soll. Gelegentlich wird auch die Bezeichnung relative Entropie verwendet, diese entspricht jedoch der Kullback-Leibler-Divergenz. Die Transinformation steht in einem engen Zusammenhang zur Entropie und zur bedingten Entropie. So berechnet sich die Transinformation folgendermaßen: Definition über die Differenz von Quell-Entropie und Äquivokation bzw. Empfangs-Entropie und Fehlinformation: Definition über Wahrscheinlichkeiten: Definition über die Kullback-Leibler-Divergenz: Definition über den Erwartungswert: Verschwindet die Transinformation, so spricht man von statistischer Unabhängigkeit der beiden Zufallsgrößen. Die Transinformation wird maximal, wenn sich eine Zufallsgröße vollkommen aus der anderen berechnen lässt. Die Transinformation beruht auf der von Claude Shannon eingeführten Definition der Information mit Hilfe der Entropie (Unsicherheit, mittlerer Informationsgehalt). Nimmt die Transinformation zu, so verringert sich die Unsicherheit über eine Zufallsgröße unter der Voraussetzung, dass die andere bekannt ist. Ist die Transinformation maximal, verschwindet die Unsicherheit folglich. Wie aus der formalen Definition zu sehen ist, wird die Ungewissheit einer Zufallsvariable durch Kenntnis einer anderen reduziert. Dies drückt sich in der Transinformation aus. Die Transinformation spielt beispielsweise bei der Datenübertragung eine Rolle. Mit ihr lässt sich die Kanalkapazität eines Kanals bestimmen. Entsprechend kann auch eine Entropie H(Z) von zwei verschiedenen, wiederum voneinander abhängigen, Entropien abhängen: In der Fachliteratur werden verschiedene Begriffe verwendet. Die Äquivokation wird auch als „Verlustentropie“ und die Fehlinformation auch als „Irrelevanz“ bezeichnet. Die Transinformation wird auch als „Transmission“ oder „mittlerer Transinformationsgehalt“ bezeichnet.lerer Transinformationsgehalt“ bezeichnet. , En teoría de la probabilidad, y en teoría En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias es una cantidad que mide la dependencia estadística entre ambas variables. Más precisamente, mide la información o reducción de la incertidumbre (entropía) de una variable aleatoria, , debido al conocimiento del valor de otra variable aleatoria .​ No se limita a variables en números reales ni a relaciones lineales, por lo que la información mutua es más general que el coeficiente de correlación de Pearson. La información mutua también puede entenderse como el valor esperado (la media) de la información mutua puntual, o como la diferencia de la distribución conjunta y el producto de las distribuciones marginales. Esta cantidad fue definida y analizada por Claude Shannon en su trabajo seminal, "A Mathematical Theory of Communication", aunque él no la llamó "información mutua". El término fue acuñado más tarde por .​". El término fue acuñado más tarde por .​ , Vzájemná informace (anglicky Mutual information, MI) nebo (dříve) transinformace dvou náhodných proměnných je v teorii pravděpodobnosti a teorii informace míra vzájemné závislosti proměnných. Obvyklou jednotkou pro měření vzájemné informace je jeden bit. , Взаимная информация — статистическая функцВзаимная информация — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. Взаимная информация определяется через энтропию и условную энтропию двух случайных величин какловную энтропию двух случайных величин как , Nella teoria della probabilità e nella teoNella teoria della probabilità e nella teoria dell'informazione, l'informazione mutua o mutua informazione (talvolta nota con il termine arcaico di transinformazione) di due variabili casuali è una quantità che misura la mutua dipendenza delle due variabili. La più comune unità di misura della mutua informazione è il bit, quando si usano i logaritmi in base 2.it, quando si usano i logaritmi in base 2. , Em teoria das probabilidades e teoria da iEm teoria das probabilidades e teoria da informação, a informação mútua (em inglês MI de en:Mutual information) de duas variáveis aleatórias é a medida da dependência mútua entre as duas variáveis. Mais especificamente, a informação mútua quantifica a informação (em unidades como shannons, mais conhecidos como bits) que uma variável aleatória contém acerca da outra. O conceito de informação mútua esta intrinsicamente ligado ao da entropia de uma variável aleatória, uma noção fundamental da teoria da informação, que define a "quantidade de informação" contida em uma variável aleatória. Não sendo limitado a variáveis aleatória com valores reais como o coeficiente de correlação, a MI é mais genérica e determina quão similar a distribuição conjunta p(X,Y) é à dos produtos das distribuições marginais p(X)p(Y). MI é o valor esperado da pointwise mutual information (PMI).ado da pointwise mutual information (PMI). , Elkarrekiko informazioa bi zorizko aldagaiElkarrekiko informazioa bi zorizko aldagaik partekatzen duten informazio kantitatearen neurria da informazio teorian. Beste modu batera esanda, zorizko aldagai bat aztertuz beste aldagaiari buruz lortzen den informazio kantitatea da. Bi aldagaien arteko mendekotasuna neurtzen du. Horrek guztiak entropiaren kontzeptua du oinarrian.ztiak entropiaren kontzeptua du oinarrian. , 在概率论和信息论中,两个随机变量的互信息(mutual Information,MI在概率论和信息论中,两个随机变量的互信息(mutual Information,MI)度量了两个变量之间相互依赖的程度。具体来说,对于两个随机变量,MI是一个随机变量由于已知另一个随机变量而减少的“信息量”(单位通常为比特)。互信息的概念与随机变量的熵紧密相关,熵是信息论中的基本概念,它量化的是随机变量中所包含的“”。 MI不仅仅是度量实值随机变量和线性相关性(如相关系数),它更为通用。MI决定了随机变量的联合分布与和的边缘分布的乘积之间的差异。MI是点互信息(,PMI)的期望。克劳德·香农在他的论文中定义并分析了这个度量,但是当时他并没有将其称为“互信息”。这个词后来由罗伯特·法诺创造。互信息也称为信息增益。当时他并没有将其称为“互信息”。这个词后来由罗伯特·法诺创造。互信息也称为信息增益。 , In probability theory and information theoIn probability theory and information theory, the mutual information (MI) of two random variables is a measure of the mutual dependence between the two variables. More specifically, it quantifies the "amount of information" (in units such as shannons (bits), nats or hartleys) obtained about one random variable by observing the other random variable. The concept of mutual information is intimately linked to that of entropy of a random variable, a fundamental notion in information theory that quantifies the expected "amount of information" held in a random variable. Not limited to real-valued random variables and linear dependence like the correlation coefficient, MI is more general and determines how different the joint distribution of the pair is from the product of the marginal distributions of and . MI is the expected value of the pointwise mutual information (PMI). The quantity was defined and analyzed by Claude Shannon in his landmark paper "A Mathematical Theory of Communication", although he did not call it "mutual information". This term was coined later by Robert Fano. Mutual Information is also known as information gain.rmation is also known as information gain. , المعلومات المتبادلة أو المعلومات المنقولة المعلومات المتبادلة أو المعلومات المنقولة (بالإنجليزية: Mutual information)‏ هو مصطلح من نظرية المعلومات، تدل على قوة الارتباط الإحصائي لمتغيرين عشوائيين. وتسمى المعلومات المنقولة أيضاً توليف (بالإنجليزية: Synentropie)‏. على النقيض من توليف سلسلة ماركوف من الدرجة الأولى، والذي يعبر عن إسراف المصدر وبالتالي يجب أن يكون في حده الأدنى، يمثل تزامن القناة متوسط محتوى المعلومات الذي يصل من جهاز الإرسال إلى جهاز الاستقبال وبالتالي يجب أن يكون الحد الأقصى للمعلومات المتاحة للنقل. يستخدم مصطلح الانتروبيا في بعض الأحيان، ولكن هذا يتوافق مع تباعد كولباك-ليبلر. يرتبط التحول المطلق ارتباطًا وثيقًا بالانتروبيا والانتروبيا الشرطية. هذه هي الطريقة التي يتم بها حساب التحول كالآتي: تعريف الفرق بين إنتروبيا المصدر و‌الالتباس أو إنتروبيا الاستقبال والمعلومات الخاطئة: التعريف عبر الاحتمالات: تعريف حول تباعد كولباك - ليبلير: تعريف القيمة المتوقعة: إذا اختفى التحويل، يمكننا الحديث عن الاستقلال الإحصائي للمتغيرين العشوائيين. يصبح التحويل أكبر قدر ممكن عندما يمكن حساب متغير عشوائي واحد بالكامل من الآخر. يعتمد تبادل المعلومات على تعريف المعلومات باستخدام الإنتروبيا (عدم اليقين، متوسط محتوى المعلومات) الذي قدمه كلود شانون. إذا زادت المعلومات المنقولة، يقل الشك بشأن المتغير العشوائي، بشرط أن يكون الآخر معروفًا. إذا كانت المعلومات المنقولة بحدها الأقصى، يختفي عدم اليقين. كما يتبين من التعريف الرسمي، يتم تقليل عدم اليقين لمتغير عشوائي عن طريق معرفة متغير آخر. يتم التعبير عن هذا في المعلومات المنقولة. تلعب المعلومات المنقولة على سبيل المثال دورًا في نقل البيانات، يمكن استخدامه لتحديد سعة القناة. وفقًا لذلك، يمكن أن تعتمد الإنتروبيا أيضًا على اثنين من الأنتروبيا المختلفة، التي تعتمد على بعضها البعض، وهي: يتم استخدام مصطلحات مختلفة في المراجع المتخصصة. ويشار إلى الالتباس أيضًا على أنها «إنتروبيا الخسارة» والمعلومات الخاطئة على أنها «غير ذات صلة». ويشار أيضًا إلى المعلومات المحولة بأنها «انتقال» أو «متوسط محتوى المعلومات المحولة».نتقال» أو «متوسط محتوى المعلومات المحولة». , 相互情報量(そうごじょうほうりょう、英: mutual information)または伝達情報量(でんたつじょうほうりょう、英: transinformation)は、確率論および情報理論において、2つの確率変数の相互依存の尺度を表す量である。最も典型的な相互情報量の物理単位はビットであり、2 を底とする対数が使われることが多い。 , 확률 이론과 정보 이론에서 두 개의 무작위 변수의 상호의존정보(또는 상호 정확률 이론과 정보 이론에서 두 개의 무작위 변수의 상호의존정보(또는 상호 정보, Mutual information , MI)는 두 변수 사이의 상호 의존성을 측정 한 것이다. 보다 구체적으로 말하면 , 다른 무작위 변수를 통해 하나의 무작위 변수에 대해 얻어진 "정보량"( 섀넌과 같은 단위 , 더 일반적으로 비트라고 부름)을 정량화(계량화) 한다. 상호 정보의 개념은 무작위 변수의 엔트로피의 개념과 복잡하게 연관되어 있으며, 무작위 변수의 "정보량"을 정의하는 정보 이론의 기본 개념이다. p( X , Y )는 p ( X ) p ( Y )의 분해 된 결합분포의 산물이며, 상관 계수와 같은 실수 값의 무작위 변수에 국한되지 않는다. 상호정보(MI)는 ( pointwise mutual information ,PMI)의 예상 값이다.ointwise mutual information ,PMI)의 예상 값이다. , Informacja wzajemna – pojęcie z zakresu teInformacja wzajemna – pojęcie z zakresu teorii informacji, będące miarą zależności pomiędzy dwiema zmiennymi losowymi. Zwykle podaje się ją w bitach, co oznacza, że wylicza się ją przy użyciu logarytmów o podstawie 2. Intuicyjnie informacja wzajemna mierzy, ile informacji o X można poznać, znając Y, czyli o ile poznanie jednej z tych zmiennych zmniejsza niepewność o drugiej. Jeśli zmienne X i Y są niezależne, to ich wzajemna informacja jest zerowa (znajomość jednej nie mówi niczego o drugiej). Jeśli X i Y są identyczne, to każda zawiera pełną wiedzę o drugiej. Wtedy informacja wzajemna jest równa entropii X (albo Y – skoro są identyczne, to ich entropia jest taka sama).entyczne, to ich entropia jest taka sama). , Dans la théorie des probabilités et la théDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre. Informellement, on dit que deux variables sont indépendantes si la réalisation de l'une n'apporte aucune information sur la réalisation de l'autre. Le coefficient de corrélation est une mesure du cas particulier de dépendance dans lequel la relation entre les deux variables est strictement linéaire. L'information mutuelle est nulle si et seulement si les variables sont indépendantes, et croit lorsque la dépendance augmente., et croit lorsque la dépendance augmente.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Entropy-mutual-information-relative-entropy-relation-diagram.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink http://www.cwi.nl/~paulv/papers/cluster.pdf + , http://www.ai.mit.edu/people/sw/papers/mia.pdf + , https://web.archive.org/web/20080906201633/http:/www.ai.mit.edu/people/sw/papers/mia.pdf + , http://research.janelia.org/peng/proj/mRMR/index.htm%7Cdoi=10.1109/tpami.2005.159%7Cpmid=16119262%7Cciteseerx=10.1.1.63.5765%7Cs2cid=206764015 + , http://dl.acm.org/citation.cfm%3Fid=89095%7Cdoi=10.3115/981623.981633%7Cdoi-access=free + , http://www.inference.phy.cam.ac.uk/mackay/itila/book.html + , http://www.cs.waikato.ac.nz/~ml/weka/book.html +
http://dbpedia.org/ontology/wikiPageID 427282
http://dbpedia.org/ontology/wikiPageLength 54475
http://dbpedia.org/ontology/wikiPageRevisionID 1110357481
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Bivariate_normal_distribution + , http://dbpedia.org/resource/Adjusted_mutual_information + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Claude_Shannon + , http://dbpedia.org/resource/Time_reversal_symmetry + , http://dbpedia.org/resource/Statistical_dependence + , http://dbpedia.org/resource/Identity_of_indiscernibles + , http://dbpedia.org/resource/Probability_theory + , http://dbpedia.org/resource/Nat_%28unit%29 + , http://dbpedia.org/resource/Uncertainty_coefficient + , http://dbpedia.org/resource/Channel_capacity + , http://dbpedia.org/resource/Category:Entropy_and_information + , http://dbpedia.org/resource/Phase_space + , http://dbpedia.org/resource/Metric_%28mathematics%29 + , http://dbpedia.org/resource/Directed_information + , http://dbpedia.org/resource/Random_variable + , http://dbpedia.org/resource/Conditional_entropy + , http://dbpedia.org/resource/James_Massey + , http://dbpedia.org/resource/Hierarchical_clustering + , http://dbpedia.org/resource/Quantum_mutual_information + , http://dbpedia.org/resource/Athanasios_Papoulis + , http://dbpedia.org/resource/Contingency_table + , http://dbpedia.org/resource/Category:Information_theory + , http://dbpedia.org/resource/Triangle_inequality + , http://dbpedia.org/resource/H-theorem + , http://dbpedia.org/resource/Specific-information + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/If_and_only_if + , http://dbpedia.org/resource/Boltzmann + , http://dbpedia.org/resource/Data_compression + , http://dbpedia.org/resource/Cosmology + , http://dbpedia.org/resource/Bit + , http://dbpedia.org/resource/Discriminative_model + , http://dbpedia.org/resource/Information_gain + , http://dbpedia.org/resource/Kolmogorov_complexity + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Information_content + , http://dbpedia.org/resource/Loschmidt%27s_paradox + , http://dbpedia.org/resource/Differential_rotation + , http://dbpedia.org/resource/Similarity_measure + , http://dbpedia.org/resource/Phase_synchronization + , http://dbpedia.org/resource/Non-negative + , http://dbpedia.org/resource/Pr%C3%A4gnanz + , http://dbpedia.org/resource/Medical_imaging + , http://dbpedia.org/resource/Maximum_mutual_information + , http://dbpedia.org/resource/Product_moment_correlation_coefficient + , http://dbpedia.org/resource/File:Entropy-mutual-information-relative-entropy-relation-diagram.svg + , http://dbpedia.org/resource/File:Figchannel2017ab.svg + , http://dbpedia.org/resource/Delay_embedding_theorem + , http://dbpedia.org/resource/Galaxy_Zoo + , http://dbpedia.org/resource/Partition_of_a_set + , http://dbpedia.org/resource/Data_differencing + , http://dbpedia.org/resource/Natural_logarithm + , http://dbpedia.org/resource/Inequalities_in_information_theory + , http://dbpedia.org/resource/Expected_value + , http://dbpedia.org/resource/Springer-Verlag + , http://dbpedia.org/resource/Variation_of_information + , http://dbpedia.org/resource/Variance + , http://dbpedia.org/resource/Harmonic_mean + , http://dbpedia.org/resource/Gibbs_sampling + , http://dbpedia.org/resource/Statistical_mechanics + , http://dbpedia.org/resource/Feature_selection + , http://dbpedia.org/resource/Shannon_%28unit%29 + , http://dbpedia.org/resource/Bayesian_network + , http://dbpedia.org/resource/Time_series + , http://dbpedia.org/resource/Units_of_information + , http://dbpedia.org/resource/Robert_Fano + , http://dbpedia.org/resource/Gene_regulatory_network + , http://dbpedia.org/resource/Second_law_of_thermodynamics + , http://dbpedia.org/resource/Domain_knowledge + , http://dbpedia.org/resource/Discrete_random_variable + , http://dbpedia.org/resource/Corpus_linguistics + , http://dbpedia.org/resource/Hidden_Markov_model + , http://dbpedia.org/resource/Pearson%27s_chi-squared_test + , http://dbpedia.org/resource/Multiple_sequence_alignment + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Pointwise_mutual_information + , http://dbpedia.org/resource/Joint_entropy + , http://dbpedia.org/resource/Symmetric_function + , http://dbpedia.org/resource/Gene + , http://dbpedia.org/resource/Logarithm + , http://dbpedia.org/resource/Infomax + , http://dbpedia.org/resource/Association_%28statistics%29 + , http://dbpedia.org/resource/Genes + , http://dbpedia.org/resource/Telecommunications + , http://dbpedia.org/resource/Hartley_%28unit%29 + , http://dbpedia.org/resource/Phylogenetic_profiling + , http://dbpedia.org/resource/Jensen%27s_inequality + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Microarray + , http://dbpedia.org/resource/Jaccard_index + , http://dbpedia.org/resource/Dynamic_Bayesian_network + , http://dbpedia.org/resource/Adjusted_Rand_index + , http://dbpedia.org/resource/Pearson_product-moment_correlation_coefficient + , http://dbpedia.org/resource/Coordinate_system + , http://dbpedia.org/resource/Search_engine_technology + , http://dbpedia.org/resource/Nucleic_acid_secondary_structure + , http://dbpedia.org/resource/Marginal_distribution + , http://dbpedia.org/resource/Image_registration + , http://dbpedia.org/resource/Pearson_correlation_coefficient + , http://dbpedia.org/resource/Matlab + , http://dbpedia.org/resource/Causality + , http://dbpedia.org/resource/Marginal_probability + , http://dbpedia.org/resource/Minimum_redundancy_feature_selection + , http://dbpedia.org/resource/Univariate_distribution + , http://dbpedia.org/resource/Correlation_and_dependence + , http://dbpedia.org/resource/Covariance + , http://dbpedia.org/resource/Collocation + , http://dbpedia.org/resource/Conditional_distribution + , http://dbpedia.org/resource/Solar_Physics + , http://dbpedia.org/resource/Non-negative_matrix_factorization + , http://dbpedia.org/resource/Total_correlation + , http://dbpedia.org/resource/Chain_rule_for_Kolmogorov_complexity + , http://dbpedia.org/resource/Dual_total_correlation + , http://dbpedia.org/resource/Double_integral + , http://dbpedia.org/resource/Outer_product + , http://dbpedia.org/resource/Joint_distribution + , http://dbpedia.org/resource/Information_entropy + , http://dbpedia.org/resource/Rand_index + , http://dbpedia.org/resource/Liouville%27s_theorem_%28Hamiltonian%29 + , http://dbpedia.org/resource/K-means_clustering + , http://dbpedia.org/resource/A_Mathematical_Theory_of_Communication + , http://dbpedia.org/resource/Continuous_random_variable + , http://dbpedia.org/resource/Redundancy_%28information_theory%29 + , http://dbpedia.org/resource/Decision_tree_learning + , http://dbpedia.org/resource/G-test + , http://dbpedia.org/resource/Independent_component_analysis +
http://dbpedia.org/property/backgroundColour #F5FFFA
http://dbpedia.org/property/borderColour #0073CF
http://dbpedia.org/property/indent : , ::
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Information_theory + , http://dbpedia.org/resource/Template:Rp + , http://dbpedia.org/resource/Template:NumBlk + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Authority_control + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Sfn + , http://dbpedia.org/resource/Template:Isbn + , http://dbpedia.org/resource/Template:EquationRef + , http://dbpedia.org/resource/Template:Equation_box_1 + , http://dbpedia.org/resource/Template:Dubious + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Harv + , http://dbpedia.org/resource/Template:Harvnb + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:Harvard_citation +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Information_theory + , http://dbpedia.org/resource/Category:Entropy_and_information +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Measure +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Mutual_information?oldid=1110357481&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Figchannel2017ab.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Entropy-mutual-information-relative-entropy-relation-diagram.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Mutual_information +
owl:sameAs http://rdf.freebase.com/ns/m.02768b + , http://ar.dbpedia.org/resource/%D9%85%D8%B9%D9%84%D9%88%D9%85%D8%A7%D8%AA_%D9%85%D8%AA%D8%A8%D8%A7%D8%AF%D9%84%D8%A9 + , http://zh.dbpedia.org/resource/%E4%BA%92%E4%BF%A1%E6%81%AF + , http://it.dbpedia.org/resource/Informazione_mutua + , http://bar.dbpedia.org/resource/Transinformation + , http://www.wikidata.org/entity/Q252973 + , https://global.dbpedia.org/id/2Np2T + , http://pt.dbpedia.org/resource/Informa%C3%A7%C3%A3o_m%C3%BAtua + , http://eu.dbpedia.org/resource/Elkarrekiko_informazio + , http://ru.dbpedia.org/resource/%D0%92%D0%B7%D0%B0%D0%B8%D0%BC%D0%BD%D0%B0%D1%8F_%D0%B8%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D1%8F + , http://simple.dbpedia.org/resource/Mutual_information + , http://d-nb.info/gnd/4779212-7 + , http://de.dbpedia.org/resource/Transinformation + , http://cs.dbpedia.org/resource/Vz%C3%A1jemn%C3%A1_informace + , http://ja.dbpedia.org/resource/%E7%9B%B8%E4%BA%92%E6%83%85%E5%A0%B1%E9%87%8F + , http://he.dbpedia.org/resource/%D7%90%D7%99%D7%A0%D7%A4%D7%95%D7%A8%D7%9E%D7%A6%D7%99%D7%94_%D7%94%D7%93%D7%93%D7%99%D7%AA + , http://fa.dbpedia.org/resource/%D8%A7%D8%B7%D9%84%D8%A7%D8%B9%D8%A7%D8%AA_%D9%85%D8%AA%D9%82%D8%A7%D8%A8%D9%84 + , http://dbpedia.org/resource/Mutual_information + , http://pl.dbpedia.org/resource/Informacja_wzajemna + , http://uk.dbpedia.org/resource/%D0%92%D0%B7%D0%B0%D1%94%D0%BC%D0%BD%D0%B0_%D1%96%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D1%96%D1%8F + , http://ko.dbpedia.org/resource/%EC%83%81%ED%98%B8%EC%9D%98%EC%A1%B4%EC%A0%95%EB%B3%B4 + , http://es.dbpedia.org/resource/Informaci%C3%B3n_mutua + , http://fr.dbpedia.org/resource/Information_mutuelle +
rdf:type http://dbpedia.org/ontology/Software +
rdfs:comment Transinformation oder gegenseitige InformaTransinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer Markov-Quelle erster Ordnung, welche die Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren Informationsgehalt dar, der vom Sender zum Empfänger gelangt und somit maximal sein soll. Definition über Wahrscheinlichkeiten:oll. Definition über Wahrscheinlichkeiten: , المعلومات المتبادلة أو المعلومات المنقولة المعلومات المتبادلة أو المعلومات المنقولة (بالإنجليزية: Mutual information)‏ هو مصطلح من نظرية المعلومات، تدل على قوة الارتباط الإحصائي لمتغيرين عشوائيين. وتسمى المعلومات المنقولة أيضاً توليف (بالإنجليزية: Synentropie)‏. على النقيض من توليف سلسلة ماركوف من الدرجة الأولى، والذي يعبر عن إسراف المصدر وبالتالي يجب أن يكون في حده الأدنى، يمثل تزامن القناة متوسط محتوى المعلومات الذي يصل من جهاز الإرسال إلى جهاز الاستقبال وبالتالي يجب أن يكون الحد الأقصى للمعلومات المتاحة للنقل. يستخدم مصطلح الانتروبيا في بعض الأحيان، ولكن هذا يتوافق مع تباعد كولباك-ليبلر. التعريف عبر الاحتمالات: تعريف القيمة المتوقعة:ريف عبر الاحتمالات: تعريف القيمة المتوقعة: , У теорії ймовірностей та теорії інформаціїУ теорії ймовірностей та теорії інформації взає́мна інформа́ція (англ. mutual information, MI) двох випадкових змінних — це міра взаємної залежності між цими двома змінними. Конкретніше, вона визначає «кількість інформації» (в таких одиницях, як шеннони, що зазвичай називають бітами), отримуваної про одну випадкову змінну через спостерігання іншої випадкової змінної. Поняття взаємної інформації нерозривно пов'язане з ентропією випадкової змінної, фундаментальним поняттям теорії інформації, яке кількісно оцінює очікувану «кількість інформації», що міститься у випадковій змінній.мації», що міститься у випадковій змінній. , In probability theory and information theoIn probability theory and information theory, the mutual information (MI) of two random variables is a measure of the mutual dependence between the two variables. More specifically, it quantifies the "amount of information" (in units such as shannons (bits), nats or hartleys) obtained about one random variable by observing the other random variable. The concept of mutual information is intimately linked to that of entropy of a random variable, a fundamental notion in information theory that quantifies the expected "amount of information" held in a random variable.of information" held in a random variable. , 확률 이론과 정보 이론에서 두 개의 무작위 변수의 상호의존정보(또는 상호 정확률 이론과 정보 이론에서 두 개의 무작위 변수의 상호의존정보(또는 상호 정보, Mutual information , MI)는 두 변수 사이의 상호 의존성을 측정 한 것이다. 보다 구체적으로 말하면 , 다른 무작위 변수를 통해 하나의 무작위 변수에 대해 얻어진 "정보량"( 섀넌과 같은 단위 , 더 일반적으로 비트라고 부름)을 정량화(계량화) 한다. 상호 정보의 개념은 무작위 변수의 엔트로피의 개념과 복잡하게 연관되어 있으며, 무작위 변수의 "정보량"을 정의하는 정보 이론의 기본 개념이다. p( X , Y )는 p ( X ) p ( Y )의 분해 된 결합분포의 산물이며, 상관 계수와 같은 실수 값의 무작위 변수에 국한되지 않는다. 상호정보(MI)는 ( pointwise mutual information ,PMI)의 예상 값이다.ointwise mutual information ,PMI)의 예상 값이다. , 相互情報量(そうごじょうほうりょう、英: mutual information)または伝達情報量(でんたつじょうほうりょう、英: transinformation)は、確率論および情報理論において、2つの確率変数の相互依存の尺度を表す量である。最も典型的な相互情報量の物理単位はビットであり、2 を底とする対数が使われることが多い。 , Em teoria das probabilidades e teoria da iEm teoria das probabilidades e teoria da informação, a informação mútua (em inglês MI de en:Mutual information) de duas variáveis aleatórias é a medida da dependência mútua entre as duas variáveis. Mais especificamente, a informação mútua quantifica a informação (em unidades como shannons, mais conhecidos como bits) que uma variável aleatória contém acerca da outra. O conceito de informação mútua esta intrinsicamente ligado ao da entropia de uma variável aleatória, uma noção fundamental da teoria da informação, que define a "quantidade de informação" contida em uma variável aleatória.rmação" contida em uma variável aleatória. , Nella teoria della probabilità e nella teoNella teoria della probabilità e nella teoria dell'informazione, l'informazione mutua o mutua informazione (talvolta nota con il termine arcaico di transinformazione) di due variabili casuali è una quantità che misura la mutua dipendenza delle due variabili. La più comune unità di misura della mutua informazione è il bit, quando si usano i logaritmi in base 2.it, quando si usano i logaritmi in base 2. , En teoría de la probabilidad, y en teoría En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias es una cantidad que mide la dependencia estadística entre ambas variables. Más precisamente, mide la información o reducción de la incertidumbre (entropía) de una variable aleatoria, , debido al conocimiento del valor de otra variable aleatoria .​to del valor de otra variable aleatoria .​ , Vzájemná informace (anglicky Mutual information, MI) nebo (dříve) transinformace dvou náhodných proměnných je v teorii pravděpodobnosti a teorii informace míra vzájemné závislosti proměnných. Obvyklou jednotkou pro měření vzájemné informace je jeden bit. , Dans la théorie des probabilités et la théDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre. L'information mutuelle est nulle si et seulement si les variables sont indépendantes, et croit lorsque la dépendance augmente., et croit lorsque la dépendance augmente. , Elkarrekiko informazioa bi zorizko aldagaiElkarrekiko informazioa bi zorizko aldagaik partekatzen duten informazio kantitatearen neurria da informazio teorian. Beste modu batera esanda, zorizko aldagai bat aztertuz beste aldagaiari buruz lortzen den informazio kantitatea da. Bi aldagaien arteko mendekotasuna neurtzen du. Horrek guztiak entropiaren kontzeptua du oinarrian.ztiak entropiaren kontzeptua du oinarrian. , 在概率论和信息论中,两个随机变量的互信息(mutual Information,MI在概率论和信息论中,两个随机变量的互信息(mutual Information,MI)度量了两个变量之间相互依赖的程度。具体来说,对于两个随机变量,MI是一个随机变量由于已知另一个随机变量而减少的“信息量”(单位通常为比特)。互信息的概念与随机变量的熵紧密相关,熵是信息论中的基本概念,它量化的是随机变量中所包含的“”。 MI不仅仅是度量实值随机变量和线性相关性(如相关系数),它更为通用。MI决定了随机变量的联合分布与和的边缘分布的乘积之间的差异。MI是点互信息(,PMI)的期望。克劳德·香农在他的论文中定义并分析了这个度量,但是当时他并没有将其称为“互信息”。这个词后来由罗伯特·法诺创造。互信息也称为信息增益。当时他并没有将其称为“互信息”。这个词后来由罗伯特·法诺创造。互信息也称为信息增益。 , Взаимная информация — статистическая функцВзаимная информация — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. Взаимная информация определяется через энтропию и условную энтропию двух случайных величин какловную энтропию двух случайных величин как , Informacja wzajemna – pojęcie z zakresu teorii informacji, będące miarą zależności pomiędzy dwiema zmiennymi losowymi. Zwykle podaje się ją w bitach, co oznacza, że wylicza się ją przy użyciu logarytmów o podstawie 2.
rdfs:label Взаимная информация , Informacja wzajemna , معلومات متبادلة , Vzájemná informace , 相互情報量 , Mutual information , 互信息 , Informazione mutua , Information mutuelle , Informação mútua , Transinformation , Información mutua , 상호의존정보 , Взаємна інформація , Elkarrekiko informazio
hide properties that link here 
http://dbpedia.org/resource/Mutual + , http://dbpedia.org/resource/MI + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Mutual_Information + , http://dbpedia.org/resource/Average_Mutual_Information + , http://dbpedia.org/resource/Average_mutual_information + , http://dbpedia.org/resource/Transinformation + , http://dbpedia.org/resource/Symmetric_uncertainty + , http://dbpedia.org/resource/Mutual-information + , http://dbpedia.org/resource/Mutual_entropy + , http://dbpedia.org/resource/Coefficient_of_constraint + , http://dbpedia.org/resource/Coefficient_of_uncertainty + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Random_variable + , http://dbpedia.org/resource/Differential_entropy + , http://dbpedia.org/resource/Dimensionality_reduction + , http://dbpedia.org/resource/Phase-shift_keying + , http://dbpedia.org/resource/Brain_connectivity_estimators + , http://dbpedia.org/resource/Maximally_informative_dimensions + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Entropy_as_an_arrow_of_time + , http://dbpedia.org/resource/Transfer_entropy + , http://dbpedia.org/resource/Chow%E2%80%93Liu_tree + , http://dbpedia.org/resource/Recurrence_period_density_entropy + , http://dbpedia.org/resource/Independent_component_analysis + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/Correlation + , http://dbpedia.org/resource/Noisy-channel_coding_theorem + , http://dbpedia.org/resource/Cluster_labeling + , http://dbpedia.org/resource/Variation_of_information + , http://dbpedia.org/resource/Fairness_%28machine_learning%29 + , http://dbpedia.org/resource/Granular_computing + , http://dbpedia.org/resource/Biclustering + , http://dbpedia.org/resource/Collocation_extraction + , http://dbpedia.org/resource/Quantities_of_information + , http://dbpedia.org/resource/Shannon_%28unit%29 + , http://dbpedia.org/resource/Squashed_entanglement + , http://dbpedia.org/resource/Coreference + , http://dbpedia.org/resource/List_of_probability_topics + , http://dbpedia.org/resource/Catalog_of_articles_in_probability_theory + , http://dbpedia.org/resource/Cue_validity + , http://dbpedia.org/resource/Information_diagram + , http://dbpedia.org/resource/Lancichinetti%E2%80%93Fortunato%E2%80%93Radicchi_benchmark + , http://dbpedia.org/resource/Chain_rule_for_Kolmogorov_complexity + , http://dbpedia.org/resource/Synergy + , http://dbpedia.org/resource/Fisher_information + , http://dbpedia.org/resource/Bregman_divergence + , http://dbpedia.org/resource/Category_utility + , http://dbpedia.org/resource/Jaccard_index + , http://dbpedia.org/resource/Alignment-free_sequence_analysis + , http://dbpedia.org/resource/Binary_symmetric_channel + , http://dbpedia.org/resource/Infomax + , http://dbpedia.org/resource/Law_of_total_variance + , http://dbpedia.org/resource/Tf%E2%80%93idf + , http://dbpedia.org/resource/Generalized_relative_entropy + , http://dbpedia.org/resource/Bayesian_experimental_design + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Channel_capacity + , http://dbpedia.org/resource/Collocation + , http://dbpedia.org/resource/Quantum_mutual_information + , http://dbpedia.org/resource/Additive_white_Gaussian_noise + , http://dbpedia.org/resource/Information_bottleneck_method + , http://dbpedia.org/resource/Information_theory_and_measure_theory + , http://dbpedia.org/resource/Elastix_%28image_registration%29 + , http://dbpedia.org/resource/Conditional_mutual_information + , http://dbpedia.org/resource/Gambling_and_information_theory + , http://dbpedia.org/resource/Nucleic_acid_structure_prediction + , http://dbpedia.org/resource/Image_registration + , http://dbpedia.org/resource/Adjusted_mutual_information + , http://dbpedia.org/resource/Information + , http://dbpedia.org/resource/Rate%E2%80%93distortion_theory + , http://dbpedia.org/resource/Graph_entropy + , http://dbpedia.org/resource/Biweight_midcorrelation + , http://dbpedia.org/resource/Coherent_information + , http://dbpedia.org/resource/Specific-information + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Peter_Grassberger + , http://dbpedia.org/resource/Medical_image_computing + , http://dbpedia.org/resource/Harry_Swinney + , http://dbpedia.org/resource/Holevo%27s_theorem + , http://dbpedia.org/resource/Co-occurrence + , http://dbpedia.org/resource/Uncertainty_coefficient + , http://dbpedia.org/resource/R%C3%A9nyi_entropy + , http://dbpedia.org/resource/Models_of_collaborative_tagging + , http://dbpedia.org/resource/Feature_selection + , http://dbpedia.org/resource/Topological_data_analysis + , http://dbpedia.org/resource/Brown_clustering + , http://dbpedia.org/resource/G-test + , http://dbpedia.org/resource/Kadir%E2%80%93Brady_saliency_detector + , http://dbpedia.org/resource/Redundancy_%28information_theory%29 + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Marginal_distribution + , http://dbpedia.org/resource/Free_energy_principle + , http://dbpedia.org/resource/Pointwise_mutual_information + , http://dbpedia.org/resource/Feature_learning + , http://dbpedia.org/resource/Beta_distribution + , http://dbpedia.org/resource/Horizontal_correlation + , http://dbpedia.org/resource/Conceptual_clustering + , http://dbpedia.org/resource/Minimum_redundancy_feature_selection + , http://dbpedia.org/resource/Submodular_set_function + , http://dbpedia.org/resource/Statistical_coupling_analysis + , http://dbpedia.org/resource/Community_structure + , http://dbpedia.org/resource/Semi-global_matching + , http://dbpedia.org/resource/Dependent_component_analysis + , http://dbpedia.org/resource/Functional_magnetic_resonance_imaging + , http://dbpedia.org/resource/One-shot_learning + , http://dbpedia.org/resource/Quantum_discord + , http://dbpedia.org/resource/MII + , http://dbpedia.org/resource/Decision_tree_learning + , http://dbpedia.org/resource/Quantum_entanglement + , http://dbpedia.org/resource/Maxwell%27s_demon + , http://dbpedia.org/resource/Neural_coding + , http://dbpedia.org/resource/Principal_component_analysis + , http://dbpedia.org/resource/Multivariate_normal_distribution + , http://dbpedia.org/resource/Sufficient_statistic + , http://dbpedia.org/resource/Joint_entropy + , http://dbpedia.org/resource/Kernel_embedding_of_distributions + , http://dbpedia.org/resource/Discretization_of_continuous_features + , http://dbpedia.org/resource/Recurrence_plot + , http://dbpedia.org/resource/Jensen%E2%80%93Shannon_divergence + , http://dbpedia.org/resource/CDF-based_nonparametric_confidence_interval + , http://dbpedia.org/resource/Molecular_demon + , http://dbpedia.org/resource/K-nearest_neighbors_algorithm + , http://dbpedia.org/resource/Entropic_vector + , http://dbpedia.org/resource/Ecosystem_model + , http://dbpedia.org/resource/Kolmogorov_complexity + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Bayesian_network + , http://dbpedia.org/resource/Theoretical_ecology + , http://dbpedia.org/resource/Spike-triggered_average + , http://dbpedia.org/resource/Spectral_flatness + , http://dbpedia.org/resource/Computer_performance + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Information_content + , http://dbpedia.org/resource/Conditional_entropy + , http://dbpedia.org/resource/Cross_entropy + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/Arbitrarily_varying_channel + , http://dbpedia.org/resource/Cross-correlation_matrix + , http://dbpedia.org/resource/Calgary_corpus + , http://dbpedia.org/resource/Information_gain_%28decision_tree%29 + , http://dbpedia.org/resource/Information_gain_ratio + , http://dbpedia.org/resource/Stochastic_resonance_%28sensory_neurobiology%29 + , http://dbpedia.org/resource/Mutual + , http://dbpedia.org/resource/Mutual_Information + , http://dbpedia.org/resource/MIMO + , http://dbpedia.org/resource/Decoding_Reality + , http://dbpedia.org/resource/Superadditivity + , http://dbpedia.org/resource/Single-cell_transcriptomics + , http://dbpedia.org/resource/Coupled_map_lattice + , http://dbpedia.org/resource/MI + , http://dbpedia.org/resource/Vine_copula + , http://dbpedia.org/resource/Correlation_function + , http://dbpedia.org/resource/Dual_total_correlation + , http://dbpedia.org/resource/Total_correlation + , http://dbpedia.org/resource/Joint_quantum_entropy + , http://dbpedia.org/resource/Kaldi_%28software%29 + , http://dbpedia.org/resource/History_of_information_theory + , http://dbpedia.org/resource/Average_Mutual_Information + , http://dbpedia.org/resource/Average_mutual_information + , http://dbpedia.org/resource/Transinformation + , http://dbpedia.org/resource/Symmetric_uncertainty + , http://dbpedia.org/resource/Mutual-information + , http://dbpedia.org/resource/Mutual_entropy + , http://dbpedia.org/resource/Coefficient_of_constraint + , http://dbpedia.org/resource/Coefficient_of_uncertainty + , http://dbpedia.org/resource/Multipartite_entanglement + , http://dbpedia.org/resource/Interaction_information + , http://dbpedia.org/resource/MMI + , http://dbpedia.org/resource/Data_processing_inequality + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Mutual_information + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Mutual_information + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.