Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Algorithmic information theory
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Algorithmic_information_theory
http://dbpedia.org/ontology/abstract アルゴリズム情報理論(あるごりずむじょうほうりろん、英: Algorithmic information theory)は、情報理論と計算機科学の一分野であり、計算理論や情報科学とも関連がある。グレゴリー・チャイティンによれば、「シャノンの情報理論とチューリングの計算複雑性理論をシェイカーに入れて、力いっぱいシェイクしてできたもの」である。 , La teoria algorísmica de la informació és La teoria algorísmica de la informació és una branca de la informàtica teòrica que s'ocupa de la relació entre la computació i la informació d'objectes generats computacionalment (a diferència dels generats estocàsticament), com ara cadenes de caràcters o qualsevol altra estructura de dades. En altres paraules, es mostra dins de la teoria algorísmica de la informació que la incompressibilitat computacional "imita" (excepte una constant que només depèn del llenguatge de programació universal escollit) les relacions o desigualtats que es troben en la teoria de la informació. Segons Gregory Chaitin, és "el resultat de posar la teoria de la informació de Shannon i la (teoria de la computabilitat de Turing) en una coctelera i sacsejar amb força". A més de la formalització d'una mesura universal per al contingut d'informació irreductible d'objectes generats computacionalment, alguns dels èxits principals de la teoria algorísmica de la informació van ser mostrar que: de fet, la complexitat algorísmica segueix (en el cas ) les mateixes desigualtats (excepte una constant) que l'entropia, com en la teoria clàssica de la informació; l'aleatorietat és incompressibilitat; i, dins de l'àmbit del programari generat aleatòriament, la probabilitat d'ocurrència de qualsevol estructura de dades és de l'ordre del programa més curt que la genera quan s'executa en una màquina universal. La teoria algorísmica de la informació estudia principalment mesures del contingut d'informació irreductible de les cadenes de caràcters (o altres estructures de dades). Com que la majoria d'objectes matemàtics es poden descriure en termes de cadenes de caràcters, o com el límit d'una seqüència de cadenes, es pot utilitzar per estudiar una gran varietat d'objectes matemàtics, inclosos els nombres enters. Una de les principals motivacions darrere de la teoria algorísmica de la informació és l'estudi de la informació que transporten els objectes matemàtics com en el camp de les metamatemàtiques, per exemple, tal com mostren els resultats d'incompletesa esmentats més endavant. Altres motivacions principals provenien de: la superació de les limitacions de la teoria clàssica de la informació per a objectes individuals i fixos; formalitzar el concepte d'aleatorietat; i trobar una inferència probabilística significativa sense coneixement previ de la distribució de probabilitat (per exemple, si és independent i distribuïda de manera idèntica, markoviana o fins i tot ). D'aquesta manera, se sap que la teoria algorísmica de la informació es basa en tres conceptes matemàtics principals i les relacions entre ells: complexitat algorísmica, i .s entre ells: complexitat algorísmica, i . , Algorithmic information theory (AIT) is a Algorithmic information theory (AIT) is a branch of theoretical computer science that concerns itself with the relationship between computation and information of computably generated objects (as opposed to stochastically generated), such as strings or any other data structure. In other words, it is shown within algorithmic information theory that computational incompressibility "mimics" (except for a constant that only depends on the chosen universal programming language) the relations or inequalities found in information theory. According to Gregory Chaitin, it is "the result of putting Shannon's information theory and Turing's computability theory into a cocktail shaker and shaking vigorously." Besides the formalization of a universal measure for irreducible information content of computably generated objects, some main achievements of AIT were to show that: in fact algorithmic complexity follows (in the self-delimited case) the same inequalities (except for a constant) that entropy does, as in classical information theory; randomness is incompressibility; and, within the realm of randomly generated software, the probability of occurrence of any data structure is of the order of the shortest program that generates it when running on a universal machine. AIT principally studies measures of irreducible information content of strings (or other data structures). Because most mathematical objects can be described in terms of strings, or as the limit of a sequence of strings, it can be used to study a wide variety of mathematical objects, including integers. One of the main motivations behind AIT is the very study of the information carried by mathematical objects as in the field of metamathematics, e.g., as shown by the incompleteness results mentioned below. Other main motivations came from surpassing the limitations of classical information theory for single and fixed objects, formalizing the concept of randomness, and finding a meaningful probabilistic inference without prior knowledge of the probability distribution (e.g., whether it is independent and identically distributed, Markovian, or even stationary). In this way, AIT is known to be basically founded upon three main mathematical concepts and the relations between them: algorithmic complexity, algorithmic randomness, and algorithmic probability.c randomness, and algorithmic probability. , Алгоритмічна теорія інформації — це галузьАлгоритмічна теорія інформації — це галузь інформатики, яка намагається вловити суть складності, використовуючи інструменти з теоретичної інформатики. Головна ідея — визначити складність (або описову складність, колмогоровську складність, складність Колмогорова — Хайтіна) рядка як довжину найкоротшої програми, яка виводить даний рядок. Рядки, які можуть виводитися короткими програмами, розглядаються як не дуже складні. Ця нотація напрочуд глибока і може бути використана для постановки і доведення неможливості деяких результатів так само, як це робить теорема Геделя про неповноту і проблема зупинки Тюрінга. Цю галузь наприкінці 1960-х років розробили Андрій Колмогоров, і Грегорі Хайтін. Існують кілька варіантів колмогоровської складності або алгоритмічної інформації. Найширше, переважно завдяки Леоніду Левіну (1974), використовується заснована на саморозмежовуваних програмах. Принцип мінімальної довжини повідомлення (МДП) статистичного та індуктивного виведення і машинного навчання розробили 1968 року і Д. Болтон (D. M. Boulton). МДП — баєсова ймовірність (вона включає попередні переконання) та інформаційно-теоретична. Вона має бажані властивості статистичної інваріантності (виведення трансформується з репараметризацією, наприклад, так само, як здійснюється перехід від полярних координат до декартових), статистичну узгодженість (навіть для дуже складних проблем МДП збігатиметься до будь-якої нижчої моделі) і ефективність (модель МДП збігатиметься до будь-якої істинної нижчої моделі швидко, наскільки можливо). 1999 року Крістофер Воллес і Девід Дав (David L Dowe) показали формальний зв'язок між МДП і алгоритмічною теорією інформації (або колмогоровською складністю).формації (або колмогоровською складністю). , Алгоритмическая теория информации — это обАлгоритмическая теория информации — это область информатики, которая пытается уловить суть сложности, используя инструменты из теоретической информатики. Главная идея — это определить сложность (или описательную сложность, колмогоровскую сложность, сложность Колмогорова-Хайтина) строки как длину кратчайшей программы, которая выводит заданную строку. Строки, которые могут выводиться короткими программами, рассматриваются как не очень сложные. Эта нотация удивительно глубока и может быть использована для постановки и доказательства невозможности некоторых результатов таким же образом, как это делает теорема Гёделя о неполноте и проблема зависания Тьюринга. Эта область была разработана Андреем Колмогоровым, и Грегори Хайтиным в конце 1960-х годов. Существуют несколько вариантов колмогоровской сложности или алгоритмической информации. Наиболее широко используемая базируется на саморазграничивающих программах и в основном следует Леониду Левину (1974). Принцип минимальной длины сообщения (МДС) статистического и индуктивного вывода и машинного обучения был разработан и D. M. Boulton в 1968 году. МДС — байесовская вероятность (она включает предыдущие мнения) и информационно-теоретическая. Она имеет желаемые свойства статистической инвариантности (вывод трансформируется с репараметризацией, например, таким же образом, как осуществляется перевод из полярных координат в декартовы), статистическую согласованность (даже для очень сложных проблем МДС будет сходиться к любой низлежащей модели) и эффективность (модель МДС будет сходиться к любой истинной низлежащей модели так быстро, как возможно). Кристофер Уоллес и D.L. Dowe показали формальную связь между МДС и алгоритмической теорией информации (или колмогоровской сложностью) в 1999 году.ли колмогоровской сложностью) в 1999 году. , A teoria algorítmica da informação é um suA teoria algorítmica da informação é um subcampo da teoria da informação e da ciência da computação que se preocupa com a relação entre computação e informação. De acordo com Gregory Chaitin, ela é "o resultado de colocar a teoria da informação de Shannon e teoria da computabilidade de Turing em uma coqueteleira, agitando-a vigorosamente".a coqueteleira, agitando-a vigorosamente". , Die algorithmische Informationstheorie istDie algorithmische Informationstheorie ist eine Theorie aus der theoretischen Informatik, die im Gegensatz zur klassischen Informationstheorie die Kolmogorow-Komplexität zur Bestimmung des Informationsgehalts verwendet. Sie wurde im Wesentlichen von Gregory Chaitin, Andrey Kolmogorov und Ray Solomonoff entwickelt. Zur Beschreibung des Informationsgehalts einer Zeichenkette betrachtet die algorithmische Informationstheorie die Größe eines kleinsten Algorithmus, der die Zeichenkette erzeugt. Gregory Chaitin präzisierte diese allgemein als Kolmogorow-Komplexität bekannte Größe durch ein spezielles Maschinenmodell, nach dem der Algorithmus ausführbar sein muss. Wie Chaitin beweisen konnte, lässt sich der algorithmische Informationsgehalt einer Zeichenkette nicht endgültig angeben, da nicht beweisbar ist, ob ein gegebenes Programm zu ihrer Erzeugung wirklich das kürzeste ist. Ebenso wie der Informationsbegriff nach Claude Shannon trifft die algorithmische Informationstheorie keinerlei Aussagen über Bedeutung, Wissen und ähnliche nicht mathematisch definierten Begriffe.e nicht mathematisch definierten Begriffe. , La teoría algorítmica de la información, eLa teoría algorítmica de la información, es una teoría científica de las ciencias de la computación, que en contraste con la clásica teoría de la información, se basa en la complejidad de Kolmogórov para la determinación del contenido de la información. Fue desarrollada principalmente por Gregory Chaitin, Andréi Kolmogórov y Ray Solomonoff.aitin, Andréi Kolmogórov y Ray Solomonoff. , La théorie algorithmique de l'information,La théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue. La théorie algorithmique de l'information est fondée sur cette équivalence : la description d'un objet est formalisée par un algorithme (autrement dit une machine de Turing), et sa complexité (autrement dit son contenu en information) est formalisé par certaines caractéristiques de l'algorithme : sa longueur ou son temps de calcul. Ces fondements sont différents de ceux de la théorie de l'information de Shannon : cette dernière n'utilise pas la notion de calculabilité et n'a de sens que par rapport à un ensemble statistique de données. Cependant, les deux théories sont compatibles et des liens formels entre elles peuvent être établis. Tandis que la théorie de l'information de Shannon a eu de nombreuses applications en informatique, télécommunications, traitement de signal et neurosciences computationnelles, la théorie algorithmique de l'information a été utilisée avec succès dans les domaines de la biologie, de la physique et même de la philosophie. de la physique et même de la philosophie. , 算法信息论(Algorithmic information theory)是使用理论计算机科学的工具,研究复杂性概念的学科领域。它是信息理論的一環,关注計算與信息之間的關係。按照的说法,它是“把香农的信息论和图灵的放在调酒杯使劲摇晃的结果。”
http://dbpedia.org/ontology/wikiPageExternalLink https://books.google.com/books%3Fid=RQpQDwAAQBAJ&pg=PT60 + , https://archive.org/details/algorithmicinfor00chai + , https://pure.uva.nl/ws/files/2218357/27367_JSL89.pdf + , https://books.google.com/books%3Fid=OIHSBwAAQBAJ + , https://web.archive.org/web/20161117200018/https:/www.cs.auckland.ac.nz/~chaitin/unknowable/ch6.html + , http://mi.mathnet.ru/eng/dan40265 + , http://mi.mathnet.ru/eng/ppi1039 + , http://mi.mathnet.ru/eng/ppi68 + , http://www.scholarpedia.org/article/Algorithmic_information_theory + , https://www.springer.com/gp/book/9780387955698 + , http://world.std.com/~rjs/z138.pdf + , https://books.google.com/books%3Fid=PseqCAAAQBAJ + , http://www.jucs.org/jucs_2_5/algorithmic_information_theory_open/calude_c.pdf +
http://dbpedia.org/ontology/wikiPageID 2829647
http://dbpedia.org/ontology/wikiPageLength 21307
http://dbpedia.org/ontology/wikiPageRevisionID 1124423332
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/G%C3%B6del%27s_incompleteness_theorem + , http://dbpedia.org/resource/Epistemology + , http://dbpedia.org/resource/Blum_axioms + , http://dbpedia.org/resource/Wikt:nondeterminism + , http://dbpedia.org/resource/Probability_distribution + , http://dbpedia.org/resource/Uniform_ensemble + , http://dbpedia.org/resource/Prefix_code + , http://dbpedia.org/resource/Maxwell%27s_daemon + , http://dbpedia.org/resource/Kolmogorov_complexity + , http://dbpedia.org/resource/Invariance_theorem_%28disambiguation%29 + , http://dbpedia.org/resource/Theory_of_computation + , http://dbpedia.org/resource/Entropy_%28information_theory%29 + , http://dbpedia.org/resource/Halting_problem + , http://dbpedia.org/resource/Inductive_probability + , http://dbpedia.org/resource/Caltech + , http://dbpedia.org/resource/Category:Information_theory + , http://dbpedia.org/resource/Markov_chain + , http://dbpedia.org/resource/Chaitin%27s_constant + , http://dbpedia.org/resource/Computational_complexity_theory + , http://dbpedia.org/resource/Information + , http://dbpedia.org/resource/Algorithmic_probability + , http://dbpedia.org/resource/Normal_number + , http://dbpedia.org/resource/Distribution_ensemble + , http://dbpedia.org/resource/Chaitin%E2%80%93Kolmogorov_randomness + , http://dbpedia.org/resource/Gregory_Chaitin + , http://dbpedia.org/resource/Universal_Turing_machine + , http://dbpedia.org/resource/Solomonoff%27s_theory_of_inductive_inference + , http://dbpedia.org/resource/Claude_Shannon + , http://dbpedia.org/resource/Data_structure + , http://dbpedia.org/resource/Minimum_description_length + , http://dbpedia.org/resource/Pseudorandom_generator + , http://dbpedia.org/resource/Likelihood + , http://dbpedia.org/resource/Alan_Turing + , http://dbpedia.org/resource/Category:Randomized_algorithms + , http://dbpedia.org/resource/Consistent + , http://dbpedia.org/resource/Independent_and_identically_distributed + , http://dbpedia.org/resource/Yongge_Wang + , http://dbpedia.org/resource/Metamathematics + , http://dbpedia.org/resource/Rigour + , http://dbpedia.org/resource/Limits_of_knowledge + , http://dbpedia.org/resource/Axiom + , http://dbpedia.org/resource/Stochastic_process + , http://dbpedia.org/resource/Program_%28computing%29 + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Leonid_Levin + , http://dbpedia.org/resource/Pseudorandom_ensemble + , http://dbpedia.org/resource/Andrey_Kolmogorov + , http://dbpedia.org/resource/Bayes%27_rule + , http://dbpedia.org/resource/Programming_language + , http://dbpedia.org/resource/Minimum_message_length + , http://dbpedia.org/resource/Intuition_%28knowledge%29 + , http://dbpedia.org/resource/Per_Martin-L%C3%B6f + , http://dbpedia.org/resource/Formal_system + , http://dbpedia.org/resource/Computationally_indistinguishable + , http://dbpedia.org/resource/Simplicity_theory + , http://dbpedia.org/resource/Ray_Solomonoff + , http://dbpedia.org/resource/String_%28computer_science%29 + , http://dbpedia.org/resource/Theory_%28mathematical_logic%29 + , http://dbpedia.org/resource/Scholarpedia + , http://dbpedia.org/resource/Theoretical_computer_science + , http://dbpedia.org/resource/Category:Algorithmic_information_theory + , http://dbpedia.org/resource/Shannon%27s_source_coding_theorem + , http://dbpedia.org/resource/Algorithmically_random_sequence + , http://dbpedia.org/resource/Data_compression + , http://dbpedia.org/resource/Stationary_process + , http://dbpedia.org/resource/Computability_theory + , http://dbpedia.org/resource/Integer + , http://dbpedia.org/resource/Lebesgue_measure + , http://dbpedia.org/resource/Limit_of_a_sequence + , http://dbpedia.org/resource/Inductive_inference + , http://dbpedia.org/resource/Asymptotic_complexity + , http://dbpedia.org/resource/Measure_%28mathematics%29 + , http://dbpedia.org/resource/Bayesian_inference +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Statistics + , http://dbpedia.org/resource/Template:Columns-list + , http://dbpedia.org/resource/Template:Use_mdy_dates + , http://dbpedia.org/resource/Template:Refend + , http://dbpedia.org/resource/Template:Refbegin + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Cite_techreport +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Randomized_algorithms + , http://dbpedia.org/resource/Category:Algorithmic_information_theory + , http://dbpedia.org/resource/Category:Information_theory +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Subfield +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Algorithmic_information_theory?oldid=1124423332&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Algorithmic_information_theory +
owl:sameAs http://simple.dbpedia.org/resource/Algorithmic_information_theory + , http://de.dbpedia.org/resource/Algorithmische_Informationstheorie + , http://yago-knowledge.org/resource/Algorithmic_information_theory + , http://fa.dbpedia.org/resource/%D9%86%D8%B8%D8%B1%DB%8C%D9%87_%D8%A7%D9%84%DA%AF%D9%88%D8%B1%DB%8C%D8%AA%D9%85%DB%8C_%D8%A7%D8%B7%D9%84%D8%A7%D8%B9%D8%A7%D8%AA + , http://www.wikidata.org/entity/Q1757543 + , http://ja.dbpedia.org/resource/%E3%82%A2%E3%83%AB%E3%82%B4%E3%83%AA%E3%82%BA%E3%83%A0%E6%83%85%E5%A0%B1%E7%90%86%E8%AB%96 + , http://sr.dbpedia.org/resource/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%B0%D0%BC%D1%81%D0%BA%D0%B0_%D0%B8%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%B0_%D1%82%D0%B5%D0%BE%D1%80%D0%B8%D1%98%D0%B0 + , https://global.dbpedia.org/id/i97o + , http://tr.dbpedia.org/resource/Algoritmik_bilgi_teorisi + , http://es.dbpedia.org/resource/Teor%C3%ADa_algor%C3%ADtmica_de_la_informaci%C3%B3n + , http://bg.dbpedia.org/resource/%D0%A2%D0%B5%D0%BE%D1%80%D0%B8%D1%8F_%D0%BD%D0%B0_%D0%B0%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC%D0%B8%D1%87%D0%BD%D0%B0%D1%82%D0%B0_%D0%B8%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D1%8F + , http://ru.dbpedia.org/resource/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D1%82%D0%B5%D0%BE%D1%80%D0%B8%D1%8F_%D0%B8%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D0%B8 + , http://rdf.freebase.com/ns/m.085cq_ + , http://dbpedia.org/resource/Algorithmic_information_theory + , http://uz.dbpedia.org/resource/Algoritmik_axborot_nazariyasi + , http://fr.dbpedia.org/resource/Th%C3%A9orie_algorithmique_de_l%27information + , http://uk.dbpedia.org/resource/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC%D1%96%D1%87%D0%BD%D0%B0_%D1%82%D0%B5%D0%BE%D1%80%D1%96%D1%8F_%D1%96%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D1%96%D1%97 + , http://pt.dbpedia.org/resource/Teoria_algor%C3%ADtmica_da_informa%C3%A7%C3%A3o + , http://vi.dbpedia.org/resource/L%C3%BD_thuy%E1%BA%BFt_th%C3%B4ng_tin_thu%E1%BA%ADt_to%C3%A1n + , http://zh.dbpedia.org/resource/%E7%AE%97%E6%B3%95%E4%BF%A1%E6%81%AF%E8%AE%BA + , http://ca.dbpedia.org/resource/Teoria_Algor%C3%ADsmica_de_la_Informaci%C3%B3 +
rdf:type http://dbpedia.org/ontology/Disease +
rdfs:comment Алгоритмічна теорія інформації — це галузьАлгоритмічна теорія інформації — це галузь інформатики, яка намагається вловити суть складності, використовуючи інструменти з теоретичної інформатики. Головна ідея — визначити складність (або описову складність, колмогоровську складність, складність Колмогорова — Хайтіна) рядка як довжину найкоротшої програми, яка виводить даний рядок. Рядки, які можуть виводитися короткими програмами, розглядаються як не дуже складні. Ця нотація напрочуд глибока і може бути використана для постановки і доведення неможливості деяких результатів так само, як це робить теорема Геделя про неповноту і проблема зупинки Тюрінга. про неповноту і проблема зупинки Тюрінга. , Die algorithmische Informationstheorie istDie algorithmische Informationstheorie ist eine Theorie aus der theoretischen Informatik, die im Gegensatz zur klassischen Informationstheorie die Kolmogorow-Komplexität zur Bestimmung des Informationsgehalts verwendet. Sie wurde im Wesentlichen von Gregory Chaitin, Andrey Kolmogorov und Ray Solomonoff entwickelt. Kolmogorov und Ray Solomonoff entwickelt. , La teoría algorítmica de la información, eLa teoría algorítmica de la información, es una teoría científica de las ciencias de la computación, que en contraste con la clásica teoría de la información, se basa en la complejidad de Kolmogórov para la determinación del contenido de la información. Fue desarrollada principalmente por Gregory Chaitin, Andréi Kolmogórov y Ray Solomonoff.aitin, Andréi Kolmogórov y Ray Solomonoff. , 算法信息论(Algorithmic information theory)是使用理论计算机科学的工具,研究复杂性概念的学科领域。它是信息理論的一環,关注計算與信息之間的關係。按照的说法,它是“把香农的信息论和图灵的放在调酒杯使劲摇晃的结果。” , Algorithmic information theory (AIT) is a Algorithmic information theory (AIT) is a branch of theoretical computer science that concerns itself with the relationship between computation and information of computably generated objects (as opposed to stochastically generated), such as strings or any other data structure. In other words, it is shown within algorithmic information theory that computational incompressibility "mimics" (except for a constant that only depends on the chosen universal programming language) the relations or inequalities found in information theory. According to Gregory Chaitin, it is "the result of putting Shannon's information theory and Turing's computability theory into a cocktail shaker and shaking vigorously."a cocktail shaker and shaking vigorously." , アルゴリズム情報理論(あるごりずむじょうほうりろん、英: Algorithmic information theory)は、情報理論と計算機科学の一分野であり、計算理論や情報科学とも関連がある。グレゴリー・チャイティンによれば、「シャノンの情報理論とチューリングの計算複雑性理論をシェイカーに入れて、力いっぱいシェイクしてできたもの」である。 , La théorie algorithmique de l'information,La théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Ces fondements sont différents de ceux de la théorie de l'information de Shannon : cette dernière n'utilise pas la notion de calculabilité et n'a de sens que par rapport à un ensemble statistique de données. Cependant, les deux théories sont compatibles et des liens formels entre elles peuvent être établis. formels entre elles peuvent être établis. , La teoria algorísmica de la informació és La teoria algorísmica de la informació és una branca de la informàtica teòrica que s'ocupa de la relació entre la computació i la informació d'objectes generats computacionalment (a diferència dels generats estocàsticament), com ara cadenes de caràcters o qualsevol altra estructura de dades. En altres paraules, es mostra dins de la teoria algorísmica de la informació que la incompressibilitat computacional "imita" (excepte una constant que només depèn del llenguatge de programació universal escollit) les relacions o desigualtats que es troben en la teoria de la informació. Segons Gregory Chaitin, és "el resultat de posar la teoria de la informació de Shannon i la (teoria de la computabilitat de Turing) en una coctelera i sacsejar amb força".g) en una coctelera i sacsejar amb força". , A teoria algorítmica da informação é um suA teoria algorítmica da informação é um subcampo da teoria da informação e da ciência da computação que se preocupa com a relação entre computação e informação. De acordo com Gregory Chaitin, ela é "o resultado de colocar a teoria da informação de Shannon e teoria da computabilidade de Turing em uma coqueteleira, agitando-a vigorosamente".a coqueteleira, agitando-a vigorosamente". , Алгоритмическая теория информации — это обАлгоритмическая теория информации — это область информатики, которая пытается уловить суть сложности, используя инструменты из теоретической информатики. Главная идея — это определить сложность (или описательную сложность, колмогоровскую сложность, сложность Колмогорова-Хайтина) строки как длину кратчайшей программы, которая выводит заданную строку. Строки, которые могут выводиться короткими программами, рассматриваются как не очень сложные. Эта нотация удивительно глубока и может быть использована для постановки и доказательства невозможности некоторых результатов таким же образом, как это делает теорема Гёделя о неполноте и проблема зависания Тьюринга.о неполноте и проблема зависания Тьюринга.
rdfs:label Teoria algorítmica da informação , Teoría algorítmica de la información , Algorithmische Informationstheorie , アルゴリズム情報理論 , Algorithmic information theory , Théorie algorithmique de l'information , Алгоритмічна теорія інформації , Алгоритмическая теория информации , Teoria Algorísmica de la Informació , 算法信息论
hide properties that link here 
http://dbpedia.org/resource/Peter_Gacs + http://dbpedia.org/ontology/academicDiscipline
http://dbpedia.org/resource/Algorithmic + , http://dbpedia.org/resource/AIT + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/History_of_algorithmic_information_theory + , http://dbpedia.org/resource/Kolmogorov-Chaitin_information_theory + , http://dbpedia.org/resource/Kolmogorov%E2%80%93Chaitin_information_theory + , http://dbpedia.org/resource/Algorithmic_Information_Theory + , http://dbpedia.org/resource/Algorithmic_information + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Gottfried_Wilhelm_Leibniz + , http://dbpedia.org/resource/Turing_completeness + , http://dbpedia.org/resource/List_of_computer_scientists + , http://dbpedia.org/resource/Structural_information_theory + , http://dbpedia.org/resource/Information_and_Computation + , http://dbpedia.org/resource/Algorithmic + , http://dbpedia.org/resource/Aesthetics + , http://dbpedia.org/resource/Inductive_reasoning + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Time_series + , http://dbpedia.org/resource/Universality_probability + , http://dbpedia.org/resource/Outline_of_computer_programming + , http://dbpedia.org/resource/Language_identification + , http://dbpedia.org/resource/Michael_Dinneen + , http://dbpedia.org/resource/Hans_Grassmann + , http://dbpedia.org/resource/Sophistication_%28complexity_theory%29 + , http://dbpedia.org/resource/History_of_algorithmic_information_theory + , http://dbpedia.org/resource/Kolmogorov-Chaitin_information_theory + , http://dbpedia.org/resource/Kolmogorov%E2%80%93Chaitin_information_theory + , http://dbpedia.org/resource/Mathematical_constant + , http://dbpedia.org/resource/Software_entropy + , http://dbpedia.org/resource/Foundations_of_mathematics + , http://dbpedia.org/resource/Ray_Solomonoff + , http://dbpedia.org/resource/Computer_science + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Yongge_Wang + , http://dbpedia.org/resource/Karl_Svozil + , http://dbpedia.org/resource/Cristian_S._Calude + , http://dbpedia.org/resource/Information + , http://dbpedia.org/resource/Algorithmically_random_sequence + , http://dbpedia.org/resource/Gregory_Chaitin + , http://dbpedia.org/resource/List_of_computability_and_complexity_topics + , http://dbpedia.org/resource/Theoretical_computer_science + , http://dbpedia.org/resource/Undecidable_problem + , http://dbpedia.org/resource/General_semantics + , http://dbpedia.org/resource/Complexity + , http://dbpedia.org/resource/Confusion_and_diffusion + , http://dbpedia.org/resource/Chaitin%27s_constant + , http://dbpedia.org/resource/Large_numbers + , http://dbpedia.org/resource/Charles_H._Bennett_%28physicist%29 + , http://dbpedia.org/resource/Esoteric_programming_language + , http://dbpedia.org/resource/Andrey_Kolmogorov + , http://dbpedia.org/resource/Kolmogorov_structure_function + , http://dbpedia.org/resource/Causal_inference + , http://dbpedia.org/resource/List_of_Bronx_High_School_of_Science_alumni + , http://dbpedia.org/resource/Computational_mathematics + , http://dbpedia.org/resource/History_of_randomness + , http://dbpedia.org/resource/Per_Martin-L%C3%B6f + , http://dbpedia.org/resource/Data_compression + , http://dbpedia.org/resource/Randomness + , http://dbpedia.org/resource/G%C3%B6del%27s_incompleteness_theorems + , http://dbpedia.org/resource/List_of_important_publications_in_theoretical_computer_science + , http://dbpedia.org/resource/Variety_%28cybernetics%29 + , http://dbpedia.org/resource/Algorithmic_Information_Theory + , http://dbpedia.org/resource/Ludwig_Staiger + , http://dbpedia.org/resource/Kolmogorov_complexity + , http://dbpedia.org/resource/List_of_important_publications_in_computer_science + , http://dbpedia.org/resource/Claus_P._Schnorr + , http://dbpedia.org/resource/AIT + , http://dbpedia.org/resource/Algorithmic_information + , http://dbpedia.org/resource/Viable_system_model + , http://dbpedia.org/resource/Mathematical_beauty + , http://dbpedia.org/resource/Peter_Gacs + , http://dbpedia.org/resource/Low-complexity_art + , http://dbpedia.org/resource/Algorithmic_probability + , http://dbpedia.org/resource/Solomonoff%27s_theory_of_inductive_inference + , http://dbpedia.org/resource/Minimum_description_length + , http://dbpedia.org/resource/Science_and_technology_in_Romania + , http://dbpedia.org/resource/Outline_of_artificial_intelligence + , http://dbpedia.org/resource/Inductive_probability + , http://dbpedia.org/resource/Minimum_message_length + , http://dbpedia.org/resource/K-trivial_set + , http://dbpedia.org/resource/Ashot_Petrosian + , http://dbpedia.org/resource/Richard%27s_paradox + , http://dbpedia.org/resource/Data_compression_ratio + , http://dbpedia.org/resource/List_of_mathematical_proofs + , http://dbpedia.org/resource/Active_networking + , http://dbpedia.org/resource/Algorithmic_complexity + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Algorithmic_information_theory + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Algorithmic_information_theory + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.