Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Universal approximation theorem
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Universal_approximation_theorem
http://dbpedia.org/ontology/abstract 在人工神经网络的数学理论中, 通用近似定理(或稱萬能近似定理)指出人工神經網路近似任意函數的能力。 通常此定理所指的神經網路爲前饋神經網路,並且被近似的目標函數通常爲輸入輸出都在歐幾里得空間的連續函數。但亦有研究將此定理擴展至其他類型的神經網路,如卷積神經網路、放射狀基底函數網路、或其他特殊神經網路。 此定理意味着神經網路可以用來近似任意的復雜函數,並且可以達到任意近似精準度。但它並沒有說明要如何選擇神經網絡參數(權重、神經元數量、神經層層數等等)來達到想近似的目標函數。 , 1989년 (Cybenko)가 발표한 시벤코 정리(Cybenko's theo1989년 (Cybenko)가 발표한 시벤코 정리(Cybenko's theorem)는 다음과 같다. 를 형식의 연속 함수라 하자(예, ). 또는 의 부분집합에서 실수의 연속 함수 와 가 주어지면,다음을 만족하는 벡터 , 와매개 함수 이 존재한다. for all 이때, 이고, 이다. 이 정리는 하나의 은닉층을 갖는 인공신경망은 임의의 연속인 다변수 함수를 원하는 정도의 정확도로 근사할 수 있음을 말한다.단, 와 를 잘못 선택하거나 은닉층의 뉴런 수가 부족할 경우 충분한 정확도로 근사하는데 실패할 수 있다.은닉층의 뉴런 수가 부족할 경우 충분한 정확도로 근사하는데 실패할 수 있다. , Теорема Цыбенко, Универсальная теорема аппТеорема Цыбенко, Универсальная теорема аппроксимации — теорема, доказанная Джорджем Цыбенко в 1989 году, которая утверждает, что искусственная нейронная сеть прямой связи (англ. feed-forward; в которых связи не образуют циклов) с одним скрытым слоем может аппроксимировать любую непрерывную функцию многих переменных с любой точностью. Условиями являются: достаточное количество нейронов скрытого слоя, удачный подбор и , где — веса между входными нейронами и нейронами скрытого слоя, — веса между связями от нейронов скрытого слоя и выходным нейроном, — смещения для нейронов входного слоя.ом, — смещения для нейронов входного слоя. , Na teoria matemática de redes neurais artiNa teoria matemática de redes neurais artificiais, o teorema da aproximação universal declara que uma rede neural pré-alimentada com uma única camada oculta que contém um número finito de neurônios (i.é., um conjunto multicamada de perceptron) pode aproximar funções contínuas em subconjuntos compactos de Rn, com pressupostos mínimos de função de ativação. O teorema afirma que redes neurais simples podem representar uma grande variedade de funções interessantes quando há os parâmetros adequados; no entanto, ele não desenvolve a apreensibilidade algorítmica desses parâmetros. Uma das primeiras versões do teorema foi provado por George Cybenko, em 1989, para funções de ativação sigmóide. Pode também se aplicar em funções de torre em redes neurais para reconhecimento visual. redes neurais para reconhecimento visual. , In the mathematical theory of artificial nIn the mathematical theory of artificial neural networks, universal approximation theorems are results that establish the density of an algorithmically generated class of functions within a given function space of interest. Typically, these results concern the approximation capabilities of the feedforward architecture on the space of continuous functions between two Euclidean spaces, and the approximation is with respect to the compact convergence topology. However, there are also a variety of results between non-Euclidean spaces and other commonly used architectures and, more generally, algorithmically generated sets of functions, such as the convolutional neural network (CNN) architecture, radial basis-functions, or neural networks with specific properties. Most universal approximation theorems can be parsed into two classes. The first quantifies the approximation capabilities of neural networks with an arbitrary number of artificial neurons ("arbitrary width" case) and the second focuses on the case with an arbitrary number of hidden layers, each containing a limited number of artificial neurons ("arbitrary depth" case). In addition to these two classes, there are also universal approximation theorems for neural networks with bounded number of hidden layers and a limited number of neurons in each layer ("bounded depth and bounded width" case). Universal approximation theorems imply that neural networks can represent a wide variety of interesting functions when given appropriate weights. On the other hand, they typically do not provide a construction for the weights, but merely state that such a construction is possible.tate that such a construction is possible. , في النظرية الرياضية الخاصة بالشبكات العصبوفي النظرية الرياضية الخاصة بالشبكات العصبونية، تنص مبرهنة التقريب العام على أن شبكة التغذية الأمامية متعددة الطبقات القياسية ذات طبقة واحدة مخفية، التي تشتمل على عدد لانهائي من العصبونات المخفية، هي مقراب عام بين الدوال المستمرة في المجموعات الفرعية المتراصة في Rn، وذلك تحت الفرضيات المتوسطة حول دالة التنشيط. ولقد تم إثبات الصياغات الأولى لتلك المبرهنة على يد جورج سيبينكو عام 1989 بالنسبة لدوال التنشيط الإسية. ولقد أثبت كورت هورنيك عام 1991 أنه ليس الاختيار الخاص بدالة التنشيط، بل هي بنية التغذية الأمامية متعددة الطبقات نفسها التي تمنح الشبكات العصبونية إمكانية أن تكون مقرابات عامة. ويفترض أن الوحدات الخارجة تكون دائما خطية. ومن أجل تبسيط الفكرة سنقوم باستنباط النتائج بوضوح حيث يكون هناك وحدة خارجة فقط. (يمكن بسهولة استخراج الحالة العامة من الحالة البسيطة.) المبرهنة في الصيغة الرياضية:الة البسيطة.) المبرهنة في الصيغة الرياضية: , Теорема Цибенка, Універсальна теорема апроТеорема Цибенка, Універсальна теорема апроксимації — теорема, доведена Джорджем Цибенком (George Cybenko) в 1989 році, яка стверджує, що штучна нейронна мережа прямого зв'язку (англ. feed-forward; у яких зв'язки не утворюють циклів) з одним прихованим шаром може апроксимувати будь-яку неперервну функцію багатьох змінних з будь-якою точністю. Умовами є достатня кількість нейронів прихованого шару, вдалий підбір і , де * — ваги між вхідними нейронами і нейронами прихованого шару * — ваги між зв'язками від нейронів прихованого шару і вихідним нейроном * — коефцієнт «упередженості» для нейронів прихованого шару.редженості» для нейронів прихованого шару. , Dans la théorie mathématique des réseaux dDans la théorie mathématique des réseaux de neurones artificiels, le théorème d'approximation universelle indique qu'un réseau à propagation avant d'une seule couche cachée contenant un nombre fini de neurones (c'est-à-dire, un perceptron multicouche) peut approximer des fonctions continues sur des sous-ensembles compacts de Rn.ues sur des sous-ensembles compacts de Rn.
http://dbpedia.org/ontology/wikiPageID 18543448
http://dbpedia.org/ontology/wikiPageLength 27308
http://dbpedia.org/ontology/wikiPageRevisionID 1122741589
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Compact_set + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/ReLU + , http://dbpedia.org/resource/No_free_lunch_theorem + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Fourier_series + , http://dbpedia.org/resource/Uniform_convergence + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Bochner_integral + , http://dbpedia.org/resource/Category:Networks + , http://dbpedia.org/resource/Artificial_neural_networks + , http://dbpedia.org/resource/Dense_set + , http://dbpedia.org/resource/Kolmogorov%E2%80%93Arnold_representation_theorem + , http://dbpedia.org/resource/Differentiable_function + , http://dbpedia.org/resource/If_and_only_if + , http://dbpedia.org/resource/Fully_connected_network + , http://dbpedia.org/resource/Polynomial + , http://dbpedia.org/resource/L1_distance + , http://dbpedia.org/resource/Rectifier_%28neural_networks%29 + , http://dbpedia.org/resource/Compact_convergence + , http://dbpedia.org/resource/Graph_isomorphism + , http://dbpedia.org/resource/Representer_theorem + , http://dbpedia.org/resource/Mathematics + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Compact_subspace + , http://dbpedia.org/resource/Lebesgue_integration + , http://dbpedia.org/resource/Stone%E2%80%93Weierstrass_theorem + , http://dbpedia.org/resource/Category:Theorems_in_analysis + , http://dbpedia.org/resource/Affine_transformation + , http://dbpedia.org/resource/Category:Network_architecture + , http://dbpedia.org/resource/Derivative + , http://dbpedia.org/resource/Euclidean_space + , http://dbpedia.org/resource/Identity_function + , http://dbpedia.org/resource/Halbert_White + , http://dbpedia.org/resource/Quantum_computers + , http://dbpedia.org/resource/Continuous_function + , http://dbpedia.org/resource/Riemannian_manifold + , http://dbpedia.org/resource/George_Cybenko + , http://dbpedia.org/resource/Kurt_Hornik + , http://dbpedia.org/resource/Continuous_functions +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Differentiable_computing +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Category:Theorems_in_analysis + , http://dbpedia.org/resource/Category:Network_architecture + , http://dbpedia.org/resource/Category:Networks +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Universal_approximation_theorem?oldid=1122741589&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Universal_approximation_theorem +
owl:sameAs http://uk.dbpedia.org/resource/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%A6%D0%B8%D0%B1%D0%B5%D0%BD%D0%BA%D0%B0 + , http://ko.dbpedia.org/resource/%EC%8B%9C%EB%B2%A4%EC%BD%94_%EC%A0%95%EB%A6%AC + , http://rdf.freebase.com/ns/m.04f_wtc + , http://zh.dbpedia.org/resource/%E9%80%9A%E7%94%A8%E8%BF%91%E4%BC%BC%E5%AE%9A%E7%90%86 + , http://pt.dbpedia.org/resource/Teorema_da_aproxima%C3%A7%C3%A3o_universal + , http://dbpedia.org/resource/Universal_approximation_theorem + , http://yago-knowledge.org/resource/Universal_approximation_theorem + , http://ru.dbpedia.org/resource/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D0%A6%D1%8B%D0%B1%D0%B5%D0%BD%D0%BA%D0%BE + , http://ar.dbpedia.org/resource/%D9%85%D8%A8%D8%B1%D9%87%D9%86%D8%A9_%D8%A7%D9%84%D8%AA%D9%82%D8%B1%D9%8A%D8%A8_%D8%A7%D9%84%D8%B9%D8%A7%D9%85 + , https://global.dbpedia.org/id/4wUwX + , http://fr.dbpedia.org/resource/Th%C3%A9or%C3%A8me_d%27approximation_universelle + , http://www.wikidata.org/entity/Q7894110 +
rdf:type http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/WikicatTheoremsInDiscreteMathematics + , http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/WikicatNetworks + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/Theorem106752293 + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Proposition106750804 + , http://dbpedia.org/class/yago/Group100031264 + , http://dbpedia.org/class/yago/WikicatNeuralNetworks + , http://dbpedia.org/class/yago/System108435388 + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/Network108434259 + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Description106724763 +
rdfs:comment Na teoria matemática de redes neurais artiNa teoria matemática de redes neurais artificiais, o teorema da aproximação universal declara que uma rede neural pré-alimentada com uma única camada oculta que contém um número finito de neurônios (i.é., um conjunto multicamada de perceptron) pode aproximar funções contínuas em subconjuntos compactos de Rn, com pressupostos mínimos de função de ativação. O teorema afirma que redes neurais simples podem representar uma grande variedade de funções interessantes quando há os parâmetros adequados; no entanto, ele não desenvolve a apreensibilidade algorítmica desses parâmetros.nsibilidade algorítmica desses parâmetros. , 1989년 (Cybenko)가 발표한 시벤코 정리(Cybenko's theo1989년 (Cybenko)가 발표한 시벤코 정리(Cybenko's theorem)는 다음과 같다. 를 형식의 연속 함수라 하자(예, ). 또는 의 부분집합에서 실수의 연속 함수 와 가 주어지면,다음을 만족하는 벡터 , 와매개 함수 이 존재한다. for all 이때, 이고, 이다. 이 정리는 하나의 은닉층을 갖는 인공신경망은 임의의 연속인 다변수 함수를 원하는 정도의 정확도로 근사할 수 있음을 말한다.단, 와 를 잘못 선택하거나 은닉층의 뉴런 수가 부족할 경우 충분한 정확도로 근사하는데 실패할 수 있다.은닉층의 뉴런 수가 부족할 경우 충분한 정확도로 근사하는데 실패할 수 있다. , Dans la théorie mathématique des réseaux dDans la théorie mathématique des réseaux de neurones artificiels, le théorème d'approximation universelle indique qu'un réseau à propagation avant d'une seule couche cachée contenant un nombre fini de neurones (c'est-à-dire, un perceptron multicouche) peut approximer des fonctions continues sur des sous-ensembles compacts de Rn.ues sur des sous-ensembles compacts de Rn. , Теорема Цибенка, Універсальна теорема апроТеорема Цибенка, Універсальна теорема апроксимації — теорема, доведена Джорджем Цибенком (George Cybenko) в 1989 році, яка стверджує, що штучна нейронна мережа прямого зв'язку (англ. feed-forward; у яких зв'язки не утворюють циклів) з одним прихованим шаром може апроксимувати будь-яку неперервну функцію багатьох змінних з будь-якою точністю. Умовами є достатня кількість нейронів прихованого шару, вдалий підбір і , денів прихованого шару, вдалий підбір і , де , Теорема Цыбенко, Универсальная теорема аппТеорема Цыбенко, Универсальная теорема аппроксимации — теорема, доказанная Джорджем Цыбенко в 1989 году, которая утверждает, что искусственная нейронная сеть прямой связи (англ. feed-forward; в которых связи не образуют циклов) с одним скрытым слоем может аппроксимировать любую непрерывную функцию многих переменных с любой точностью. Условиями являются: достаточное количество нейронов скрытого слоя, удачный подбор и , где — веса между входными нейронами и нейронами скрытого слоя, — веса между связями от нейронов скрытого слоя и выходным нейроном, — смещения для нейронов входного слоя.ом, — смещения для нейронов входного слоя. , في النظرية الرياضية الخاصة بالشبكات العصبوفي النظرية الرياضية الخاصة بالشبكات العصبونية، تنص مبرهنة التقريب العام على أن شبكة التغذية الأمامية متعددة الطبقات القياسية ذات طبقة واحدة مخفية، التي تشتمل على عدد لانهائي من العصبونات المخفية، هي مقراب عام بين الدوال المستمرة في المجموعات الفرعية المتراصة في Rn، وذلك تحت الفرضيات المتوسطة حول دالة التنشيط. ولقد تم إثبات الصياغات الأولى لتلك المبرهنة على يد جورج سيبينكو عام 1989 بالنسبة لدوال التنشيط الإسية. المبرهنة في الصيغة الرياضية:تنشيط الإسية. المبرهنة في الصيغة الرياضية: , In the mathematical theory of artificial nIn the mathematical theory of artificial neural networks, universal approximation theorems are results that establish the density of an algorithmically generated class of functions within a given function space of interest. Typically, these results concern the approximation capabilities of the feedforward architecture on the space of continuous functions between two Euclidean spaces, and the approximation is with respect to the compact convergence topology.spect to the compact convergence topology. , 在人工神经网络的数学理论中, 通用近似定理(或稱萬能近似定理)指出人工神經網路近似任意函數的能力。 通常此定理所指的神經網路爲前饋神經網路,並且被近似的目標函數通常爲輸入輸出都在歐幾里得空間的連續函數。但亦有研究將此定理擴展至其他類型的神經網路,如卷積神經網路、放射狀基底函數網路、或其他特殊神經網路。 此定理意味着神經網路可以用來近似任意的復雜函數,並且可以達到任意近似精準度。但它並沒有說明要如何選擇神經網絡參數(權重、神經元數量、神經層層數等等)來達到想近似的目標函數。
rdfs:label Теорема Цибенка , Universal approximation theorem , 시벤코 정리 , 通用近似定理 , Théorème d'approximation universelle , مبرهنة التقريب العام , Теорема Цыбенко , Teorema da aproximação universal
hide properties that link here 
http://dbpedia.org/resource/Universal_approximator + , http://dbpedia.org/resource/Cybenko_theorem + , http://dbpedia.org/resource/Cybenko_Theorem + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/George_Cybenko + , http://dbpedia.org/resource/Universal_approximator + , http://dbpedia.org/resource/Cybenko_theorem + , http://dbpedia.org/resource/History_of_artificial_intelligence + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Multilayer_perceptron + , http://dbpedia.org/resource/Intelligent_control + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/List_of_theorems + , http://dbpedia.org/resource/Terry_Lyons_%28mathematician%29 + , http://dbpedia.org/resource/Flow-based_generative_model + , http://dbpedia.org/resource/OpenNN + , http://dbpedia.org/resource/Kolmogorov%E2%80%93Arnold_representation_theorem + , http://dbpedia.org/resource/Decision_boundary + , http://dbpedia.org/resource/Cybenko_Theorem + , http://dbpedia.org/resource/Universal_approximators + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Universal_approximation_theorem + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Universal_approximation_theorem + owl:sameAs
http://dbpedia.org/resource/Representation_theorem + rdfs:seeAlso
 

 

Enter the name of the page to start semantic browsing from.