Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Multilayer perceptron
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Multilayer_perceptron
http://dbpedia.org/ontology/abstract A perceptron multicamadas (MLP) é uma redeA perceptron multicamadas (MLP) é uma rede neural semelhante à perceptron, mas com mais de uma camada de neurônios em alimentação direta. Tal tipo de rede é composta por camadas de neurônios ligadas entre si por sinapses com pesos. O aprendizado nesse tipo de rede é geralmente feito através do algoritmo de retro-propagação do erro, mas existem outros algoritmos para este fim, como a Rprop.os algoritmos para este fim, como a Rprop. , Багатошаровий перцептрон Румельхарта — окрБагатошаровий перцептрон Румельхарта — окремий випадок перцептрона Розенблатта, в якому один алгоритм зворотного поширення помилки навчає всі шари. На жаль, назва з історичних причин не відображає особливості даного виду перцептрона, тобто не пов'язана з тим, що в ньому кілька шарів (тому що кілька шарів було і у перцептрона Розенблатта). Особливістю є наявність більш ніж одного учня шару (як правило — два чи три, для застосування більшої кількості наразі немає обґрунтування — втрачається швидкість без придбання якості). Необхідність у великій кількості шарів-учнів відпадає, оскільки теоретично єдиного прихованого шару достатньо, щоб перекодувати вхідний сигнал таким чином, щоб отримати лінійну карту для вихідного сигналу. Але є припущення, що, використовуючи більше число шарів, можна зменшити число елементів у них, тобто сумарне число елементів у шарах буде менше, ніж при використанні одного прихованого шару. при використанні одного прихованого шару. , Perceptron wielowarstwowy (ang. MultilayerPerceptron wielowarstwowy (ang. Multilayer Perceptron, MLP) – najpopularniejszy typ sztucznych sieci neuronowych. Sieć tego typu składa się zwykle z jednej warstwy wejściowej, kilku warstw ukrytych oraz jednej warstwy wyjściowej. Warstwy ukryte składają się najczęściej z neuronów McCullocha-Pittsa. Ustalenie właściwej liczby warstw ukrytych oraz liczby neuronów znajdujących się w poszczególnych warstwach jest trudnym zagadnieniem, które musi rozwiązać twórca sieci neuronowej. Warstwa wyjściowa może składać się z neuronów liniowych (w przypadku regresji) lub neuronów nieliniowych (w przypadku klasyfikacji). Trenowanie sieci typu MLP możliwe jest dzięki zastosowaniu metody wstecznej propagacji błędów. Perceptron wielowarstwowy w przeciwieństwie do perceptronu jednowarstwowego może być wykorzystywany do klasyfikowania zbiorów, które nie są liniowo separowalne .Sieć MLP w swojej podstawowej wersji jest siecią, w której nie ma sprzężenia zwrotnego, w przeciwieństwie do sieci zwanych sieciami rekurencyjnymi. Na bazie sieci MLP zbudowane są , służące do rozpoznawania obrazów .ne są , służące do rozpoznawania obrazów . , Un perceptró multicapa (amb acrònim MLP) éUn perceptró multicapa (amb acrònim MLP) és un tipus de xarxa neuronal artificial de classe directa. Una MLP consisteix , almenys, de tres capes de nodes : una capa d'entrada, una capa oculta i una capa de sortida. Excepte pel mode d'entrada, cada node empra una funció d'activació no lineal, la qual cosa permet de classificar conjunts de dades que no estan separats linealment. Es distingeixen del perceptró que només tenen una capa oculta i funció lineal. MLP utilitza una tècnica d'aprenentatge supervisat anomenada backpropagation (retropropagació).omenada backpropagation (retropropagació). , Многослойный перцептрон — частный случай пМногослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв (так как несколько слоёв было и у перцептрона Розенблатта). Особенностью является наличие более чем одного обучаемого слоя (как правило — два или три). Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарное число элементов в слоях будет меньше, чем если использовать один скрытый слой. Это предположение успешно используется в технологиях глубокого обучения и имеет обоснование.ях глубокого обучения и имеет обоснование. , Il Percettrone multistrato (in acronimo MLIl Percettrone multistrato (in acronimo MLP dall'inglese Multilayer perceptron) è un modello di rete neurale artificiale che mappa insiemi di dati in ingresso in un insieme di dati in uscita appropriati. È fatta di strati multipli di nodi in un grafo diretto, con ogni strato completamente connesso al successivo. Eccetto che per i nodi in ingresso, ogni nodo è un neurone (elemento elaborante) con una funzione di attivazione lineare. Il Percettrone multistrato usa una tecnica di apprendimento supervisionato chiamata backpropagation per l'allenamento della rete. La MLP è una modifica del Percettrone lineare standard e può distinguere i dati che non sono separabili linearmente. dati che non sono separabili linearmente. , 多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。MLP可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个节点都是一个带有非线性激活函数的神经元(或称处理单元)。一种被称为反向传播算法的监督学习方法常被用来训练MLP。 多层感知器遵循人類神經系統原理,學習並進行數據預測。它首先學習,然後使用權重存儲數據,並使用算法來調整權重並減少訓練過程中的偏差,即實際值和預測值之間的誤差。主要優勢在於其快速解決複雜問題的能力。多層感知的基本結構由三層組成:第一輸入層,中間隱藏層和最後輸出層,輸入元素和權重的乘積被饋給具有神經元偏差的求和結點,主要優勢在於其快速解決複雜問題的能力。 MLP是感知器的推广,克服了感知器不能对数据进行识别的弱点。速解決複雜問題的能力。 MLP是感知器的推广,克服了感知器不能对数据进行识别的弱点。 , El perceptrón multicapa es una red neuronaEl perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, de tal manera que tiene capacidad para resolver problemas que no son linealmente separables, lo cual es la principal limitación del perceptrón (también llamado perceptrón simple). El perceptrón multicapa puede estar totalmente o localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1".rie de neuronas (región) de la capa "i+1". , A multilayer perceptron (MLP) is a fully cA multilayer perceptron (MLP) is a fully connected class of feedforward artificial neural network (ANN). The term MLP is used ambiguously, sometimes loosely to mean any feedforward ANN, sometimes strictly to refer to networks composed of multiple layers of perceptrons (with threshold activation); see . Multilayer perceptrons are sometimes colloquially referred to as "vanilla" neural networks, especially when they have a single hidden layer. An MLP consists of at least three layers of nodes: an input layer, a hidden layer and an output layer. Except for the input nodes, each node is a neuron that uses a nonlinear activation function. MLP utilizes a supervised learning technique called backpropagation for training. Its multiple layers and non-linear activation distinguish MLP from a linear perceptron. It can distinguish data that is not linearly separable.guish data that is not linearly separable. , 다층 퍼셉트론(Multilayer perceptron, MLP)은 퍼셉트론을 여러층 쌓은 순방향의 인공 신경망이다. 입력층(input layer)과 은닉층(hidden layer)과 출력층(output layer)으로 구성된다. 각 층에서는 활성함수를 통해 입력을 처리한다. , 多層パーセプトロン(たそうパーセプトロン、英: Multilayer percept多層パーセプトロン(たそうパーセプトロン、英: Multilayer perceptron、略称: MLP)は、ニューラルネットワークの一分類である。MLPは少なくとも3つのノードの層からなる。入力ノードを除けば、個々のノードは非線形活性化関数を使用するニューロンである。MLPは学習のために誤差逆伝播法(バックプロパゲーション)と呼ばれる教師あり学習手法を利用する。その多層構造と非線形活性化関数が、MLPと線形パーセプトロンを区別している。MLPは線形分離可能ではないデータを識別できる。 多層パーセプトロンは時折、特に単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。 , Le perceptron multicouche (multilayer percLe perceptron multicouche (multilayer perceptron MLP) est un type de réseau neuronal artificiel organisé en plusieurs couches. L'information circule de la couche d'entrée vers la couche de sortie uniquement : il s'agit donc d'un réseau à propagation directe (feedforward). Chaque couche est constituée d'un nombre variable de neurones, les neurones de la dernière couche (dite « de sortie ») étant les sorties du système global. Le perceptron a été inventé en 1957 par Frank Rosenblatt au Cornell Aeronautical Laboratory. Dans cette première version le perceptron était alors mono-couche et n'avait qu'une seule sortie à laquelle toutes les entrées étaient connectées.lle toutes les entrées étaient connectées.
http://dbpedia.org/ontology/wikiPageExternalLink http://www.cs.waikato.ac.nz/ml/weka/ + , http://neuroph.sourceforge.net/ +
http://dbpedia.org/ontology/wikiPageID 2266644
http://dbpedia.org/ontology/wikiPageInterLanguageLink http://de.dbpedia.org/resource/Perzeptron +
http://dbpedia.org/ontology/wikiPageLength 9193
http://dbpedia.org/ontology/wikiPageRevisionID 1109264903
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Vanishing_gradient_problem + , http://dbpedia.org/resource/Statistical_classification + , http://dbpedia.org/resource/Category:Classification_algorithms + , http://dbpedia.org/resource/Image_recognition + , http://dbpedia.org/resource/Rectifier_%28neural_networks%29 + , http://dbpedia.org/resource/Categorical_variable + , http://dbpedia.org/resource/Natural_language_processing + , http://dbpedia.org/resource/Action_potentials + , http://dbpedia.org/resource/Fitness_approximation + , http://dbpedia.org/resource/Universal_approximation_theorem + , http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Supervised_learning + , http://dbpedia.org/resource/Perceptron + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Category:Neural_network_architectures + , http://dbpedia.org/resource/Machine_translation + , http://dbpedia.org/resource/Sigmoids + , http://dbpedia.org/resource/Layer_%28deep_learning%29 + , http://dbpedia.org/resource/Computational_complexity_theory + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/Radial_basis_functions + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Linear_separability + , http://dbpedia.org/resource/Least_mean_squares_filter + , http://dbpedia.org/resource/Synaptic_weight + , http://dbpedia.org/resource/Regression_analysis + , http://dbpedia.org/resource/Linear_algebra + , http://dbpedia.org/resource/Hyperbolic_tangent + , http://dbpedia.org/resource/Learning_rate + , http://dbpedia.org/resource/Radial_basis_network + , http://dbpedia.org/resource/Heaviside_step_function +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Hatnote + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Slink + , http://dbpedia.org/resource/Template:Machine_learning +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Classification_algorithms + , http://dbpedia.org/resource/Category:Neural_network_architectures +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Model +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Multilayer_perceptron?oldid=1109264903&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Multilayer_perceptron +
owl:sameAs http://pt.dbpedia.org/resource/Perceptron_multicamadas + , http://fi.dbpedia.org/resource/Monikerroksinen_perseptroniverkko + , http://da.dbpedia.org/resource/Flerlags-perceptron + , http://fa.dbpedia.org/resource/%D9%BE%D8%B1%D8%B3%D9%BE%D8%AA%D8%B1%D9%88%D9%86_%DA%86%D9%86%D8%AF%D9%84%D8%A7%DB%8C%D9%87 + , http://ko.dbpedia.org/resource/%EB%8B%A4%EC%B8%B5_%ED%8D%BC%EC%85%89%ED%8A%B8%EB%A1%A0 + , http://rdf.freebase.com/ns/m.03bx6t8 + , http://es.dbpedia.org/resource/Perceptr%C3%B3n_multicapa + , http://hy.dbpedia.org/resource/%D4%B2%D5%A1%D5%A6%D5%B4%D5%A1%D5%B7%D5%A5%D6%80%D5%BF_%D5%BA%D5%A5%D6%80%D6%81%D5%A5%D5%BA%D5%BF%D6%80%D5%B8%D5%B6 + , http://uk.dbpedia.org/resource/%D0%91%D0%B0%D0%B3%D0%B0%D1%82%D0%BE%D1%88%D0%B0%D1%80%D0%BE%D0%B2%D0%B8%D0%B9_%D0%BF%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD_%D0%A0%D1%83%D0%BC%D0%B5%D0%BB%D1%8C%D1%85%D0%B0%D1%80%D1%82%D0%B0 + , http://ru.dbpedia.org/resource/%D0%9C%D0%BD%D0%BE%D0%B3%D0%BE%D1%81%D0%BB%D0%BE%D0%B9%D0%BD%D1%8B%D0%B9_%D0%BF%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD_%D0%A0%D1%83%D0%BC%D0%B5%D0%BB%D1%8C%D1%85%D0%B0%D1%80%D1%82%D0%B0 + , http://ja.dbpedia.org/resource/%E5%A4%9A%E5%B1%A4%E3%83%91%E3%83%BC%E3%82%BB%E3%83%97%E3%83%88%E3%83%AD%E3%83%B3 + , http://de.dbpedia.org/resource/Mehrlagiges_Perzeptron + , https://global.dbpedia.org/id/2mdVh + , http://yago-knowledge.org/resource/Multilayer_perceptron + , http://dbpedia.org/resource/Multilayer_perceptron + , http://zh.dbpedia.org/resource/%E5%A4%9A%E5%B1%82%E6%84%9F%E7%9F%A5%E5%99%A8 + , http://it.dbpedia.org/resource/Percettrone_multistrato + , http://ca.dbpedia.org/resource/Perceptr%C3%B3_multicapa + , http://bg.dbpedia.org/resource/%D0%9C%D0%BD%D0%BE%D0%B3%D0%BE%D1%81%D0%BB%D0%BE%D0%B5%D0%BD_%D0%BF%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD + , http://fr.dbpedia.org/resource/Perceptron_multicouche + , http://www.wikidata.org/entity/Q2991667 + , http://pl.dbpedia.org/resource/Perceptron_wielowarstwowy +
rdf:type http://dbpedia.org/class/yago/WikicatNeuralNetworks + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/Event100029378 + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Rule105846932 + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/Algorithm105847438 + , http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Act100030358 + , http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/Procedure101023820 + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/YagoPermanentlyLocatedEntity + , http://dbpedia.org/class/yago/Activity100407535 + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/ontology/Person + , http://dbpedia.org/class/yago/WikicatClassificationAlgorithms +
rdfs:comment Багатошаровий перцептрон Румельхарта — окрБагатошаровий перцептрон Румельхарта — окремий випадок перцептрона Розенблатта, в якому один алгоритм зворотного поширення помилки навчає всі шари. На жаль, назва з історичних причин не відображає особливості даного виду перцептрона, тобто не пов'язана з тим, що в ньому кілька шарів (тому що кілька шарів було і у перцептрона Розенблатта). Особливістю є наявність більш ніж одного учня шару (як правило — два чи три, для застосування більшої кількості наразі немає обґрунтування — втрачається швидкість без придбання якості). Необхідність у великій кількості шарів-учнів відпадає, оскільки теоретично єдиного прихованого шару достатньо, щоб перекодувати вхідний сигнал таким чином, щоб отримати лінійну карту для вихідного сигналу. Але є припущення, що, використовуючи більше число шарів, можна зменористовуючи більше число шарів, можна змен , 多層パーセプトロン(たそうパーセプトロン、英: Multilayer percept多層パーセプトロン(たそうパーセプトロン、英: Multilayer perceptron、略称: MLP)は、ニューラルネットワークの一分類である。MLPは少なくとも3つのノードの層からなる。入力ノードを除けば、個々のノードは非線形活性化関数を使用するニューロンである。MLPは学習のために誤差逆伝播法(バックプロパゲーション)と呼ばれる教師あり学習手法を利用する。その多層構造と非線形活性化関数が、MLPと線形パーセプトロンを区別している。MLPは線形分離可能ではないデータを識別できる。 多層パーセプトロンは時折、特に単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。 , A perceptron multicamadas (MLP) é uma redeA perceptron multicamadas (MLP) é uma rede neural semelhante à perceptron, mas com mais de uma camada de neurônios em alimentação direta. Tal tipo de rede é composta por camadas de neurônios ligadas entre si por sinapses com pesos. O aprendizado nesse tipo de rede é geralmente feito através do algoritmo de retro-propagação do erro, mas existem outros algoritmos para este fim, como a Rprop.os algoritmos para este fim, como a Rprop. , Un perceptró multicapa (amb acrònim MLP) éUn perceptró multicapa (amb acrònim MLP) és un tipus de xarxa neuronal artificial de classe directa. Una MLP consisteix , almenys, de tres capes de nodes : una capa d'entrada, una capa oculta i una capa de sortida. Excepte pel mode d'entrada, cada node empra una funció d'activació no lineal, la qual cosa permet de classificar conjunts de dades que no estan separats linealment. Es distingeixen del perceptró que només tenen una capa oculta i funció lineal. MLP utilitza una tècnica d'aprenentatge supervisat anomenada backpropagation (retropropagació).omenada backpropagation (retropropagació). , Il Percettrone multistrato (in acronimo MLIl Percettrone multistrato (in acronimo MLP dall'inglese Multilayer perceptron) è un modello di rete neurale artificiale che mappa insiemi di dati in ingresso in un insieme di dati in uscita appropriati. È fatta di strati multipli di nodi in un grafo diretto, con ogni strato completamente connesso al successivo. Eccetto che per i nodi in ingresso, ogni nodo è un neurone (elemento elaborante) con una funzione di attivazione lineare. Il Percettrone multistrato usa una tecnica di apprendimento supervisionato chiamata backpropagation per l'allenamento della rete.kpropagation per l'allenamento della rete. , 多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。MLP可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个节点都是一个带有非线性激活函数的神经元(或称处理单元)。一种被称为反向传播算法的监督学习方法常被用来训练MLP。 多层感知器遵循人類神經系統原理,學習並進行數據預測。它首先學習,然後使用權重存儲數據,並使用算法來調整權重並減少訓練過程中的偏差,即實際值和預測值之間的誤差。主要優勢在於其快速解決複雜問題的能力。多層感知的基本結構由三層組成:第一輸入層,中間隱藏層和最後輸出層,輸入元素和權重的乘積被饋給具有神經元偏差的求和結點,主要優勢在於其快速解決複雜問題的能力。 MLP是感知器的推广,克服了感知器不能对数据进行识别的弱点。速解決複雜問題的能力。 MLP是感知器的推广,克服了感知器不能对数据进行识别的弱点。 , Perceptron wielowarstwowy (ang. MultilayerPerceptron wielowarstwowy (ang. Multilayer Perceptron, MLP) – najpopularniejszy typ sztucznych sieci neuronowych. Sieć tego typu składa się zwykle z jednej warstwy wejściowej, kilku warstw ukrytych oraz jednej warstwy wyjściowej. Warstwy ukryte składają się najczęściej z neuronów McCullocha-Pittsa. Ustalenie właściwej liczby warstw ukrytych oraz liczby neuronów znajdujących się w poszczególnych warstwach jest trudnym zagadnieniem, które musi rozwiązać twórca sieci neuronowej. Warstwa wyjściowa może składać się z neuronów liniowych (w przypadku regresji) lub neuronów nieliniowych (w przypadku klasyfikacji). Trenowanie sieci typu MLP możliwe jest dzięki zastosowaniu metody wstecznej propagacji błędów.owaniu metody wstecznej propagacji błędów. , Многослойный перцептрон — частный случай пМногослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв (так как несколько слоёв было и у перцептрона Розенблатта). Особенностью является наличие более чем одного обучаемого слоя (как правило — два или три). Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарноть число элементов в них, то есть суммарно , A multilayer perceptron (MLP) is a fully cA multilayer perceptron (MLP) is a fully connected class of feedforward artificial neural network (ANN). The term MLP is used ambiguously, sometimes loosely to mean any feedforward ANN, sometimes strictly to refer to networks composed of multiple layers of perceptrons (with threshold activation); see . Multilayer perceptrons are sometimes colloquially referred to as "vanilla" neural networks, especially when they have a single hidden layer.ally when they have a single hidden layer. , 다층 퍼셉트론(Multilayer perceptron, MLP)은 퍼셉트론을 여러층 쌓은 순방향의 인공 신경망이다. 입력층(input layer)과 은닉층(hidden layer)과 출력층(output layer)으로 구성된다. 각 층에서는 활성함수를 통해 입력을 처리한다. , Le perceptron multicouche (multilayer percLe perceptron multicouche (multilayer perceptron MLP) est un type de réseau neuronal artificiel organisé en plusieurs couches. L'information circule de la couche d'entrée vers la couche de sortie uniquement : il s'agit donc d'un réseau à propagation directe (feedforward). Chaque couche est constituée d'un nombre variable de neurones, les neurones de la dernière couche (dite « de sortie ») étant les sorties du système global.ie ») étant les sorties du système global. , El perceptrón multicapa es una red neuronaEl perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, de tal manera que tiene capacidad para resolver problemas que no son linealmente separables, lo cual es la principal limitación del perceptrón (también llamado perceptrón simple). El perceptrón multicapa puede estar totalmente o localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (región) de la capa "i+1".rie de neuronas (región) de la capa "i+1".
rdfs:label Perceptron multicouche , Mehrlagiges Perzeptron , Multilayer perceptron , 多层感知器 , Perceptron wielowarstwowy , Percettrone multistrato , 多層パーセプトロン , Perceptron multicamadas , Perceptrón multicapa , Багатошаровий перцептрон Румельхарта , Многослойный перцептрон Румельхарта , Perceptró multicapa , 다층 퍼셉트론
hide properties that link here 
http://dbpedia.org/resource/Multi-layer_perceptron + , http://dbpedia.org/resource/Applications_of_multilayer_perceptrons + , http://dbpedia.org/resource/Vanilla_neural_network + , http://dbpedia.org/resource/Multi-layer_perceptrons + , http://dbpedia.org/resource/Multi_layer_perceptron + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Computational_neurogenetic_modeling + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Hybrid_Kohonen_self-organizing_map + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/MLP + , http://dbpedia.org/resource/Recurrent_neural_network + , http://dbpedia.org/resource/FMLLR + , http://dbpedia.org/resource/Fitness_approximation + , http://dbpedia.org/resource/Relation_network + , http://dbpedia.org/resource/Fault_detection_and_isolation + , http://dbpedia.org/resource/ADALINE + , http://dbpedia.org/resource/Perceptron + , http://dbpedia.org/resource/Time_delay_neural_network + , http://dbpedia.org/resource/Torch_%28machine_learning%29 + , http://dbpedia.org/resource/Motor_babbling + , http://dbpedia.org/resource/Neuroph + , http://dbpedia.org/resource/Multi-layer_perceptron + , http://dbpedia.org/resource/Probabilistic_neural_network + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/NeuroSolutions + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Ryzen + , http://dbpedia.org/resource/Batch_normalization + , http://dbpedia.org/resource/Hamilton%E2%80%93Jacobi%E2%80%93Bellman_equation + , http://dbpedia.org/resource/Supervised_learning + , http://dbpedia.org/resource/Feature_learning + , http://dbpedia.org/resource/Machine_learning_in_video_games + , http://dbpedia.org/resource/Platt_scaling + , http://dbpedia.org/resource/Bellman_equation + , http://dbpedia.org/resource/Receptive_field + , http://dbpedia.org/resource/Artificial_neuron + , http://dbpedia.org/resource/Perceiver + , http://dbpedia.org/resource/Probabilistic_classification + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Autoencoder + , http://dbpedia.org/resource/Vision_transformer + , http://dbpedia.org/resource/Visual_Turing_Test + , http://dbpedia.org/resource/2019_in_science + , http://dbpedia.org/resource/Volterra_series + , http://dbpedia.org/resource/Richard_F._Lyon + , http://dbpedia.org/resource/Logic_learning_machine + , http://dbpedia.org/resource/ADaMSoft + , http://dbpedia.org/resource/Applications_of_multilayer_perceptrons + , http://dbpedia.org/resource/Bidirectional_recurrent_neural_networks + , http://dbpedia.org/resource/Wasserstein_GAN + , http://dbpedia.org/resource/Vanilla_neural_network + , http://dbpedia.org/resource/Multi-layer_perceptrons + , http://dbpedia.org/resource/Multi_layer_perceptron + , http://dbpedia.org/resource/Multilayer_perceptrons + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Multilayer_perceptron + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Multilayer_perceptron + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.