Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Backpropagation
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Backpropagation
http://dbpedia.org/ontology/abstract الانتشار الخلفي (Backpropagation) هي إحدى الانتشار الخلفي (Backpropagation) هي إحدى طرق تعليم الشبكات العصبونية التي تؤمن نقل معلومات بالانتشار العكسي للاتجاه الأصلي لقدوم المعلومات. تعتمد هذه الطريقة على مبدأ وتحتاج في مرحلة التدريب إلى بيانات خاصة تتعلم بها الشبكة حيث تقدم لها بيانات دخل (input) مع بيانات الخرج (output) المرغوب فيها ومن ثم تقوم الشبكة بعمل انتشار امامي (feed forward) لبيانات الدخل للحصول على قيمة خرج الشبكة بعدها تقوم بالمقارنة بين الخرج المحسوب والخرج المرغوب فاذا لم تتطابق النتائج تقوم الشبكة بحساب قيمة الفرق بينهما لكل عصبون من طبقة الخرج والذي يمثل قيمة الخطا (error)، بعدها تاتي مرحلة الانتشار الخلفي للأخطاء (backpropagation) حيث تعيد الشبكة حساب قيمة الخطأ في كل عصبون من الشبكات الخفية. في الأخير تأتي مرحلة تحديث قيمة الأوزان(weight update)حيث تقوم الشبكة بإعادة حساب كل الأوزان وتعوضها بالقيم الجديدة المحسوبة. يشترط في الانتشار الخلفي ان تكون التي تستعملها العصبونات قابلة للاشتقاق. ذلك لانه في مرحلة تحديث الأوزان تستعمل الدالة المشتقة لدالة التنشيط في حساب القيم الجديدة.مشتقة لدالة التنشيط في حساب القيم الجديدة. , En machine learning, la rétropropagation dEn machine learning, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale. De façon abusive, on appelle souvent « technique de rétropropagation du gradient » l'algorithme classique de correction des erreurs reposant sur le calcul du gradient grâce à la rétropropagation. C'est cette méthode qui est présentée ici. La correction des erreurs peut se faire selon d'autres méthodes, par exemple le calcul de la dérivée seconde. Ce principe fonde les méthodes de type algorithme du gradient, qui sont utilisées dans des réseaux de neurones multicouches comme les perceptrons multicouches. L'algorithme du gradient a pour but de converger de manière itérative vers une configuration optimale des poids synaptiques. Cet état peut être un minimum local de la fonction, ou, idéalement, le minimum global de cette fonction (dite fonction de coût). Normalement, la fonction de coût est non linéaire au regard des poids synaptiques. Elle dispose également d'une borne inférieure et moyennant quelques précautions lors de l'apprentissage, les procédures d'optimisation finissent par aboutir à une configuration stable au sein du réseau de neurones.tion stable au sein du réseau de neurones. , Backpropagation oder auch Backpropagation Backpropagation oder auch Backpropagation of Error bzw. auch Fehlerrückführung (auch Rückpropagierung) ist ein verbreitetes Verfahren für das Einlernen von künstlichen neuronalen Netzen. Es gehört zur Gruppe der überwachten Lernverfahren und wird als Verallgemeinerung der Delta-Regel auf mehrschichtige Netze angewandt. Dazu muss ein externer Lehrer existieren, der zu jedem Zeitpunkt der Eingabe die gewünschte Ausgabe, den Zielwert, kennt.Die Rückwärtspropagierung ist ein Spezialfall eines allgemeinen Gradientenverfahrens in der Optimierung, basierend auf dem mittleren quadratischen Fehler.nd auf dem mittleren quadratischen Fehler. , En aprendizaje de máquina, la propagación En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones. ​ El método emplea un ciclo de propagación–adaptación de dos fases, en resumen permite que la información del costo fluya hacia atrás a través de la red para calcular el gradiente.​ Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de la red, hasta generar una salida. La señal de salida se compara con la salida deseada y se calcula una señal de error para cada una de las salidas. Las salidas de error entonces se propagan hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total del error, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una señal de error que describa su contribución relativa al error total. La importancia de este proceso consiste en que, a medida que se entrena la red, las neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas neuronas aprenden a reconocer distintas características del espacio total de entrada. Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella característica que las neuronas individuales hayan aprendido a reconocer durante su entrenamiento.dido a reconocer durante su entrenamiento. , In machine learning, backpropagation (backIn machine learning, backpropagation (backprop, BP) is a widely used algorithm for training feedforward artificial neural networks. Generalizations of backpropagation exist for other artificial neural networks (ANNs), and for functions generally. These classes of algorithms are all referred to generically as "backpropagation". In fitting a neural network, backpropagation computes the gradient of the loss function with respect to the weights of the network for a single input–output example, and does so efficiently, unlike a naive direct computation of the gradient with respect to each weight individually. This efficiency makes it feasible to use gradient methods for training multilayer networks, updating weights to minimize loss; gradient descent, or variants such as stochastic gradient descent, are commonly used. The backpropagation algorithm works by computing the gradient of the loss function with respect to each weight by the chain rule, computing the gradient one layer at a time, iterating backward from the last layer to avoid redundant calculations of intermediate terms in the chain rule; this is an example of dynamic programming. The term backpropagation strictly refers only to the algorithm for computing the gradient, not how the gradient is used; however, the term is often used loosely to refer to the entire learning algorithm, including how the gradient is used, such as by stochastic gradient descent. Backpropagation generalizes the gradient computation in the delta rule, which is the single-layer version of backpropagation, and is in turn generalized by automatic differentiation, where backpropagation is a special case of reverse accumulation (or "reverse mode"). The term backpropagation and its general use in neural networks was announced in , then elaborated and popularized in , but the technique was independently rediscovered many times, and had many predecessors dating to the 1960s; see . A modern overview is given in the deep learning textbook by .s given in the deep learning textbook by . , Метод зворотного поширення помилки (англ. Метод зворотного поширення помилки (англ. backpropagation) — метод навчання багатошарового перцептрону. Це ітеративний градієнтний алгоритм, який використовується з метою мінімізації помилки роботи багатошарового перцептрону та отримання бажаного виходу. Основна ідея цього методу полягає в поширенні сигналів помилки від виходів мережі до її входів, в напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи. Барц і Охонін запропонували відразу загальний метод («принцип подвійності»), який можна застосувати до ширшого класу систем, включаючи , , тощо .Для можливості застосування методу зворотного поширення помилки функція активації нейронів повинна бути диференційовною.ції нейронів повинна бути диференційовною. , O αλγόριθμος οπισθοδιάδοσης είναι μια οικοO αλγόριθμος οπισθοδιάδοσης είναι μια οικογένεια μεθόδων που χρησιμοποιούνται για την αποτελεσματική εκπαίδευση των τεχνητών νευρωνικών δικτύων (συντομογραφία ΤΝΔ), ακολουθώντας έναν αλγόριθμο βελτιστοποίησης βασιζόμενο στην κλίση που εκμεταλλεύεται τον κανόνα της αλυσίδας . Το κύριο χαρακτηριστικό της οπισθοδιάδοσης είναι η επαναληπτική, αναδρομική και αποδοτική μέθοδος για τον υπολογισμό των ανανεώσεων των βαρών για τη βελτίωση του δικτύου έως ότου είναι σε θέση να εκτελέσει το έργο για το οποίο εκπαιδεύεται. Είναι στενά συνδεδεμένη με τον αλγόριθμο Gauss-Newton . Η οπισθοδιάδοση απαιτεί ότι οι παράγωγοι των συναρτήσεων ενεργοποίησης κατά το σχεδιασμό του δικτύου είναι γνωστοί. Η αυτόματη διαφοροποίηση είναι μια τεχνική που παρέχει αυτόματα και αναλυτικά τις παραγώγους των συναρτήσεων στον αλγόριθμο εκπαίδευσης. Στο πλαίσιο της μάθησης, η οπισθοδιάδοση χρησιμοποιείται συνήθως από τον αλγόριθμο βελτιστοποίησης μείωσης κλίσης ώστε να ρυθμίσει το βάρος των νευρώνων υπολογίζοντας την κλίση της συνάρτησης απώλειας. Η οπίσθοδιάδοση υπολογίζει τις κλίσεις, ενώ η (στοχαστική) μείωση της κλίσης χρησιμοποιεί τις κλίσεις για την εκπαίδευση του μοντέλου (μέσω βελτιστοποίησης).δευση του μοντέλου (μέσω βελτιστοποίησης). , 反向传播(英語:Backpropagation,意為误差反向传播,缩写为BP)是對多層人工神经网络進行梯度下降的算法,也就是用链式法则以网络每层的权重為變數计算损失函数的梯度,以更新权重來最小化损失函数。 , La retropropagació, en l'àmbit de les xarxLa retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa. La retropropagació s'utilitza molt per a entrenar xarxes d'aprenentatge profund. La retropropagació és un cas especial d'una tècnica més general anomenada derivació automàtica, on s'ajusten els coeficients de les neurones tot calculant amb l'algorisme del gradient descendent.t amb l'algorisme del gradient descendent. , Метод обратного распространения ошибки (анМетод обратного распространения ошибки (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона. Впервые метод был описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полом Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно и (Красноярская группа). Это , который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода. Основная идея этого метода состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении обратном прямому распространению сигналов в обычном режиме работы. Барцев и Охонин предложили обобщающий метод («принцип двойственности»), применимый к более широкому классу систем, включая , распределённые системы, и т. п. Для возможности применения метода обратного распространения ошибки передаточная функция нейронов должна быть дифференцируема. Метод используется для аналитического вычисления градиента в методе градиентного спуска.ия градиента в методе градиентного спуска. , La retropropagazione dell'errore (in ingleLa retropropagazione dell'errore (in inglese backpropagation) è un algoritmo per l'addestramento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. La retropropagazione richiede un'uscita desiderata per ogni valore in ingresso per poter calcolare il gradiente della funzione di perdita (funzione di costo). Viene considerato quindi un metodo di apprendimento supervisionato, sebbene venga usato anche in reti non supervisionate come gli autocodificatori o . È una generalizzazione della regola delta di reti feed-forward multistrato, resa possibile usando la regola di catena che iterativamente calcola i gradienti per ogni strato.La retropropagazione richiede che la funzione d'attivazione usata dai neuroni artificiali (o "nodi") sia differenziabile. Una delle principali difficoltà nell'uso della retropropagazione dell'errore è il cosiddetto problema della scomparsa del gradiente, dovuto all'uso di funzioni di attivazione non lineari che causano una diminuzione esponenziale del valore del gradiente all'aumentare della profondità della rete neurale.ntare della profondità della rete neurale. , バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)はニューラルネットワークの学習アルゴリズムである。 , Algoritme Perambatan Mundur atau backpropaAlgoritme Perambatan Mundur atau backpropagation merupakan algoritme untuk melakukan proses pembelajaran terarah (supervised learning) pada jaringan saraf tiruan (JST) untuk mencari beban (weight) pada setiap neuron yang menghasilkan nilai kesalahan seminimal mungkin melalui data pembelajaran (training data) yang diberikan. Metode ini memanfaatkan teknik optimasi berdasarkan penurunan gradien. Metode ini dilakukan setelah proses perambatan maju yang merambatkan data dari data masukan ke keluaran melalui koleksi neuron dan lapisan JST untuk kemudian dirambatkan balik ke belakang dari lapis keluaran ke lapis masukan untuk menghitung nilai kesalahan pada masing-masing neuron dibandingkan dengan nilai keluaran yang seharusnya (nilai target). * l * * sng seharusnya (nilai target). * l * * s , 역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼게이션[*]) 또는 오류 역전파 알고리즘은 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다. 기계 학습에서 사용되는 학습 구조로 다층 퍼셉트론이 있다. 일반적인 다층 퍼셉트론의 형태는 입력층 - 은닉층 - 은닉층 - ... - 출력층으로 구성되며, 각 층은 서로 교차되는 가중치 값으로 연결되어 있다. 출력층에서 제시한 값이 실제 원하는 값에 가까워지도록 학습하기 위해 통계적 방법에 의한 오차역전법을 사용한다. 오차역전법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 가중치를 조정하는 방법으로 사용되며, 속도는 느리지만 안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다.안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다. , Propagacja wsteczna (ang. Backpropagation Propagacja wsteczna (ang. Backpropagation lub Backward Propagation of Errors) – podstawowy algorytm uczenia nadzorowanego wielowarstwowych, jednokierunkowych sieci neuronowych. Podaje on przepis na zmianę wag dowolnych połączeń elementów przetwarzających rozmieszczonych w sąsiednich warstwach sieci. Oparty jest on na minimalizacji sumy kwadratów błędów (lub innej funkcji błędu) uczenia z wykorzystaniem optymalizacyjnej metody największego spadku. Dzięki zastosowaniu specyficznego sposobu propagowania błędów uczenia sieci powstałych na jej wyjściu, tj. przesyłania ich od warstwy wyjściowej do wejściowej, algorytm propagacji wstecznej stał się jednym z najskuteczniejszych algorytmów uczenia sieci. Algorytm uczenia wyznacza kierunek, w którym w danej iteracji należy zmodyfikować wagi w celu zmniejszenia błędu popełnianego przez sieć. Tempo modyfikacji wag określone jest natomiast za pomocą współczynnika uczenia.natomiast za pomocą współczynnika uczenia.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/A_simple_neural_network_with_two_input_units_and_one_output_unit.png?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink http://neuralnetworksanddeeplearning.com + , https://ghostarchive.org/varchive/youtube/20211212/i94OvYb6noo%7C + , https://www.youtube.com/watch%3Fv=i94OvYb6noo&list=PLkt2uSq6rBVctENoVBg1TpCC7OQi31AlC&index=4 + , https://ghostarchive.org/varchive/youtube/20211212/Ilg3gGewQ5U%7C + , http://neuralnetworksanddeeplearning.com/chap2.html + , http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html + , https://www.deeplearningbook.org/contents/mlp.html%23pf25 + , https://docs.microsoft.com/en-us/archive/msdn-magazine/2012/october/test-run-neural-network-back-propagation-for-programmers + , https://sudeepraja.github.io/BackpropAdjoints/ + , http://www.deeplearningbook.org + , https://www.youtube.com/watch%3Fv=Ilg3gGewQ5U&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi&index=3 + , https://www.deeplearningbook.org/contents/mlp.html%23pf33 + , https://page.mi.fu-berlin.de/rojas/neural/chapter/K7.pdf +
http://dbpedia.org/ontology/wikiPageID 1360091
http://dbpedia.org/ontology/wikiPageLength 50623
http://dbpedia.org/ontology/wikiPageRevisionID 1124381939
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/P600_%28neuroscience%29 + , http://dbpedia.org/resource/Neural_circuit + , http://dbpedia.org/resource/Category:Machine_learning_algorithms + , http://dbpedia.org/resource/ReLU + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/AdaBoost + , http://dbpedia.org/resource/Function_composition + , http://dbpedia.org/resource/Transpose + , http://dbpedia.org/resource/MSDN_Magazine + , http://dbpedia.org/resource/Seppo_Linnainmaa + , http://dbpedia.org/resource/Algorithm + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Cross_entropy + , http://dbpedia.org/resource/Overfitting + , http://dbpedia.org/resource/Softmax_function + , http://dbpedia.org/resource/N400_%28neuroscience%29 + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Monte_Carlo_tree_search + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Control_theory + , http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Yann_LeCun + , http://dbpedia.org/resource/Category:Articles_with_example_pseudocode + , http://dbpedia.org/resource/Training_set + , http://dbpedia.org/resource/Artificial_neuron + , http://dbpedia.org/resource/Yu-Chi_Ho + , http://dbpedia.org/resource/Log_loss + , http://dbpedia.org/resource/Parameter_space + , http://dbpedia.org/resource/Tuple + , http://dbpedia.org/resource/Chain_rule + , http://dbpedia.org/resource/GPU + , http://dbpedia.org/resource/Loss_function + , http://dbpedia.org/resource/Stochastic_gradient_descent + , http://dbpedia.org/resource/Arthur_E._Bryson + , http://dbpedia.org/resource/Matrix_multiplication + , http://dbpedia.org/resource/Machine_vision + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/Statistical_classification + , http://dbpedia.org/resource/Catastrophic_interference + , http://dbpedia.org/resource/Squared_error_loss + , http://dbpedia.org/resource/David_E._Rumelhart + , http://dbpedia.org/resource/Levenberg-Marquardt_algorithm + , http://dbpedia.org/resource/Differentiable_function + , http://dbpedia.org/resource/Fisher_information + , http://dbpedia.org/resource/Dummy_variable_%28statistics%29 + , http://dbpedia.org/resource/File:ArtificialNeuronModel_english.png + , http://dbpedia.org/resource/File:Extrema_example.svg + , http://dbpedia.org/resource/Reverse_accumulation + , http://dbpedia.org/resource/File:Error_surface_of_a_linear_neuron_for_a_single_training_case.png + , http://dbpedia.org/resource/File:A_simple_neural_network_with_two_input_units_and_one_output_unit.png + , http://dbpedia.org/resource/Regression_analysis + , http://dbpedia.org/resource/Wikiversity:Learning_and_Neural_Networks + , http://dbpedia.org/resource/Ensemble_learning + , http://dbpedia.org/resource/Optimization_problem + , http://dbpedia.org/resource/Paul_Werbos + , http://dbpedia.org/resource/Algorithmic_efficiency + , http://dbpedia.org/resource/Convex_optimization + , http://dbpedia.org/resource/Event-related_potential + , http://dbpedia.org/resource/One-hot + , http://dbpedia.org/resource/Real_number + , http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Covector + , http://dbpedia.org/resource/Non-linear + , http://dbpedia.org/resource/Iteration + , http://dbpedia.org/resource/Neural_backpropagation + , http://dbpedia.org/resource/Maxima_and_minima + , http://dbpedia.org/resource/Stuart_Dreyfus + , http://dbpedia.org/resource/Gradient + , http://dbpedia.org/resource/Parameter + , http://dbpedia.org/resource/Glossary_of_graph_theory_terms + , http://dbpedia.org/resource/Hessian_matrix + , http://dbpedia.org/resource/Geoffrey_E._Hinton + , http://dbpedia.org/resource/Ronald_J._Williams + , http://dbpedia.org/resource/Scalar-valued_function + , http://dbpedia.org/resource/Swish_function + , http://dbpedia.org/resource/Partial_derivative + , http://dbpedia.org/resource/Plateau_%28mathematics%29 + , http://dbpedia.org/resource/Gradient_method + , http://dbpedia.org/resource/Hadamard_product_%28matrices%29 + , http://dbpedia.org/resource/Automatic_differentiation + , http://dbpedia.org/resource/Natural_language_processing + , http://dbpedia.org/resource/Parabola + , http://dbpedia.org/resource/Diagonal_matrix + , http://dbpedia.org/resource/Henry_J._Kelley + , http://dbpedia.org/resource/Euclidean_distance + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Total_derivative + , http://dbpedia.org/resource/Backpropagation_through_time + , http://dbpedia.org/resource/YouTube + , http://dbpedia.org/resource/Dynamic_programming + , http://dbpedia.org/resource/Rectifier_%28neural_networks%29 + , http://dbpedia.org/resource/AlexNet + , http://dbpedia.org/resource/Ramp_function + , http://dbpedia.org/resource/Delta_rule + , http://dbpedia.org/resource/Supervised_learning +
http://dbpedia.org/property/date August 2022
http://dbpedia.org/property/reason Inconsistent use of variable names and terminology without images to match.
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:See_also + , http://dbpedia.org/resource/Template:Notelist + , http://dbpedia.org/resource/Template:Authority_control + , http://dbpedia.org/resource/Template:Cbignore + , http://dbpedia.org/resource/Template:Expand_section + , http://dbpedia.org/resource/Template:NumBlk + , http://dbpedia.org/resource/Template:EquationNote + , http://dbpedia.org/resource/Template:Cite_web + , http://dbpedia.org/resource/Template:Mvar + , http://dbpedia.org/resource/Template:About + , http://dbpedia.org/resource/Template:Further + , http://dbpedia.org/resource/Template:Harvtxt + , http://dbpedia.org/resource/Template:Hatnote + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Cn + , http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Machine_learning_bar + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Sfn + , http://dbpedia.org/resource/Template:Slink + , http://dbpedia.org/resource/Template:Cleanup_reorganize + , http://dbpedia.org/resource/Template:EquationRef + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Efn +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Category:Articles_with_example_pseudocode + , http://dbpedia.org/resource/Category:Machine_learning_algorithms +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Method +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Backpropagation?oldid=1124381939&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/A_simple_neural_network_with_two_input_units_and_one_output_unit.png + , http://commons.wikimedia.org/wiki/Special:FilePath/ArtificialNeuronModel_english.png + , http://commons.wikimedia.org/wiki/Special:FilePath/Error_surface_of_a_linear_neuron_for_a_single_training_case.png + , http://commons.wikimedia.org/wiki/Special:FilePath/Extrema_example.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Backpropagation +
owl:sameAs http://ca.dbpedia.org/resource/Retropropagaci%C3%B3 + , http://sr.dbpedia.org/resource/%D0%91%D0%B5%D0%BA%D0%BF%D1%80%D0%BE%D0%BF%D0%B0%D0%B3%D0%B0%D1%86%D0%B8%D1%98%D0%B0 + , http://id.dbpedia.org/resource/Algoritma_perambatan_mundur + , http://simple.dbpedia.org/resource/Backpropagation + , http://fa.dbpedia.org/resource/%D9%BE%D8%B3%E2%80%8C%D8%A7%D9%86%D8%AA%D8%B4%D8%A7%D8%B1 + , http://pl.dbpedia.org/resource/Propagacja_wsteczna + , http://dbpedia.org/resource/Backpropagation + , http://www.wikidata.org/entity/Q798503 + , http://ko.dbpedia.org/resource/%EC%97%AD%EC%A0%84%ED%8C%8C + , http://sl.dbpedia.org/resource/Metoda_vzvratnega_raz%C5%A1irjanja + , http://rdf.freebase.com/ns/m.04wmwt + , http://vi.dbpedia.org/resource/Truy%E1%BB%81n_ng%C6%B0%E1%BB%A3c + , http://es.dbpedia.org/resource/Propagaci%C3%B3n_hacia_atr%C3%A1s + , http://de.dbpedia.org/resource/Backpropagation + , http://ar.dbpedia.org/resource/%D8%A7%D9%86%D8%AA%D8%B4%D8%A7%D8%B1_%D8%AE%D9%84%D9%81%D9%8A + , http://zh.dbpedia.org/resource/%E5%8F%8D%E5%90%91%E4%BC%A0%E6%92%AD%E7%AE%97%E6%B3%95 + , http://uk.dbpedia.org/resource/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B7%D0%B2%D0%BE%D1%80%D0%BE%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BF%D0%BE%D1%88%D0%B8%D1%80%D0%B5%D0%BD%D0%BD%D1%8F_%D0%BF%D0%BE%D0%BC%D0%B8%D0%BB%D0%BA%D0%B8 + , https://global.dbpedia.org/id/4xPEm + , http://cs.dbpedia.org/resource/Algoritmus_zp%C4%9Btn%C3%A9ho_%C5%A1%C3%AD%C5%99en%C3%AD_chyby + , http://ru.dbpedia.org/resource/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%B1%D1%80%D0%B0%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%BE%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B5%D0%BD%D0%B8%D1%8F_%D0%BE%D1%88%D0%B8%D0%B1%D0%BA%D0%B8 + , http://ja.dbpedia.org/resource/%E3%83%90%E3%83%83%E3%82%AF%E3%83%97%E3%83%AD%E3%83%91%E3%82%B2%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3 + , http://fr.dbpedia.org/resource/R%C3%A9tropropagation_du_gradient + , http://ka.dbpedia.org/resource/%E1%83%A3%E1%83%99%E1%83%A3%E1%83%9E%E1%83%A0%E1%83%9D%E1%83%9E%E1%83%90%E1%83%92%E1%83%90%E1%83%AA%E1%83%98%E1%83%A3%E1%83%9A%E1%83%98_%E1%83%9B%E1%83%9D%E1%83%93%E1%83%94%E1%83%9A%E1%83%98 + , http://it.dbpedia.org/resource/Retropropagazione_dell%27errore + , http://yago-knowledge.org/resource/Backpropagation + , http://el.dbpedia.org/resource/%CE%9F%CF%80%CE%B9%CF%83%CE%B8%CE%BF%CE%B4%CE%B9%CE%AC%CE%B4%CE%BF%CF%83%CE%B7 +
rdf:type http://dbpedia.org/class/yago/Activity100407535 + , http://dbpedia.org/class/yago/WikicatNeuralNetworks + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/class/yago/Act100030358 + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Algorithm105847438 + , http://dbpedia.org/class/yago/Rule105846932 + , http://dbpedia.org/class/yago/WikicatAlgorithms + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 + , http://dbpedia.org/class/yago/Procedure101023820 + , http://dbpedia.org/class/yago/YagoPermanentlyLocatedEntity + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/ontology/Software + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/Event100029378 + , http://dbpedia.org/class/yago/Abstraction100002137 +
rdfs:comment En machine learning, la rétropropagation dEn machine learning, la rétropropagation du gradient est une méthode pour entraîner un réseau de neurones, consistant à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l'importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids synaptiques qui contribuent plus à une erreur seront modifiés de manière plus importante que les poids qui provoquent une erreur marginale.poids qui provoquent une erreur marginale. , Propagacja wsteczna (ang. Backpropagation Propagacja wsteczna (ang. Backpropagation lub Backward Propagation of Errors) – podstawowy algorytm uczenia nadzorowanego wielowarstwowych, jednokierunkowych sieci neuronowych. Podaje on przepis na zmianę wag dowolnych połączeń elementów przetwarzających rozmieszczonych w sąsiednich warstwach sieci. Oparty jest on na minimalizacji sumy kwadratów błędów (lub innej funkcji błędu) uczenia z wykorzystaniem optymalizacyjnej metody największego spadku. Dzięki zastosowaniu specyficznego sposobu propagowania błędów uczenia sieci powstałych na jej wyjściu, tj. przesyłania ich od warstwy wyjściowej do wejściowej, algorytm propagacji wstecznej stał się jednym z najskuteczniejszych algorytmów uczenia sieci.skuteczniejszych algorytmów uczenia sieci. , 反向传播(英語:Backpropagation,意為误差反向传播,缩写为BP)是對多層人工神经网络進行梯度下降的算法,也就是用链式法则以网络每层的权重為變數计算损失函数的梯度,以更新权重來最小化损失函数。 , 역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼역전파(逆傳播), 오차 역전파법(영어: Backpropagation 백프로퍼게이션[*]) 또는 오류 역전파 알고리즘은 다층 퍼셉트론 학습에 사용되는 통계적 기법을 의미한다. 기계 학습에서 사용되는 학습 구조로 다층 퍼셉트론이 있다. 일반적인 다층 퍼셉트론의 형태는 입력층 - 은닉층 - 은닉층 - ... - 출력층으로 구성되며, 각 층은 서로 교차되는 가중치 값으로 연결되어 있다. 출력층에서 제시한 값이 실제 원하는 값에 가까워지도록 학습하기 위해 통계적 방법에 의한 오차역전법을 사용한다. 오차역전법은 동일 입력층에 대해 원하는 값이 출력되도록 개개의 가중치를 조정하는 방법으로 사용되며, 속도는 느리지만 안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다.안정적인 결과를 얻을 수 있는 장점이 있어 기계 학습에 널리 사용되고 있다. , バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)はニューラルネットワークの学習アルゴリズムである。 , Метод обратного распространения ошибки (анМетод обратного распространения ошибки (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона. Впервые метод был описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полом Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно и (Красноярская группа). Это , который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода. перцептрона и получения желаемого выхода. , La retropropagazione dell'errore (in ingleLa retropropagazione dell'errore (in inglese backpropagation) è un algoritmo per l'addestramento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente. Una delle principali difficoltà nell'uso della retropropagazione dell'errore è il cosiddetto problema della scomparsa del gradiente, dovuto all'uso di funzioni di attivazione non lineari che causano una diminuzione esponenziale del valore del gradiente all'aumentare della profondità della rete neurale.ntare della profondità della rete neurale. , La retropropagació, en l'àmbit de les xarxLa retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa. La retropropagació s'utilitza molt per a entrenar xarxes d'aprenentatge profund. La retropropagació és un cas especial d'una tècnica més general anomenada derivació automàtica, on s'ajusten els coeficients de les neurones tot calculant amb l'algorisme del gradient descendent.t amb l'algorisme del gradient descendent. , O αλγόριθμος οπισθοδιάδοσης είναι μια οικοO αλγόριθμος οπισθοδιάδοσης είναι μια οικογένεια μεθόδων που χρησιμοποιούνται για την αποτελεσματική εκπαίδευση των τεχνητών νευρωνικών δικτύων (συντομογραφία ΤΝΔ), ακολουθώντας έναν αλγόριθμο βελτιστοποίησης βασιζόμενο στην κλίση που εκμεταλλεύεται τον κανόνα της αλυσίδας . Το κύριο χαρακτηριστικό της οπισθοδιάδοσης είναι η επαναληπτική, αναδρομική και αποδοτική μέθοδος για τον υπολογισμό των ανανεώσεων των βαρών για τη βελτίωση του δικτύου έως ότου είναι σε θέση να εκτελέσει το έργο για το οποίο εκπαιδεύεται. Είναι στενά συνδεδεμένη με τον αλγόριθμο Gauss-Newton .υνδεδεμένη με τον αλγόριθμο Gauss-Newton . , In machine learning, backpropagation (backIn machine learning, backpropagation (backprop, BP) is a widely used algorithm for training feedforward artificial neural networks. Generalizations of backpropagation exist for other artificial neural networks (ANNs), and for functions generally. These classes of algorithms are all referred to generically as "backpropagation". In fitting a neural network, backpropagation computes the gradient of the loss function with respect to the weights of the network for a single input–output example, and does so efficiently, unlike a naive direct computation of the gradient with respect to each weight individually. This efficiency makes it feasible to use gradient methods for training multilayer networks, updating weights to minimize loss; gradient descent, or variants such as stochastic gradient desr variants such as stochastic gradient des , Algoritme Perambatan Mundur atau backpropaAlgoritme Perambatan Mundur atau backpropagation merupakan algoritme untuk melakukan proses pembelajaran terarah (supervised learning) pada jaringan saraf tiruan (JST) untuk mencari beban (weight) pada setiap neuron yang menghasilkan nilai kesalahan seminimal mungkin melalui data pembelajaran (training data) yang diberikan. Metode ini memanfaatkan teknik optimasi berdasarkan penurunan gradien. Metode ini dilakukan setelah proses perambatan maju yang merambatkan data dari data masukan ke keluaran melalui koleksi neuron dan lapisan JST untuk kemudian dirambatkan balik ke belakang dari lapis keluaran ke lapis masukan untuk menghitung nilai kesalahan pada masing-masing neuron dibandingkan dengan nilai keluaran yang seharusnya (nilai target).i keluaran yang seharusnya (nilai target). , الانتشار الخلفي (Backpropagation) هي إحدى الانتشار الخلفي (Backpropagation) هي إحدى طرق تعليم الشبكات العصبونية التي تؤمن نقل معلومات بالانتشار العكسي للاتجاه الأصلي لقدوم المعلومات. تعتمد هذه الطريقة على مبدأ وتحتاج في مرحلة التدريب إلى بيانات خاصة تتعلم بها الشبكة حيث تقدم لها بيانات دخل (input) مع بيانات الخرج (output) المرغوب فيها ومن ثم تقوم الشبكة بعمل انتشار امامي (feed forward) لبيانات الدخل للحصول على قيمة خرج الشبكة بعدها تقوم بالمقارنة بين الخرج المحسوب والخرج المرغوب فاذا لم تتطابق النتائج تقوم الشبكة بحساب قيمة الفرق بينهما لكل عصبون من طبقة الخرج والذي يمثل قيمة الخطا (error)، بعدها تاتي مرحلة الانتشار الخلفي للأخطاء (backpropagation) حيث تعيد الشبكة حساب قيمة الخطأ في كل عصبون من الشبكات الخفية. في الأخير تأتي مرحلة تحديث قيمة الأوزان(weight update)حيث تقوم الشبكة بإعادة حساب كل الأوزان وتعوضها بالقيم الجديدة المحساب كل الأوزان وتعوضها بالقيم الجديدة المحس , En aprendizaje de máquina, la propagación En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones. ​rtificiales y en general para funciones. ​ , Backpropagation oder auch Backpropagation Backpropagation oder auch Backpropagation of Error bzw. auch Fehlerrückführung (auch Rückpropagierung) ist ein verbreitetes Verfahren für das Einlernen von künstlichen neuronalen Netzen. Es gehört zur Gruppe der überwachten Lernverfahren und wird als Verallgemeinerung der Delta-Regel auf mehrschichtige Netze angewandt. Dazu muss ein externer Lehrer existieren, der zu jedem Zeitpunkt der Eingabe die gewünschte Ausgabe, den Zielwert, kennt.Die Rückwärtspropagierung ist ein Spezialfall eines allgemeinen Gradientenverfahrens in der Optimierung, basierend auf dem mittleren quadratischen Fehler.nd auf dem mittleren quadratischen Fehler. , Метод зворотного поширення помилки (англ. Метод зворотного поширення помилки (англ. backpropagation) — метод навчання багатошарового перцептрону. Це ітеративний градієнтний алгоритм, який використовується з метою мінімізації помилки роботи багатошарового перцептрону та отримання бажаного виходу. Основна ідея цього методу полягає в поширенні сигналів помилки від виходів мережі до її входів, в напрямку, зворотному прямому поширенню сигналів у звичайному режимі роботи. Барц і Охонін запропонували відразу загальний метод («принцип подвійності»), який можна застосувати до ширшого класу систем, включаючи , , тощо .Для можливості застосування методу зворотного поширення помилки функція активації нейронів повинна бути диференційовною.ції нейронів повинна бути диференційовною.
rdfs:label 역전파 , Backpropagation , Метод зворотного поширення помилки , Retropropagació , Propagacja wsteczna , 反向传播算法 , Algoritmus zpětného šíření chyby , Algoritma perambatan mundur , Οπισθοδιάδοση , Метод обратного распространения ошибки , Rétropropagation du gradient , Propagación hacia atrás , Retropropagazione dell'errore , バックプロパゲーション , انتشار خلفي
rdfs:seeAlso http://dbpedia.org/resource/Perceptron +
hide properties that link here 
http://dbpedia.org/resource/Paul_Werbos + , http://dbpedia.org/resource/Geoffrey_Hinton + , http://dbpedia.org/resource/David_Rumelhart + http://dbpedia.org/ontology/knownFor
http://dbpedia.org/resource/Back-propagation + , http://dbpedia.org/resource/BP_algorithm + , http://dbpedia.org/resource/Back-Propagation + , http://dbpedia.org/resource/Back_prop + , http://dbpedia.org/resource/Backprop + , http://dbpedia.org/resource/Backpropogation + , http://dbpedia.org/resource/Error_back-propagation + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Dimensionality_reduction + , http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Meta-learning_%28computer_science%29 + , http://dbpedia.org/resource/Holographic_associative_memory + , http://dbpedia.org/resource/Neural_backpropagation + , http://dbpedia.org/resource/Synaptic_weight + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Hybrid_Kohonen_self-organizing_map + , http://dbpedia.org/resource/Seppo_Linnainmaa + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/History_of_artificial_intelligence + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Joseph_Sgro + , http://dbpedia.org/resource/Recurrent_neural_network + , http://dbpedia.org/resource/AI_winter + , http://dbpedia.org/resource/Stock_market_prediction + , http://dbpedia.org/resource/Residual_neural_network + , http://dbpedia.org/resource/Prefrontal_cortex_basal_ganglia_working_memory + , http://dbpedia.org/resource/Metadynamics + , http://dbpedia.org/resource/Neural_network_quantum_states + , http://dbpedia.org/resource/David_Spivak + , http://dbpedia.org/resource/Generalized_Hebbian_algorithm + , http://dbpedia.org/resource/Restricted_Boltzmann_machine + , http://dbpedia.org/resource/History_of_artificial_neural_networks + , http://dbpedia.org/resource/Land_cover_maps + , http://dbpedia.org/resource/Fault_detection_and_isolation + , http://dbpedia.org/resource/Spin_glass + , http://dbpedia.org/resource/DeepDream + , http://dbpedia.org/resource/Catastrophic_interference + , http://dbpedia.org/resource/Fast_Artificial_Neural_Network + , http://dbpedia.org/resource/Neurogammon + , http://dbpedia.org/resource/Bernard_Widrow + , http://dbpedia.org/resource/Alex_Waibel + , http://dbpedia.org/resource/Neural_cryptography + , http://dbpedia.org/resource/ADALINE + , http://dbpedia.org/resource/Multilayer_perceptron + , http://dbpedia.org/resource/Encog + , http://dbpedia.org/resource/Learning_rule + , http://dbpedia.org/resource/List_of_algorithms + , http://dbpedia.org/resource/Radial_basis_function_network + , http://dbpedia.org/resource/ALOPEX + , http://dbpedia.org/resource/Perceptron + , http://dbpedia.org/resource/Q-learning + , http://dbpedia.org/resource/Self-organizing_map + , http://dbpedia.org/resource/GPT-2 + , http://dbpedia.org/resource/Paul_Werbos + , http://dbpedia.org/resource/Stuart_Dreyfus + , http://dbpedia.org/resource/Time_delay_neural_network + , http://dbpedia.org/resource/Back-propagation + , http://dbpedia.org/resource/Torch_%28machine_learning%29 + , http://dbpedia.org/resource/JOONE + , http://dbpedia.org/resource/Neuroph + , http://dbpedia.org/resource/First_break_picking + , http://dbpedia.org/resource/Nonlinear_dimensionality_reduction + , http://dbpedia.org/resource/Visual_temporal_attention + , http://dbpedia.org/resource/Timeline_of_machine_learning + , http://dbpedia.org/resource/Quickprop + , http://dbpedia.org/resource/Helmholtz_machine + , http://dbpedia.org/resource/PAQ + , http://dbpedia.org/resource/Quantum_neural_network + , http://dbpedia.org/resource/Backpropagation_through_time + , http://dbpedia.org/resource/Rprop + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/List_of_University_of_Toronto_faculty + , http://dbpedia.org/resource/General_regression_neural_network + , http://dbpedia.org/resource/Extreme_learning_machine + , http://dbpedia.org/resource/Spiking_neural_network + , http://dbpedia.org/resource/MRI_artifact + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Neuroevolution + , http://dbpedia.org/resource/Adjoint_state_method + , http://dbpedia.org/resource/Timeline_of_artificial_intelligence + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Rumelhart_Prize + , http://dbpedia.org/resource/Neural_style_transfer + , http://dbpedia.org/resource/Graph_neural_network + , http://dbpedia.org/resource/Vanishing_gradient_problem + , http://dbpedia.org/resource/Online_machine_learning + , http://dbpedia.org/resource/Unsupervised_learning + , http://dbpedia.org/resource/Supervised_learning + , http://dbpedia.org/resource/Stylometry + , http://dbpedia.org/resource/Automatic_differentiation + , http://dbpedia.org/resource/Geoffrey_Hinton + , http://dbpedia.org/resource/Models_of_neural_computation + , http://dbpedia.org/resource/Code_stylometry + , http://dbpedia.org/resource/Contrastive_Hebbian_learning + , http://dbpedia.org/resource/Henry_J._Kelley + , http://dbpedia.org/resource/Variational_autoencoder + , http://dbpedia.org/resource/Mitchell%2C_South_Dakota + , http://dbpedia.org/resource/Multi-surface_method + , http://dbpedia.org/resource/Logistic_regression + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Diagonal_matrix + , http://dbpedia.org/resource/Linear_classifier + , http://dbpedia.org/resource/Artificial_neuron + , http://dbpedia.org/resource/Brain.js + , http://dbpedia.org/resource/Delta_rule + , http://dbpedia.org/resource/Learning_rate + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/Stochastic_gradient_descent + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Outline_of_artificial_intelligence + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Apical_dendrite + , http://dbpedia.org/resource/Autoencoder + , http://dbpedia.org/resource/Capsule_neural_network + , http://dbpedia.org/resource/Natural_computing + , http://dbpedia.org/resource/J%C3%BCrgen_Schmidhuber + , http://dbpedia.org/resource/AlexNet + , http://dbpedia.org/resource/Neural_network + , http://dbpedia.org/resource/Swish_function + , http://dbpedia.org/resource/Softmax_function + , http://dbpedia.org/resource/TensorFlow + , http://dbpedia.org/resource/Gekko_%28optimization_software%29 + , http://dbpedia.org/resource/Decision_boundary + , http://dbpedia.org/resource/John_K._Kruschke + , http://dbpedia.org/resource/Connectionism + , http://dbpedia.org/resource/Eta + , http://dbpedia.org/resource/David_Rumelhart + , http://dbpedia.org/resource/Symbolic_artificial_intelligence + , http://dbpedia.org/resource/Ronald_J._Williams + , http://dbpedia.org/resource/LeNet + , http://dbpedia.org/resource/BP_algorithm + , http://dbpedia.org/resource/Back-Propagation + , http://dbpedia.org/resource/Back_prop + , http://dbpedia.org/resource/Backprop + , http://dbpedia.org/resource/Backpropogation + , http://dbpedia.org/resource/Error_back-propagation + , http://dbpedia.org/resource/Arthur_E._Bryson + , http://dbpedia.org/resource/Boltzmann_machine + , http://dbpedia.org/resource/Kunihiko_Fukushima + , http://dbpedia.org/resource/Elastic_map + , http://dbpedia.org/resource/Almeida%E2%80%93Pineda_recurrent_backpropagation + , http://dbpedia.org/resource/Back_propagation + http://dbpedia.org/ontology/wikiPageWikiLink
http://dbpedia.org/resource/Paul_Werbos + http://dbpedia.org/property/knownFor
http://en.wikipedia.org/wiki/Backpropagation + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Backward_induction + owl:differentFrom
http://dbpedia.org/resource/Backpropagation + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.