Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Quickprop
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Quickprop
http://dbpedia.org/ontology/abstract Quickprop is an iterative method for deterQuickprop is an iterative method for determining the minimum of the loss function of an artificial neural network, following an algorithm inspired by the Newton's method. Sometimes, the algorithm is classified to the group of the second order learning methods. It follows a quadratic approximation of the previous gradient step and the current gradient, which is expected to be close to the minimum of the loss function, under the assumption that the loss function is locally approximately square, trying to describe it by means of an upwardly open parabola. The minimum is sought in the vertex of the parabola. The procedure requires only local information of the artificial neuron to which it is applied.The -th approximation step is given by: Being the neuron weight of its input and is the loss function. The Quickprop algorithm is an implementation of the error backpropagation algorithm, but the network can behave chaotically during the learning phase due to large step sizes.he learning phase due to large step sizes. , Quickprop ist ein iteratives Verfahren zurQuickprop ist ein iteratives Verfahren zur Bestimmung des Minimums der Fehlerfunktion eines künstlichen neuronalen Netzes, das sich an das Newton-Verfahren anlehnt. Der Algorithmus wird manchmal der Gruppe Lernverfahren zweiter Ordnung zugerechnet, da über eine quadratische Approximation aus dem vorhergehenden Gradientenschritt und dem aktuellen Gradienten auf das Minimum der Fehlerfunktion geschlossen wird. Unter der Annahme, dass die Fehlerfunktion lokal näherungsweise quadratisch ist, versucht man sie mit Hilfe einer nach oben geöffneten Parabel zu beschreiben. Das gesuchte Minimum liegt im Scheitel der Parabel.Das Verfahren benötigt ausschließlich lokale Informationen des künstlichen Neurons, auf das es angewendet werden soll. Der k-te Approximationsschritt ist dabei gegeben durch: Dabei ist das Gewicht des Neurons j für den Eingang i und E die Summe der Fehler. Der Quickprop-Algorithmus konvergiert im Allgemeinen schneller als Fehlerrückführung (engl. backpropagation), jedoch kann sich das Netzwerk in der Lernphase aufgrund zu großer Schrittweiten chaotisch verhalten. großer Schrittweiten chaotisch verhalten.
http://dbpedia.org/ontology/wikiPageExternalLink https://www.cs.cmu.edu/afs/cs.cmu.edu/user/sef/www/publications/qp-tr.ps +
http://dbpedia.org/ontology/wikiPageID 41575347
http://dbpedia.org/ontology/wikiPageLength 1821
http://dbpedia.org/ontology/wikiPageRevisionID 1000317609
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Loss_function + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Newton%27s_method + , http://dbpedia.org/resource/Category:Computational_neuroscience + , http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Artificial_neuron + , http://dbpedia.org/resource/Category:Machine_learning_algorithms + , http://dbpedia.org/resource/Parabola + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Gradient +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Reflist +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Machine_learning_algorithms + , http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Category:Computational_neuroscience +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Quickprop?oldid=1000317609&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Quickprop +
owl:sameAs http://dbpedia.org/resource/Quickprop + , http://www.wikidata.org/entity/Q1326757 + , http://yago-knowledge.org/resource/Quickprop + , http://de.dbpedia.org/resource/Quickprop + , http://rdf.freebase.com/ns/m.0_1k3tx + , https://global.dbpedia.org/id/MVJ4 + , http://fa.dbpedia.org/resource/%DA%A9%D9%88%DB%8C%DB%8C%DA%A9_%D9%BE%D8%B1%D8%A7%D9%BE +
rdf:type http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/Specification106725067 +
rdfs:comment Quickprop ist ein iteratives Verfahren zurQuickprop ist ein iteratives Verfahren zur Bestimmung des Minimums der Fehlerfunktion eines künstlichen neuronalen Netzes, das sich an das Newton-Verfahren anlehnt. Der Algorithmus wird manchmal der Gruppe Lernverfahren zweiter Ordnung zugerechnet, da über eine quadratische Approximation aus dem vorhergehenden Gradientenschritt und dem aktuellen Gradienten auf das Minimum der Fehlerfunktion geschlossen wird. Unter der Annahme, dass die Fehlerfunktion lokal näherungsweise quadratisch ist, versucht man sie mit Hilfe einer nach oben geöffneten Parabel zu beschreiben. Das gesuchte Minimum liegt im Scheitel der Parabel.Das Verfahren benötigt ausschließlich lokale Informationen des künstlichen Neurons, auf das es angewendet werden soll.eurons, auf das es angewendet werden soll. , Quickprop is an iterative method for deterQuickprop is an iterative method for determining the minimum of the loss function of an artificial neural network, following an algorithm inspired by the Newton's method. Sometimes, the algorithm is classified to the group of the second order learning methods. It follows a quadratic approximation of the previous gradient step and the current gradient, which is expected to be close to the minimum of the loss function, under the assumption that the loss function is locally approximately square, trying to describe it by means of an upwardly open parabola. The minimum is sought in the vertex of the parabola. The procedure requires only local information of the artificial neuron to which it is applied.The -th approximation step is given by:ed.The -th approximation step is given by:
rdfs:label Quickprop
hide properties that link here 
http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Outline_of_machine_learning + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Quickprop + http://xmlns.com/foaf/0.1/primaryTopic
 

 

Enter the name of the page to start semantic browsing from.