Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Delta rule
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Delta_rule
http://dbpedia.org/ontology/abstract In machine learning, the delta rule is a gIn machine learning, the delta rule is a gradient descent learning rule for updating the weights of the inputs to artificial neurons in a single-layer neural network. It is a special case of the more general backpropagation algorithm. For a neuron with activation function , the delta rule for neuron 's th weight is given by , where It holds that and . The delta rule is commonly stated in simplified form for a neuron with a linear activation function as While the delta rule is similar to the perceptron's update rule, the derivation is different. The perceptron uses the Heaviside step function as the activation function , and that means that does not exist at zero, and is equal to zero elsewhere, which makes the direct application of the delta rule impossible. application of the delta rule impossible. , Де́льта-пра́вило — метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Его дальнейшее развитие привело к созданию метода обратного распространения ошибки. , 델타 규칙(delta rule)은 경사 하강법(Gradient Descent델타 규칙(delta rule)은 경사 하강법(Gradient Descent) 학습 방법으로, 싱글 레이어 퍼셉트론에서 인공 뉴런들의 연결강도를 갱신하는데 쓰인다. 뉴런 와 활성함수 에 대하여, 의 번째 연결강도 에 대한 델타 규칙은 다음과 같다. , 여기서 는 학습 속도라고 불리는 작은값의 상수이고, 는 뉴런의 활성함수, 는 원하는 목표 결과값, 는 실제 결과값, 그리고 는 번째 입력값이다. 이것은 다음 식을 만족한다. and . 델타 규칙은 다음과 같은 선형 활성함수를 가진 간단한 형태의 퍼셉트론에서 주로 언급된다.다음과 같은 선형 활성함수를 가진 간단한 형태의 퍼셉트론에서 주로 언급된다. , Дельта-правило — метод навчання перцептрону за принципом градієнтного спуску по поверхні помилки. Дельта-правило розвинулося з першого і другого правил Хебба. Його подальший розвиток привів до створення методу зворотного поширення помилки. , La regola delta (delta rule) è una regola di discesa del gradiente per aggiornare i pesi dei segnali di input che giungono ad un percettrone. Si tratta di un caso particolare del più generale algoritmo di retropropagazione.
http://dbpedia.org/ontology/wikiPageID 1237612
http://dbpedia.org/ontology/wikiPageLength 5506
http://dbpedia.org/ontology/wikiPageRevisionID 1096670353
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Artificial_neurons + , http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Partial_derivative + , http://dbpedia.org/resource/Chain_rule + , http://dbpedia.org/resource/Stochastic_gradient_descent + , http://dbpedia.org/resource/Heaviside_step_function + , http://dbpedia.org/resource/Perceptron + , http://dbpedia.org/resource/Derivative + , http://dbpedia.org/resource/Rescorla%E2%80%93Wagner_model + , http://dbpedia.org/resource/Learning_rate + , http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Backpropagation +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Multiple_issues + , http://dbpedia.org/resource/Template:Confusing + , http://dbpedia.org/resource/Template:Refimprove + , http://dbpedia.org/resource/Template:Reflist +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Artificial_neural_networks +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Delta_rule?oldid=1096670353&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Delta_rule +
owl:sameAs http://dbpedia.org/resource/Delta_rule + , http://www.wikidata.org/entity/Q577075 + , http://sl.dbpedia.org/resource/Pravilo_delta + , http://rdf.freebase.com/ns/m.04l2pf + , http://ru.dbpedia.org/resource/%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE + , https://global.dbpedia.org/id/4m7wt + , http://it.dbpedia.org/resource/Regola_delta + , http://yago-knowledge.org/resource/Delta_rule + , http://uk.dbpedia.org/resource/%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BE + , http://ko.dbpedia.org/resource/%EB%8D%B8%ED%83%80_%EA%B7%9C%EC%B9%99 +
rdf:type http://dbpedia.org/class/yago/Act100030358 + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/Algorithm105847438 + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Procedure101023820 + , http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/Event100029378 + , http://dbpedia.org/class/yago/Activity100407535 + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/Rule105846932 + , http://dbpedia.org/class/yago/YagoPermanentlyLocatedEntity + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/WikicatAlgorithms + , http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 +
rdfs:comment Дельта-правило — метод навчання перцептрону за принципом градієнтного спуску по поверхні помилки. Дельта-правило розвинулося з першого і другого правил Хебба. Його подальший розвиток привів до створення методу зворотного поширення помилки. , 델타 규칙(delta rule)은 경사 하강법(Gradient Descent델타 규칙(delta rule)은 경사 하강법(Gradient Descent) 학습 방법으로, 싱글 레이어 퍼셉트론에서 인공 뉴런들의 연결강도를 갱신하는데 쓰인다. 뉴런 와 활성함수 에 대하여, 의 번째 연결강도 에 대한 델타 규칙은 다음과 같다. , 여기서 는 학습 속도라고 불리는 작은값의 상수이고, 는 뉴런의 활성함수, 는 원하는 목표 결과값, 는 실제 결과값, 그리고 는 번째 입력값이다. 이것은 다음 식을 만족한다. and . 델타 규칙은 다음과 같은 선형 활성함수를 가진 간단한 형태의 퍼셉트론에서 주로 언급된다.다음과 같은 선형 활성함수를 가진 간단한 형태의 퍼셉트론에서 주로 언급된다. , La regola delta (delta rule) è una regola di discesa del gradiente per aggiornare i pesi dei segnali di input che giungono ad un percettrone. Si tratta di un caso particolare del più generale algoritmo di retropropagazione. , Де́льта-пра́вило — метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Его дальнейшее развитие привело к созданию метода обратного распространения ошибки. , In machine learning, the delta rule is a gIn machine learning, the delta rule is a gradient descent learning rule for updating the weights of the inputs to artificial neurons in a single-layer neural network. It is a special case of the more general backpropagation algorithm. For a neuron with activation function , the delta rule for neuron 's th weight is given by , where It holds that and . The delta rule is commonly stated in simplified form for a neuron with a linear activation function aseuron with a linear activation function as
rdfs:label Regola delta , 델타 규칙 , Delta rule , Дельта-правило
hide properties that link here 
http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Perceptron + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Delta_Rule + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Delta_rule + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Delta_rule + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.