Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Activation function
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Activation_function
http://dbpedia.org/ontology/abstract En redes computacionales, la función de acEn redes computacionales, la función de activación de un nodo define la salida de un nodo dada una entrada o un conjunto de entradas. Se podría decir que un circuito estándar de computador se comporta como una red digital de funciones de activación al activarse como "ON" (1) u "OFF" (0), dependiendo de la entrada. Esto es similar al funcionamiento de un perceptrón en una red neuronal artificial.perceptrón en una red neuronal artificial. , A les xarxes neuronals artificials, la funA les xarxes neuronals artificials, la funció d'activació d'un node defineix la sortida d'aquest node donada una entrada o un conjunt d'entrades. Un circuit integrat estàndard es pot veure com una xarxa digital de funcions d'activació que pot ser "ON" (1) o "OFF" (0), segons l'entrada. Això és similar al perceptró lineal de les xarxes neuronals . Tanmateix, només les funcions d'activació no lineals permeten que aquestes xarxes calculin problemes no trivials utilitzant només un nombre reduït de nodes, i aquestes funcions d'activació s'anomenen no linealitats . Les funcions d'activació més habituals es poden dividir en tres categories: funcions de de . La taula següent compara les propietats de diverses funcions d'activació més usuals :diverses funcions d'activació més usuals : , In artificial neural networks, the activatIn artificial neural networks, the activation function of a node defines the output of that node given an input or set of inputs. A standard integrated circuit can be seen as a digital network of activation functions that can be "ON" (1) or "OFF" (0), depending on input. This is similar to the linear perceptron in neural networks. However, only nonlinear activation functions allow such networks to compute nontrivial problems using only a small number of nodes, and such activation functions are called nonlinearities.ation functions are called nonlinearities. , Dans le domaine des réseaux de neurones arDans le domaine des réseaux de neurones artificiels, la fonction d'activation est une fonction mathématique appliquée à un signal en sortie d'un neurone artificiel. Le terme de "fonction d'activation" vient de l'équivalent biologique "potentiel d'activation", seuil de stimulation qui, une fois atteint entraîne une réponse du neurone. La fonction d'activation est souvent une fonction non linéaire. Un exemple de fonction d'activation est la fonction de Heaviside, qui renvoie tout le temps 1 si le signal en entrée est positif, ou 0 s'il est négatif.entrée est positif, ou 0 s'il est négatif. , 활성함수(活性函數, 영어: activation function)는 인공 신경망에서 입력을 변환하는 함수이다. ReLU, 시그모이드 함수, 쌍곡탄젠트 함수 등이 대표적인 활성함수이다. , 在计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到开(1)或关(0)输出的數位電路激活函数。这与神经网络中的线性感知机的行为类似。然而,只有非線性激活函数才允許這種網絡僅使用少量節點來計算非平凡問題。 在人工神經網絡中,這個功能也被稱為傳遞函數。 , В искусственных нейронных сетях функция акВ искусственных нейронных сетях функция активации нейрона определяет выходной сигнал, который определяется входным сигналом или набором входных сигналов. Стандартная компьютерная микросхема может рассматриваться как цифровая сеть функций активации, которые могут принимать значения «ON» (1) или «OFF» (0) в зависимости от входа. Это похоже на поведение линейного перцептрона в нейронных сетях. Однако только нелинейные функции активации позволяют таким сетям решать нетривиальные задачи с использованием малого числа узлов. В искусственных нейронных сетях эта функция также называется передаточной функцией.ия также называется передаточной функцией. , 活性化関数(かっせいかかんすう、英: activation function)もしくは伝達関数(でんたつかんすう、英: transfer function)とは、ニューラルネットワークのニューロンにおける、入力のなんらかの合計(しばしば、線形な重み付け総和)から、出力を決定するための関数で、非線形な関数とすることが多い。 , Funkcja aktywacji – pojęcie używane w sztuFunkcja aktywacji – pojęcie używane w sztucznej inteligencji do określenia funkcji, według której obliczana jest wartość wyjścia neuronów sieci neuronowej. Po agregacji danych wejściowych z uwzględnieniem wag powstaje sygnał sumarycznego pobudzenia. Rola funkcji aktywacji polega na tym, że musi ona określić sposób obliczania wartości sygnału wyjściowego neuronu na podstawie wartości tego sumarycznegopobudzenia. W literaturze rozważano wiele różnych propozycji funkcji aktywacji, jednak do powszechnego użytku weszły właściwie cztery z nich: funkcja liniowa (neuron liniowy), funkcja sigmoidalna (neuron sigmoidalny), funkcja tangensoidalna (dokładnie jest to funkcja tangens hiperboliczny, ale skrótowo mówi się właśnie neuron tangensoidalny) oraz funkcja Gaussa (neuron radialny). Do najczęściej używanych funkcji aktywacji należą:ęściej używanych funkcji aktywacji należą: , تابع التفعيل (بالإنجليزية: Activation function)‏ في الشبكة العصبية الاصطناعية،هو تابع رياضي يٌعين النتيجة تبعا للمعطيات بحيث تصبح النتيجة مُعطى للنقطة الموالية وهكذا حتى بلوغ الحل المطلوب للمسألة الأصلية. * , Функція активації, або передавальна функціФункція активації, або передавальна функція (англ. activation function, також excitation function, squashing function, transfer function) штучного нейрона — залежність вихідного сигналу штучного нейрона від вхідного. Зазвичай передавальна функція відображає дійсні числа на інтервал або . Більшість видів нейронних мереж для функції активації використовують сигмоїди. ADALINE і самоорганізаційні карти використовують лінійні функції активації, а радіально базисні мережі використовують радіальні базисні функції. Математично доведено, що тришаровий перцептрон з використанням сигмоїдної функції активації може апроксимувати будь-яку неперервну функцію з довільною точністю (Теорема Цибенка). Метод зворотного поширення помилки вимагає, щоб функція активації була неперервною, нелінійною, монотонно зростаючою, і диференційовною. В задачі класифікації нейрони останнього шару зазвичай використовують softmax як функцію активації. У хемометриці — функція, яка використовується в методі нейронної сітки для перетворення у вузлах вхідних даних з будь-якої області значень (зокрема неперервних) у чітко окреслений ряд значень (напр., в 0 чи 1). окреслений ряд значень (напр., в 0 чи 1).
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Logistic-curve.svg?width=300 +
http://dbpedia.org/ontology/wikiPageID 14179835
http://dbpedia.org/ontology/wikiPageLength 18510
http://dbpedia.org/ontology/wikiPageRevisionID 1122045601
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Autoencoder + , http://dbpedia.org/resource/Neural_networks + , http://dbpedia.org/resource/Polyharmonic_spline + , http://dbpedia.org/resource/Integrated_circuit + , http://dbpedia.org/resource/AlexNet + , http://dbpedia.org/resource/Neuron + , http://dbpedia.org/resource/Radial_function + , http://dbpedia.org/resource/Action_potential + , http://dbpedia.org/resource/Fold_function + , http://dbpedia.org/resource/Stability_%28learning_theory%29 + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/ReLU + , http://dbpedia.org/resource/File:Logistic-curve.svg + , http://dbpedia.org/resource/Category:Artificial_neural_networks + , http://dbpedia.org/resource/Radial_basis_function_network + , http://dbpedia.org/resource/Gaussian_function + , http://dbpedia.org/resource/Kronecker_delta + , http://dbpedia.org/resource/Fold_%28higher-order_function%29 + , http://dbpedia.org/resource/Slope + , http://dbpedia.org/resource/Ridge_function + , http://dbpedia.org/resource/Linear + , http://dbpedia.org/resource/Digital_electronics + , http://dbpedia.org/resource/Heaviside_step_function + , http://dbpedia.org/resource/Universal_approximation_theorem + , http://dbpedia.org/resource/Radial_basis_function + , http://dbpedia.org/resource/Interval_%28mathematics%29 + , http://dbpedia.org/resource/Derivative + , http://dbpedia.org/resource/Biological_neural_network + , http://dbpedia.org/resource/Softmax_function + , http://dbpedia.org/resource/Learning_rate + , http://dbpedia.org/resource/Minimum + , http://dbpedia.org/resource/Binary_function + , http://dbpedia.org/resource/Identity_function + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Mean + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/BERT_%28language_model%29 + , http://dbpedia.org/resource/File:Activation_binary_step.svg + , http://dbpedia.org/resource/File:Activation_elu.svg + , http://dbpedia.org/resource/Hyperbolic_function + , http://dbpedia.org/resource/File:Activation_gelu.png + , http://dbpedia.org/resource/File:Activation_identity.svg + , http://dbpedia.org/resource/File:Activation_selu.png + , http://dbpedia.org/resource/Smoothness + , http://dbpedia.org/resource/File:Activation_gaussian.svg + , http://dbpedia.org/resource/File:Activation_prelu.svg + , http://dbpedia.org/resource/File:Activation_rectified_linear.svg + , http://dbpedia.org/resource/File:Activation_tanh.svg + , http://dbpedia.org/resource/File:Activation_logistic.svg + , http://dbpedia.org/resource/Linear_perceptron + , http://dbpedia.org/resource/File:Activation_softplus.svg + , http://dbpedia.org/resource/File:Swish.svg + , http://dbpedia.org/resource/File:ReLU_and_GELU.svg + , http://dbpedia.org/resource/Residual_neural_network + , http://dbpedia.org/resource/Heaviside_function + , http://dbpedia.org/resource/Maximum + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Rectifier_%28neural_networks%29 +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Mvar + , http://dbpedia.org/resource/Template:Machine_learning + , http://dbpedia.org/resource/Template:Zwj + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:Pp + , http://dbpedia.org/resource/Template:Ref + , http://dbpedia.org/resource/Template:Nbsp + , http://dbpedia.org/resource/Template:About + , http://dbpedia.org/resource/Template:Note + , http://dbpedia.org/resource/Template:Main +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Artificial_neural_networks +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Activation_function?oldid=1122045601&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Swish.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_softplus.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_tanh.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_prelu.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_rectified_linear.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_selu.png + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_gaussian.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_gelu.png + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_identity.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_logistic.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_binary_step.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Activation_elu.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/ReLU_and_GELU.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Logistic-curve.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Activation_function +
owl:sameAs http://ko.dbpedia.org/resource/%ED%99%9C%EC%84%B1%ED%99%94_%ED%95%A8%EC%88%98 + , http://pl.dbpedia.org/resource/Funkcja_aktywacji + , http://zh.dbpedia.org/resource/%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0 + , http://ca.dbpedia.org/resource/Funci%C3%B3_d%27activaci%C3%B3 + , https://global.dbpedia.org/id/4KwgB + , http://sr.dbpedia.org/resource/%D0%90%D0%BA%D1%82%D0%B8%D0%B2%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%B0_%D1%84%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%98%D0%B0 + , http://ja.dbpedia.org/resource/%E6%B4%BB%E6%80%A7%E5%8C%96%E9%96%A2%E6%95%B0 + , http://cs.dbpedia.org/resource/Aktiva%C4%8Dn%C3%AD_funkce + , http://vi.dbpedia.org/resource/H%C3%A0m_k%C3%ADch_ho%E1%BA%A1t + , http://rdf.freebase.com/ns/m.03cx1nf + , http://www.wikidata.org/entity/Q4677469 + , http://dbpedia.org/resource/Activation_function + , http://ar.dbpedia.org/resource/%D8%AA%D8%A7%D8%A8%D8%B9_%D8%A7%D9%84%D8%AA%D9%81%D8%B9%D9%8A%D9%84 + , http://es.dbpedia.org/resource/Funci%C3%B3n_de_activaci%C3%B3n + , http://uk.dbpedia.org/resource/%D0%9F%D0%B5%D1%80%D0%B5%D0%B4%D0%B0%D0%B2%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0_%D1%84%D1%83%D0%BD%D0%BA%D1%86%D1%96%D1%8F_%D1%88%D1%82%D1%83%D1%87%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%B0 + , http://fr.dbpedia.org/resource/Fonction_d%27activation + , http://yago-knowledge.org/resource/Activation_function + , http://ru.dbpedia.org/resource/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%8F_%D0%B0%D0%BA%D1%82%D0%B8%D0%B2%D0%B0%D1%86%D0%B8%D0%B8 +
rdf:type http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/class/yago/WikicatNeuralNetworks + , http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Statement106722453 +
rdfs:comment 在计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到开(1)或关(0)输出的數位電路激活函数。这与神经网络中的线性感知机的行为类似。然而,只有非線性激活函数才允許這種網絡僅使用少量節點來計算非平凡問題。 在人工神經網絡中,這個功能也被稱為傳遞函數。 , В искусственных нейронных сетях функция акВ искусственных нейронных сетях функция активации нейрона определяет выходной сигнал, который определяется входным сигналом или набором входных сигналов. Стандартная компьютерная микросхема может рассматриваться как цифровая сеть функций активации, которые могут принимать значения «ON» (1) или «OFF» (0) в зависимости от входа. Это похоже на поведение линейного перцептрона в нейронных сетях. Однако только нелинейные функции активации позволяют таким сетям решать нетривиальные задачи с использованием малого числа узлов. В искусственных нейронных сетях эта функция также называется передаточной функцией.ия также называется передаточной функцией. , Функція активації, або передавальна функціФункція активації, або передавальна функція (англ. activation function, також excitation function, squashing function, transfer function) штучного нейрона — залежність вихідного сигналу штучного нейрона від вхідного. Зазвичай передавальна функція відображає дійсні числа на інтервал або . Більшість видів нейронних мереж для функції активації використовують сигмоїди. ADALINE і самоорганізаційні карти використовують лінійні функції активації, а радіально базисні мережі використовують радіальні базисні функції. використовують радіальні базисні функції. , Dans le domaine des réseaux de neurones arDans le domaine des réseaux de neurones artificiels, la fonction d'activation est une fonction mathématique appliquée à un signal en sortie d'un neurone artificiel. Le terme de "fonction d'activation" vient de l'équivalent biologique "potentiel d'activation", seuil de stimulation qui, une fois atteint entraîne une réponse du neurone. La fonction d'activation est souvent une fonction non linéaire. Un exemple de fonction d'activation est la fonction de Heaviside, qui renvoie tout le temps 1 si le signal en entrée est positif, ou 0 s'il est négatif.entrée est positif, ou 0 s'il est négatif. , 활성함수(活性函數, 영어: activation function)는 인공 신경망에서 입력을 변환하는 함수이다. ReLU, 시그모이드 함수, 쌍곡탄젠트 함수 등이 대표적인 활성함수이다. , تابع التفعيل (بالإنجليزية: Activation function)‏ في الشبكة العصبية الاصطناعية،هو تابع رياضي يٌعين النتيجة تبعا للمعطيات بحيث تصبح النتيجة مُعطى للنقطة الموالية وهكذا حتى بلوغ الحل المطلوب للمسألة الأصلية. * , Funkcja aktywacji – pojęcie używane w sztuFunkcja aktywacji – pojęcie używane w sztucznej inteligencji do określenia funkcji, według której obliczana jest wartość wyjścia neuronów sieci neuronowej. Po agregacji danych wejściowych z uwzględnieniem wag powstaje sygnał sumarycznego pobudzenia. Rola funkcji aktywacji polega na tym, że musi ona określić sposób obliczania wartości sygnału wyjściowego neuronu na podstawie wartości tego sumarycznegopobudzenia. Do najczęściej używanych funkcji aktywacji należą:ęściej używanych funkcji aktywacji należą: , En redes computacionales, la función de acEn redes computacionales, la función de activación de un nodo define la salida de un nodo dada una entrada o un conjunto de entradas. Se podría decir que un circuito estándar de computador se comporta como una red digital de funciones de activación al activarse como "ON" (1) u "OFF" (0), dependiendo de la entrada. Esto es similar al funcionamiento de un perceptrón en una red neuronal artificial.perceptrón en una red neuronal artificial. , 活性化関数(かっせいかかんすう、英: activation function)もしくは伝達関数(でんたつかんすう、英: transfer function)とは、ニューラルネットワークのニューロンにおける、入力のなんらかの合計(しばしば、線形な重み付け総和)から、出力を決定するための関数で、非線形な関数とすることが多い。 , In artificial neural networks, the activatIn artificial neural networks, the activation function of a node defines the output of that node given an input or set of inputs. A standard integrated circuit can be seen as a digital network of activation functions that can be "ON" (1) or "OFF" (0), depending on input. This is similar to the linear perceptron in neural networks. However, only nonlinear activation functions allow such networks to compute nontrivial problems using only a small number of nodes, and such activation functions are called nonlinearities.ation functions are called nonlinearities.
rdfs:label 활성화 함수 , 活性化関数 , Activation function , Funció d'activació , Передавальна функція штучного нейрона , Функция активации , Fonction d'activation , Función de activación , تابع التفعيل , 激活函数 , Funkcja aktywacji , Aktivační funkce
hide properties that link here 
http://dbpedia.org/resource/Paraconsistent_logic + , http://dbpedia.org/resource/Modern_Hopfield_network + , http://dbpedia.org/resource/Computational_neurogenetic_modeling + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/George_Cybenko + , http://dbpedia.org/resource/Recurrent_neural_network + , http://dbpedia.org/resource/Neural_tangent_kernel + , http://dbpedia.org/resource/Residual_neural_network + , http://dbpedia.org/resource/Gelu + , http://dbpedia.org/resource/Tensor_Processing_Unit + , http://dbpedia.org/resource/Fast_Artificial_Neural_Network + , http://dbpedia.org/resource/Multilayer_perceptron + , http://dbpedia.org/resource/Radial_basis_function_network + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Ramp_function + , http://dbpedia.org/resource/Rectifier_%28neural_networks%29 + , http://dbpedia.org/resource/Ridge_function + , http://dbpedia.org/resource/Soboleva_modified_hyperbolic_tangent + , http://dbpedia.org/resource/Oja%27s_rule + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Mathematics_of_artificial_neural_networks + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Graph_neural_network + , http://dbpedia.org/resource/Vanishing_gradient_problem + , http://dbpedia.org/resource/Batch_normalization + , http://dbpedia.org/resource/Hyper_basis_function_network + , http://dbpedia.org/resource/Lenia + , http://dbpedia.org/resource/Gated_recurrent_unit + , http://dbpedia.org/resource/Artificial_neuron + , http://dbpedia.org/resource/Biological_neuron_model + , http://dbpedia.org/resource/Delta_rule + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/Keras + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Autoencoder + , http://dbpedia.org/resource/Long_short-term_memory + , http://dbpedia.org/resource/Swish_function + , http://dbpedia.org/resource/Gudermannian_function + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Softmax_function + , http://dbpedia.org/resource/TensorFlow + , http://dbpedia.org/resource/Evaluation_function + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Activation_function + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Activation_function + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.