Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Recurrent neural network
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Recurrent_neural_network
http://dbpedia.org/ontology/abstract Rekurencyjna sieć neuronowa – struktura neRekurencyjna sieć neuronowa – struktura neuronalna, w której sygnał otrzymany na wyjściu sieci trafia powtórnie na jej wejście (taki obieg sygnału zwany jest sprzężeniem zwrotnym). Jednorazowe pobudzenie struktury ze sprzężeniem zwrotnym może generować całą sekwencję nowych zjawisk i sygnałów, ponieważ sygnały z wyjścia sieci trafiają ponownie na jej wejścia, generując nowe sygnały aż do ustabilizowania się sygnałów wyjściowych. Takiemu przebiegowi sygnałów wyjściowych wszystkich neuronów, powstającemu w sieci spontanicznie i nie poddającemu się żadnej kontroli, towarzyszą często oscylacje, gwałtowne narastanie sygnałów (wręcz do nieskończoności) lub ich bezsensowne wygaszanie aż do całkowitego wyzerowania całej sieci. Szczególnie skomplikowane są procesy powstawania i rozwoju chaosu, z którymi w takiej sieci też często miewamy do czynienia.iej sieci też często miewamy do czynienia. , 순환 신경망(Recurrent neural network, RNN)은 인공 순환 신경망(Recurrent neural network, RNN)은 인공 신경망의 한 종류로, 유닛간의 연결이 순환적 구조를 갖는 특징을 갖고 있다. 이러한 구조는 시변적 동적 특징을 모델링 할 수 있도록 신경망 내부에 상태를 저장할 수 있게 해주므로, 순방향 신경망과 달리 내부의 메모리를 이용해 시퀀스 형태의 입력을 처리할 수 있다. 따라서 순환 인공 신경망은 필기 인식이나 음성 인식과 같이 시변적 특징을 지니는 데이터를 처리하는데 적용할 수 있다. 순환 신경망이라는 이름은 입력받는 신호의 길이가 한정되지 않은 동적 데이터를 처리한다는 점에서 붙여진 이름으로, 구조와 구조를 모두 일컫는다. 유한 임펄스 순환 신경망은 유향 비순환 그래프이므로 적절하게 풀어서 재구성한다면 순방향 신경망으로도 표현할 수 있지만, 무한 임펄스 순환 신경망은 유향 그래프이므로 순방향 신경망으로 표현하는 것이 불가능하다. 순환 신경망은 추가적인 저장공간을 가질 수 있다. 이 저장공간이 그래프의 형태를 가짐으로써 시간 지연의 기능을 하거나 피드백 루프를 가질 수도 있다. 이와 같은 저장공간을 게이트된 상태(gated state) 또는 게이트된 메모리(gated memory)라고 하며, LSTM과 게이트 순환 유닛(GRU)이 이를 응용하는 대표적인 예시이다., LSTM과 게이트 순환 유닛(GRU)이 이를 응용하는 대표적인 예시이다. , 循环神经网络(Recurrent neural network:RNN)是神經網絡的一種。单纯的RNN因为无法处理随着递归,权重指数级爆炸或梯度消失问题,难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。 时间循环神经网络可以描述动态时间行为,因为和前馈神经网络(feedforward neural network)接受较特定结构的输入不同,RNN将状态在自身网络中循环传递,因此可以接受更广泛的时间序列结构输入。手写识别是最早成功利用RNN的研究结果。 , Un réseau de neurones récurrents est un réUn réseau de neurones récurrents est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées. Les réseaux de neurones récurrents sont adaptés pour des données d'entrée de taille variable. Ils conviennent en particulier pour l'analyse de séries temporelles. Ils sont utilisés en reconnaissance automatique de la parole ou de l'écriture manuscrite - plus généralement en reconnaissance de formes - ou encore en traduction automatique. « Dépliés », ils sont comparables à des réseaux de neurones classiques avec des contraintes d'égalité entre les poids du réseau (voir schéma à droite). Les techniques d'entraînement du réseau sont les mêmes que pour les réseaux classiques (rétropropagation du gradient), néanmoins les réseaux de neurones récurrents se heurtent au problème de disparition du gradient pour apprendre à mémoriser des évènements passés. Des architectures particulières répondent à ce dernier problème, on peut citer en particulier les réseaux Long short-term memory. On peut étudier les comportements des réseaux de neurones récurrents avec la théorie des bifurcations, mais la complexité de cette étude augmente très rapidement avec le nombre de neurones.rès rapidement avec le nombre de neurones. , Una rete neurale ricorrente o RNN (recurreUna rete neurale ricorrente o RNN (recurrent neural network) è una classe di rete neurale artificiale che include neuroni collegati tra loro in un ciclo. Tipicamente i valori di uscita di uno strato di un livello superiore sono utilizzati in ingresso di uno strato di livello inferiore. Quest'interconnessione tra strati permette l'utilizzo di uno degli strati come memoria di stato, e consente, fornendo in ingresso una di valori, di modellarne un comportamento dinamico temporale dipendente dalle informazioni ricevute agli istanti di tempo precedenti. In altri casi lo strato è costituito da un insieme di neuroni dotato di loop di connessioni molto sparse che innesca una dinamica caotica, impiegata per l'addestramento di una parte successiva della rete, come avviene per le echo state network (adottate nell'ambito del reservoir computing). Ciò le rende applicabili a compiti di analisi predittiva su sequenze di dati, quali possono essere ad esempio il o il riconoscimento vocale. ad esempio il o il riconoscimento vocale. , A recurrent neural network (RNN) is a clasA recurrent neural network (RNN) is a class of artificial neural networks where connections between nodes can create a cycle, allowing output from some nodes to affect subsequent input to the same nodes. This allows it to exhibit temporal dynamic behavior. Derived from feedforward neural networks, RNNs can use their internal state (memory) to process variable length sequences of inputs. This makes them applicable to tasks such as unsegmented, connected handwriting recognition or speech recognition. Recurrent neural networks are theoretically Turing complete and can run arbitrary programs to process arbitrary sequences of inputs. The term "recurrent neural network" is used to refer to the class of networks with an infinite impulse response, whereas "convolutional neural network" refers to the class of finite impulse response. Both classes of networks exhibit temporal dynamic behavior. A finite impulse recurrent network is a directed acyclic graph that can be unrolled and replaced with a strictly feedforward neural network, while an infinite impulse recurrent network is a directed cyclic graph that can not be unrolled. Both finite impulse and infinite impulse recurrent networks can have additional stored states, and the storage can be under direct control by the neural network. The storage can also be replaced by another network or graph if that incorporates time delays or has feedback loops. Such controlled states are referred to as gated state or gated memory, and are part of long short-term memory networks (LSTMs) and gated recurrent units. This is also called Feedback Neural Network (FNN).also called Feedback Neural Network (FNN). , Рекуррентные нейронные сети (РНС, англ. ReРекуррентные нейронные сети (РНС, англ. Recurrent neural network; RNN) — вид нейронных сетей, где связи между элементами образуют направленную последовательность. Благодаря этому появляется возможность обрабатывать серии событий во времени или последовательные пространственные цепочки. В отличие от многослойных перцептронов, рекуррентные сети могут использовать свою внутреннюю память для обработки последовательностей произвольной длины. Поэтому сети RNN применимы в таких задачах, где нечто целостное разбито на части, например: распознавание рукописного текста или распознавание речи. Было предложено много различных архитектурных решений для рекуррентных сетей от простых до сложных. В последнее время наибольшее распространение получили сеть с долговременной и кратковременной памятью (LSTM) и управляемый рекуррентный блок (GRU).TM) и управляемый рекуррентный блок (GRU). , Als rekurrente bzw. rückgekoppelte neuronaAls rekurrente bzw. rückgekoppelte neuronale Netze bezeichnet man neuronale Netze, die sich im Gegensatz zu den Feedforward-Netzen durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht auszeichnen. Im Gehirn ist dies die bevorzugte Verschaltungsweise neuronaler Netze, insbesondere im Neocortex. In künstlichen neuronalen Netzen wird die rekurrente Verschaltung von Modellneuronen benutzt, um zeitlich codierte Informationen in den Daten zu entdecken. Beispiele für solche rekurrenten neuronalen Netze sind das Elman-Netz, das Jordan-Netz, das Hopfield-Netz sowie das vollständig verschaltete neuronale Netz. Rekurrente Netze lassen sich folgendermaßen unterteilen: * Bei einer direkten Rückkopplung (englisch direct feedback) wird der eigene Ausgang eines Neurons als weiterer Eingang genutzt. * Die indirekte Rückkopplung (englisch indirect feedback) verbindet den Ausgang eines Neurons mit einem Neuron der vorhergehenden Schichten. * Die seitliche Rückkopplung (englisch lateral feedback) verbindet den Ausgang eines Neurons mit einem anderen Neuron derselben Schicht. * Bei einer vollständigen Verbindung hat jeder Neuronenausgang eine Verbindung zu jedem anderen Neuron. Praktische Anwendung finden rekurrente neuronale Netze bei Problemstellungen, die das Verarbeiten von Sequenzen erfordern. Beispiele dafür sind Handschrifterkennung, Spracherkennung und Maschinenübersetzung. Die hierbei vorherrschende Art der rekurrenten neuronalen Netze sind LSTMs beziehungsweise ähnliche Varianten, die auf einer direkten Rückkopplung basieren. Die Implementierung von Rekurrenten neuronalen Netzen kann in gängigen Programmbibliotheken wie PyTorch bequem in Python erfolgen und dann mit Just-in-time-Kompilierung in effizienten Code übersetzt werden.rung in effizienten Code übersetzt werden. , Red Neuronal Recurrente (RNN): La estructuRed Neuronal Recurrente (RNN): La estructura de una red neuronal artificial es relativamente simple y se refiere principalmente a la multiplicación de matrices. Durante el primer paso, las entradas se multiplican por pesos inicialmente aleatorios, y sesgo, transformados con una función de activación y los valores de salida se utilizan para hacer una predicción. Este paso da una idea de lo lejos que está la red de la realidad. El entrenamiento de una red neuronal recurrente debe prolongarse para cada paso temporal, lo que es muy costoso en tiempo de proceso y memoria RAM. Esto se simplifica “desenrollando” la red en tantas capas como pasos temporales o de datos se dispone en la secuencia temporal de entrenamiento, como si fuese una red no recurrente (feed-forward). Cada capa desenrollada tiene los mismos pesos para acelerar el proceso. Como cuanto más larga sea la secuencia temporal a analizar, mayor será el número de capas debe desenrollar, puede aparecer el problema de desvanecimiento de gradiente (vanishing gradient). Esto se soluciona incorporando capas de tipo LSTM o GRU que permiten el backpropagation through time conectando eventos que aparezcan muy alejados en los datos de entrada, sin que su peso se diluye entre las capas.sin que su peso se diluye entre las capas. , Neurona-sare errepikakorra (ingelesez, RNNNeurona-sare errepikakorra (ingelesez, RNN - Recurrent Neural Network) neurona-sare artifizial klase bat da, non nodoen arteko konexioak grafo zuzendua osatzen duen denbora-sekuentzia batean. Honek denbora portaera dinamikoa erakusteko aukera ematen du. Aurrerantz elikatzen diren neurona-sareak ez bezala, RNNek bere barne egoera (memoria) erabil dezakete sarreren segidak prozesatzeko. Horrek aplikagarriak egiten ditu ataza desberdinetara, adibidez eskuzko idazkera-errekonozimendua edo ahotsaren ezagutza. "Neurona-sare errepikakor" terminoa egitura orokor antzekoa duten bi sare motari buruz hitz egiteko erabiltzen da: bultzada finitua eta bultzada infinitua dutenak. Bi sare motek denbora-portaera dinamikoa dute. Bultzada finitua duen sare errepikakorra hedatu daitekeen grafo ez-zikliko zuzendua da, aurrerantz elikatzen den neurona-sare baten bidez ordezkatu daitekeena; berriz, bultzada finitukoa hedatu ezin den grafo zikliko zuzendua da.hedatu ezin den grafo zikliko zuzendua da. , الشبكات العصبية المتكررة أو شبكات ردود الفالشبكات العصبية المتكررة أو شبكات ردود الفعل العصبية (بالإنكليزية: Recurrent neural network) التي هي على النقيض من شبكات feedforward، وأهم ما تتميزبه هو أن الاتصالات بين الخلايا العصبية تكون في طبقة واحدة والخلايا العصبية في نفس أو الطبقة السابقة. في الدماغ ، هذه هي الطريقة الأفضل لربط الشبكات العصبية ، خاصة في القشرة المخية الحديثة . في الشبكات العصبية الاصطناعية ، يتم استخدام الترابط المتكرر للخلايا العصبية النموذجية لاكتشاف المعلومات ذات الترميز الزمني في البيانات. ومن الأمثلة على هذه الشبكات العصبية المتكررة Hopfield العصبية المترابطة تمامًا. يمكن تقسيم الشبكات المتكررة على النحو التالي: * مع ردود فعل مباشرة (بالإنجليزية: direct feedback)‏ يتم استخدام الإخراج الخاص من الخلايا العصبية كمدخل إضافي. * ردود الفعل غير المباشرة (بالإنجليزية: indirect feedback)‏ يربط إخراج الخلايا العصبية مع الخلايا العصبية من الطبقات السابقة. * ردود الفعل الجانبية (بالإنجليزية: lateral feedback)‏ يربط ناتج الخلايا العصبية بخلايا عصبية أخرى في نفس الطبقة. * من خلال الاتصال الكامل ، يكون لكل ناتج من الخلايا العصبية اتصال مع كل خلية عصبية أخرى. تُستخدم الشبكات العصبية المتكررة في الممارسة العملية للمشكلات التي تتطلب معالجة التسلسلات. تشمل الأمثلة التعرف على خط اليد والتعرف على الكلام والترجمة الآلية . النوع السائد من الشبكات العصبية المتكررة هنا هو أو المتغيرات المماثلة التي تعتمد على التغذية الراجعة المباشرة. يمكن برمجة وتنفيذ الشبكات العصبية المتكررة في مكتبات البرامج الشائعة مثل PyTorch بسهولة في Python ثم ترجمتها إلى كود فعال باستخدام التجميع في الوقت المناسب.ود فعال باستخدام التجميع في الوقت المناسب. , Una xarxa neuronal recurrent (acrònim anglUna xarxa neuronal recurrent (acrònim anglès RNN de recurrent neuronal network), és una classe de circuit neuronal artificial on les connexions entre els estats presenten un o més cicles recurrents (vegeu Fig.1 i 2). Altrament les xarxes neuronals directes no tenen cicles. Aquests cicles de realimentació es poden considerar com a memòries internes del sistema.derar com a memòries internes del sistema. , Рекуре́нтні нейро́нні мере́жі (РНМ, англ. Рекуре́нтні нейро́нні мере́жі (РНМ, англ. recurrent neural networks, RNN) — це клас штучних нейронних мереж, у якому з'єднання між вузлами утворюють граф орієнтований у часі. Це створює внутрішній стан мережі, що дозволяє їй проявляти динамічну поведінку в часі. На відміну від нейронних мереж прямого поширення, РНМ можуть використовувати свою внутрішню пам'ять для обробки довільних послідовностей входів. Це робить їх застосовними до таких задач, як розпізнавання несегментованого неперервного рукописного тексту та розпізнавання мовлення.описного тексту та розпізнавання мовлення. , 回帰型ニューラルネットワーク(かいきがたニューラルネットワーク、英: Recurrent neural network; RNN)は内部に循環をもつニューラルネットワークの総称・クラスである。
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Recurrent_neural_network_unfold.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink http://jsalatas.ictpro.gr/weka + , http://www.idsia.ch/~juergen/rnn.html +
http://dbpedia.org/ontology/wikiPageID 1706303
http://dbpedia.org/ontology/wikiPageLength 68485
http://dbpedia.org/ontology/wikiPageRevisionID 1120400103
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Apache_Singa + , http://dbpedia.org/resource/Jacobian_matrix + , http://dbpedia.org/resource/Time_series_prediction + , http://dbpedia.org/resource/MATLAB + , http://dbpedia.org/resource/Category:First_order_methods + , http://dbpedia.org/resource/Microsoft_Cognitive_Toolkit + , http://dbpedia.org/resource/Multilayer_perceptron + , http://dbpedia.org/resource/Learning_rule + , http://dbpedia.org/resource/Directed_cyclic_graph + , http://dbpedia.org/resource/Julia_%28programming_language%29 + , http://dbpedia.org/resource/Context_free_grammar + , http://dbpedia.org/resource/Connectionist_Temporal_Classification_%28CTC%29 + , http://dbpedia.org/resource/Baidu + , http://dbpedia.org/resource/Deeplearning4j + , http://dbpedia.org/resource/Language_Modeling + , http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Logarithm + , http://dbpedia.org/resource/C%2B%2B + , http://dbpedia.org/resource/Java_%28programming_language%29 + , http://dbpedia.org/resource/Context-sensitive_languages + , http://dbpedia.org/resource/Robustness_%28computer_science%29 + , http://dbpedia.org/resource/Hebbian_learning + , http://dbpedia.org/resource/Mathematical_logic + , http://dbpedia.org/resource/Automatic_image_captioning + , http://dbpedia.org/resource/WEKA + , http://dbpedia.org/resource/Topological_sort + , http://dbpedia.org/resource/Lua_%28programming_language%29 + , http://dbpedia.org/resource/PyTorch + , http://dbpedia.org/resource/HP_Labs + , http://dbpedia.org/resource/Vanishing_gradient_problem + , http://dbpedia.org/resource/Algorithm + , http://dbpedia.org/resource/Memristors + , http://dbpedia.org/resource/NumPy + , http://dbpedia.org/resource/Spiking_neural_network + , http://dbpedia.org/resource/Finite_impulse_response + , http://dbpedia.org/resource/Robot_control + , http://dbpedia.org/resource/Iterative_algorithm + , http://dbpedia.org/resource/Neuromorphic_engineering + , http://dbpedia.org/resource/Paul_Werbos + , http://dbpedia.org/resource/MXNet + , http://dbpedia.org/resource/Distributed_representation + , http://dbpedia.org/resource/Ising_model + , http://dbpedia.org/resource/Stationary_process + , http://dbpedia.org/resource/Dynamical_systems_theory + , http://dbpedia.org/resource/Recurrent_neural_networks + , http://dbpedia.org/resource/Memory + , http://dbpedia.org/resource/David_Rumelhart + , http://dbpedia.org/resource/Python_%28programming_language%29 + , http://dbpedia.org/resource/Markov_chain + , http://dbpedia.org/resource/Liquid_state_machine + , http://dbpedia.org/resource/Chainer + , http://dbpedia.org/resource/Handwriting_recognition + , http://dbpedia.org/resource/Google_Android + , http://dbpedia.org/resource/Recursion + , http://dbpedia.org/resource/Evolutionary_robotics + , http://dbpedia.org/resource/Michael_I._Jordan + , http://dbpedia.org/resource/Transpose + , http://dbpedia.org/resource/Long_short-term_memory + , http://dbpedia.org/resource/Memory-prediction_framework + , http://dbpedia.org/resource/Dynamic_system + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Scala_%28programming_language%29 + , http://dbpedia.org/resource/Theano_%28software%29 + , http://dbpedia.org/resource/Tensor + , http://dbpedia.org/resource/Caffe_%28software%29 + , http://dbpedia.org/resource/Differentiable_function + , http://dbpedia.org/resource/Tony_Robinson_%28speech_recognition%29 + , http://dbpedia.org/resource/Hidden_Markov_model + , http://dbpedia.org/resource/On_Intelligence + , http://dbpedia.org/resource/Shannon_sampling_theorem + , http://dbpedia.org/resource/Attentional_process + , http://dbpedia.org/resource/File:Gated_Recurrent_Unit.svg + , http://dbpedia.org/resource/Memristive_networks + , http://dbpedia.org/resource/Mathematical_optimization + , http://dbpedia.org/resource/Particle_swarm_optimization + , http://dbpedia.org/resource/John_Hopfield + , http://dbpedia.org/resource/Jeff_Hawkins + , http://dbpedia.org/resource/Directed_acyclic_graph + , http://dbpedia.org/resource/C_%28programming_language%29 + , http://dbpedia.org/resource/Global_optimization + , http://dbpedia.org/resource/File:Recurrent_neural_network_unfold.svg + , http://dbpedia.org/resource/Flux_%28machine-learning_framework%29 + , http://dbpedia.org/resource/Text-to-speech + , http://dbpedia.org/resource/File:Long_Short-Term_Memory.svg + , http://dbpedia.org/resource/File:Elman_srnn.png + , http://dbpedia.org/resource/Apache_Spark + , http://dbpedia.org/resource/Tensor_processing_unit + , http://dbpedia.org/resource/Difference_equation + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Turing_complete + , http://dbpedia.org/resource/Ronald_J._Williams + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Automatic_differentiation + , http://dbpedia.org/resource/Text-to-Video_model + , http://dbpedia.org/resource/Hopfield_network + , http://dbpedia.org/resource/Keras + , http://dbpedia.org/resource/TensorFlow + , http://dbpedia.org/resource/Speech_synthesis + , http://dbpedia.org/resource/Generative_model + , http://dbpedia.org/resource/DARPA + , http://dbpedia.org/resource/Infinite_impulse_response + , http://dbpedia.org/resource/SyNAPSE + , http://dbpedia.org/resource/Dalle_Molle_Institute_for_Artificial_Intelligence_Research + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Turing_machine + , http://dbpedia.org/resource/Feedforward_neural_networks + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Pontryagin%27s_minimum_principle + , http://dbpedia.org/resource/Genetic_algorithm + , http://dbpedia.org/resource/Chromosome_%28genetic_algorithm%29 + , http://dbpedia.org/resource/Finite-state_machine + , http://dbpedia.org/resource/Natural_language_processing + , http://dbpedia.org/resource/Von_Neumann_architecture + , http://dbpedia.org/resource/Category:Neural_network_architectures + , http://dbpedia.org/resource/Machine_translation + , http://dbpedia.org/resource/Chaos_theory + , http://dbpedia.org/resource/Henri_Bergson + , http://dbpedia.org/resource/Synapse + , http://dbpedia.org/resource/Layer_%28deep_learning%29 + , http://dbpedia.org/resource/Jeff_Elman + , http://dbpedia.org/resource/Recursive_neural_network + , http://dbpedia.org/resource/J%C3%BCrgen_Schmidhuber + , http://dbpedia.org/resource/Torch_%28machine_learning%29 + , http://dbpedia.org/resource/Gated_recurrent_unit + , http://dbpedia.org/resource/Backpropagation_through_time + , http://dbpedia.org/resource/Time_series + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Physical_neural_network + , http://dbpedia.org/resource/Nonlinear_autoregressive_exogenous_model + , http://dbpedia.org/resource/Simulated_annealing + , http://dbpedia.org/resource/Differentiable_neural_computer + , http://dbpedia.org/resource/Brain%E2%80%93computer_interfaces + , http://dbpedia.org/resource/Sepp_Hochreiter + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Back-propagation + , http://dbpedia.org/resource/Ordinary_differential_equations + , http://dbpedia.org/resource/Content-addressable_memory +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Distinguish + , http://dbpedia.org/resource/Template:Expand_section + , http://dbpedia.org/resource/Template:Anchor + , http://dbpedia.org/resource/Template:Toclimit + , http://dbpedia.org/resource/Template:Machine_learning + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Citation_needed +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Neural_network_architectures +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Network +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Recurrent_neural_network?oldid=1120400103&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Long_Short-Term_Memory.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Gated_Recurrent_Unit.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Recurrent_neural_network_unfold.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Elman_srnn.png +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Recurrent_neural_network +
owl:differentFrom http://dbpedia.org/resource/Recursive_neural_network +
owl:sameAs http://pl.dbpedia.org/resource/Rekurencyjna_sie%C4%87_neuronowa + , http://ca.dbpedia.org/resource/Xarxa_neuronal_recurrent + , http://it.dbpedia.org/resource/Rete_neurale_ricorrente + , http://uk.dbpedia.org/resource/%D0%A0%D0%B5%D0%BA%D1%83%D1%80%D0%B5%D0%BD%D1%82%D0%BD%D0%B0_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0_%D0%BC%D0%B5%D1%80%D0%B5%D0%B6%D0%B0 + , http://sk.dbpedia.org/resource/Rekurentn%C3%A1_neur%C3%B3nov%C3%A1_sie%C5%A5 + , http://d-nb.info/gnd/4379549-3 + , http://mk.dbpedia.org/resource/%D0%A0%D0%B5%D0%BA%D1%83%D1%80%D0%B5%D0%BD%D1%82%D0%BD%D0%B8_%D0%BD%D0%B5%D0%B2%D1%80%D0%BE%D0%BD%D1%81%D0%BA%D0%B8_%D0%BC%D1%80%D0%B5%D0%B6%D0%B8 + , http://ar.dbpedia.org/resource/%D8%A7%D9%84%D8%B4%D8%A8%D9%83%D8%A7%D8%AA_%D8%A7%D9%84%D8%B9%D8%B5%D8%A8%D9%8A%D8%A9_%D8%A7%D9%84%D9%85%D8%AA%D9%83%D8%B1%D8%B1%D8%A9 + , http://www.wikidata.org/entity/Q1457734 + , http://de.dbpedia.org/resource/Rekurrentes_neuronales_Netz + , http://bn.dbpedia.org/resource/%E0%A6%AA%E0%A7%81%E0%A6%A8%E0%A6%B0%E0%A6%BE%E0%A6%AC%E0%A7%83%E0%A6%A4%E0%A7%8D%E0%A6%A4_%E0%A6%B8%E0%A7%8D%E0%A6%A8%E0%A6%BE%E0%A6%AF%E0%A6%BC%E0%A7%81_%E0%A6%A8%E0%A7%87%E0%A6%9F%E0%A6%93%E0%A6%AF%E0%A6%BC%E0%A6%BE%E0%A6%B0%E0%A7%8D%E0%A6%95 + , http://tr.dbpedia.org/resource/Yinelemeli_sinir_a%C4%9F%C4%B1 + , http://eu.dbpedia.org/resource/Neurona-sare_errepikakor + , http://ru.dbpedia.org/resource/%D0%A0%D0%B5%D0%BA%D1%83%D1%80%D1%80%D0%B5%D0%BD%D1%82%D0%BD%D0%B0%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%81%D0%B5%D1%82%D1%8C + , http://zh.dbpedia.org/resource/%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C + , https://global.dbpedia.org/id/TK91 + , http://vi.dbpedia.org/resource/M%E1%BA%A1ng_th%E1%BA%A7n_kinh_h%E1%BB%93i_quy + , http://et.dbpedia.org/resource/Rekurrentne_n%C3%A4rviv%C3%B5rk + , http://ko.dbpedia.org/resource/%EC%88%9C%ED%99%98_%EC%8B%A0%EA%B2%BD%EB%A7%9D + , http://rdf.freebase.com/ns/m.05pygp + , http://fa.dbpedia.org/resource/%D8%B4%D8%A8%DA%A9%D9%87_%D8%B9%D8%B5%D8%A8%DB%8C_%D8%A8%D8%A7%D8%B2%DA%AF%D8%B4%D8%AA%DB%8C + , http://yago-knowledge.org/resource/Recurrent_neural_network + , http://fi.dbpedia.org/resource/Takaisinkytketty_neuroverkko + , http://dbpedia.org/resource/Recurrent_neural_network + , http://ja.dbpedia.org/resource/%E5%9B%9E%E5%B8%B0%E5%9E%8B%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%A9%E3%83%AB%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF + , http://fr.dbpedia.org/resource/R%C3%A9seau_de_neurones_r%C3%A9currents + , http://es.dbpedia.org/resource/Red_neuronal_recurrente +
rdf:type http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/ontology/Broadcaster + , http://dbpedia.org/class/yago/Communication100033020 +
rdfs:comment Rekurencyjna sieć neuronowa – struktura neRekurencyjna sieć neuronowa – struktura neuronalna, w której sygnał otrzymany na wyjściu sieci trafia powtórnie na jej wejście (taki obieg sygnału zwany jest sprzężeniem zwrotnym). Jednorazowe pobudzenie struktury ze sprzężeniem zwrotnym może generować całą sekwencję nowych zjawisk i sygnałów, ponieważ sygnały z wyjścia sieci trafiają ponownie na jej wejścia, generując nowe sygnały aż do ustabilizowania się sygnałów wyjściowych. ustabilizowania się sygnałów wyjściowych. , 순환 신경망(Recurrent neural network, RNN)은 인공 순환 신경망(Recurrent neural network, RNN)은 인공 신경망의 한 종류로, 유닛간의 연결이 순환적 구조를 갖는 특징을 갖고 있다. 이러한 구조는 시변적 동적 특징을 모델링 할 수 있도록 신경망 내부에 상태를 저장할 수 있게 해주므로, 순방향 신경망과 달리 내부의 메모리를 이용해 시퀀스 형태의 입력을 처리할 수 있다. 따라서 순환 인공 신경망은 필기 인식이나 음성 인식과 같이 시변적 특징을 지니는 데이터를 처리하는데 적용할 수 있다. 순환 신경망이라는 이름은 입력받는 신호의 길이가 한정되지 않은 동적 데이터를 처리한다는 점에서 붙여진 이름으로, 구조와 구조를 모두 일컫는다. 유한 임펄스 순환 신경망은 유향 비순환 그래프이므로 적절하게 풀어서 재구성한다면 순방향 신경망으로도 표현할 수 있지만, 무한 임펄스 순환 신경망은 유향 그래프이므로 순방향 신경망으로 표현하는 것이 불가능하다.순환 신경망은 유향 그래프이므로 순방향 신경망으로 표현하는 것이 불가능하다. , Neurona-sare errepikakorra (ingelesez, RNNNeurona-sare errepikakorra (ingelesez, RNN - Recurrent Neural Network) neurona-sare artifizial klase bat da, non nodoen arteko konexioak grafo zuzendua osatzen duen denbora-sekuentzia batean. Honek denbora portaera dinamikoa erakusteko aukera ematen du. Aurrerantz elikatzen diren neurona-sareak ez bezala, RNNek bere barne egoera (memoria) erabil dezakete sarreren segidak prozesatzeko. Horrek aplikagarriak egiten ditu ataza desberdinetara, adibidez eskuzko idazkera-errekonozimendua edo ahotsaren ezagutza.a-errekonozimendua edo ahotsaren ezagutza. , Als rekurrente bzw. rückgekoppelte neuronaAls rekurrente bzw. rückgekoppelte neuronale Netze bezeichnet man neuronale Netze, die sich im Gegensatz zu den Feedforward-Netzen durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht auszeichnen. Im Gehirn ist dies die bevorzugte Verschaltungsweise neuronaler Netze, insbesondere im Neocortex. In künstlichen neuronalen Netzen wird die rekurrente Verschaltung von Modellneuronen benutzt, um zeitlich codierte Informationen in den Daten zu entdecken. Beispiele für solche rekurrenten neuronalen Netze sind das Elman-Netz, das Jordan-Netz, das Hopfield-Netz sowie das vollständig verschaltete neuronale Netz.s vollständig verschaltete neuronale Netz. , 回帰型ニューラルネットワーク(かいきがたニューラルネットワーク、英: Recurrent neural network; RNN)は内部に循環をもつニューラルネットワークの総称・クラスである。 , A recurrent neural network (RNN) is a clasA recurrent neural network (RNN) is a class of artificial neural networks where connections between nodes can create a cycle, allowing output from some nodes to affect subsequent input to the same nodes. This allows it to exhibit temporal dynamic behavior. Derived from feedforward neural networks, RNNs can use their internal state (memory) to process variable length sequences of inputs. This makes them applicable to tasks such as unsegmented, connected handwriting recognition or speech recognition. Recurrent neural networks are theoretically Turing complete and can run arbitrary programs to process arbitrary sequences of inputs. to process arbitrary sequences of inputs. , Рекуррентные нейронные сети (РНС, англ. ReРекуррентные нейронные сети (РНС, англ. Recurrent neural network; RNN) — вид нейронных сетей, где связи между элементами образуют направленную последовательность. Благодаря этому появляется возможность обрабатывать серии событий во времени или последовательные пространственные цепочки. В отличие от многослойных перцептронов, рекуррентные сети могут использовать свою внутреннюю память для обработки последовательностей произвольной длины. Поэтому сети RNN применимы в таких задачах, где нечто целостное разбито на части, например: распознавание рукописного текста или распознавание речи. Было предложено много различных архитектурных решений для рекуррентных сетей от простых до сложных. В последнее время наибольшее распространение получили сеть с долговременной и кратковременной памятью (LSTM) иеменной и кратковременной памятью (LSTM) и , Una xarxa neuronal recurrent (acrònim anglUna xarxa neuronal recurrent (acrònim anglès RNN de recurrent neuronal network), és una classe de circuit neuronal artificial on les connexions entre els estats presenten un o més cicles recurrents (vegeu Fig.1 i 2). Altrament les xarxes neuronals directes no tenen cicles. Aquests cicles de realimentació es poden considerar com a memòries internes del sistema.derar com a memòries internes del sistema. , 循环神经网络(Recurrent neural network:RNN)是神經網絡的一種。单纯的RNN因为无法处理随着递归,权重指数级爆炸或梯度消失问题,难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。 时间循环神经网络可以描述动态时间行为,因为和前馈神经网络(feedforward neural network)接受较特定结构的输入不同,RNN将状态在自身网络中循环传递,因此可以接受更广泛的时间序列结构输入。手写识别是最早成功利用RNN的研究结果。 , Рекуре́нтні нейро́нні мере́жі (РНМ, англ. Рекуре́нтні нейро́нні мере́жі (РНМ, англ. recurrent neural networks, RNN) — це клас штучних нейронних мереж, у якому з'єднання між вузлами утворюють граф орієнтований у часі. Це створює внутрішній стан мережі, що дозволяє їй проявляти динамічну поведінку в часі. На відміну від нейронних мереж прямого поширення, РНМ можуть використовувати свою внутрішню пам'ять для обробки довільних послідовностей входів. Це робить їх застосовними до таких задач, як розпізнавання несегментованого неперервного рукописного тексту та розпізнавання мовлення.описного тексту та розпізнавання мовлення. , Una rete neurale ricorrente o RNN (recurreUna rete neurale ricorrente o RNN (recurrent neural network) è una classe di rete neurale artificiale che include neuroni collegati tra loro in un ciclo. Tipicamente i valori di uscita di uno strato di un livello superiore sono utilizzati in ingresso di uno strato di livello inferiore. Quest'interconnessione tra strati permette l'utilizzo di uno degli strati come memoria di stato, e consente, fornendo in ingresso una di valori, di modellarne un comportamento dinamico temporale dipendente dalle informazioni ricevute agli istanti di tempo precedenti. In altri casi lo strato è costituito da un insieme di neuroni dotato di loop di connessioni molto sparse che innesca una dinamica caotica, impiegata per l'addestramento di una parte successiva della rete, come avviene per le echo state network e, come avviene per le echo state network , Red Neuronal Recurrente (RNN): La estructuRed Neuronal Recurrente (RNN): La estructura de una red neuronal artificial es relativamente simple y se refiere principalmente a la multiplicación de matrices. Durante el primer paso, las entradas se multiplican por pesos inicialmente aleatorios, y sesgo, transformados con una función de activación y los valores de salida se utilizan para hacer una predicción. Este paso da una idea de lo lejos que está la red de la realidad.e lo lejos que está la red de la realidad. , Un réseau de neurones récurrents est un réUn réseau de neurones récurrents est un réseau de neurones artificiels présentant des connexions récurrentes. Un réseau de neurones récurrents est constitué d'unités (neurones) interconnectées interagissant non-linéairement et pour lequel il existe au moins un cycle dans la structure. Les unités sont reliées par des arcs (synapses) qui possèdent un poids. La sortie d'un neurone est une combinaison non linéaire de ses entrées.e combinaison non linéaire de ses entrées. , الشبكات العصبية المتكررة أو شبكات ردود الفالشبكات العصبية المتكررة أو شبكات ردود الفعل العصبية (بالإنكليزية: Recurrent neural network) التي هي على النقيض من شبكات feedforward، وأهم ما تتميزبه هو أن الاتصالات بين الخلايا العصبية تكون في طبقة واحدة والخلايا العصبية في نفس أو الطبقة السابقة. في الدماغ ، هذه هي الطريقة الأفضل لربط الشبكات العصبية ، خاصة في القشرة المخية الحديثة . في الشبكات العصبية الاصطناعية ، يتم استخدام الترابط المتكرر للخلايا العصبية النموذجية لاكتشاف المعلومات ذات الترميز الزمني في البيانات. ومن الأمثلة على هذه الشبكات العصبية المتكررة Hopfield العصبية المترابطة تمامًا. يمكن تقسيم الشبكات المتكررة على النحو التالي:ن تقسيم الشبكات المتكررة على النحو التالي:
rdfs:label 循环神经网络 , 回帰型ニューラルネットワーク , الشبكات العصبية المتكررة , Red neuronal recurrente , Recurrent neural network , 순환 신경망 , Rekurencyjna sieć neuronowa , Réseau de neurones récurrents , Рекурентна нейронна мережа , Rekurrentes neuronales Netz , Rete neurale ricorrente , Neurona-sare errepikakor , Рекуррентная нейронная сеть , Xarxa neuronal recurrent
hide properties that link here 
http://dbpedia.org/resource/Training_recurrent_neural_networks + , http://dbpedia.org/resource/Applications_of_recurrent_neural_networks + , http://dbpedia.org/resource/HRNN + , http://dbpedia.org/resource/Hierarchical_recurrent_neural_network + , http://dbpedia.org/resource/BiRNN + , http://dbpedia.org/resource/IndRNN + , http://dbpedia.org/resource/Recurrent_Neural_Network + , http://dbpedia.org/resource/Jordan_network + , http://dbpedia.org/resource/Elman_network + , http://dbpedia.org/resource/Recurrent_neural_networks + , http://dbpedia.org/resource/Simple_recurrent_network + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Winner-take-all_%28computing%29 + , http://dbpedia.org/resource/Bidirectional_associative_memory + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Directed_information + , http://dbpedia.org/resource/Recurrence + , http://dbpedia.org/resource/Random_neural_network + , http://dbpedia.org/resource/Tom%C3%A1%C5%A1_Mikolov + , http://dbpedia.org/resource/History_of_artificial_intelligence + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Stock_market_prediction + , http://dbpedia.org/resource/Text-to-Video_model + , http://dbpedia.org/resource/Emotion_recognition_in_conversation + , http://dbpedia.org/resource/Alex_Graves_%28computer_scientist%29 + , http://dbpedia.org/resource/FMLLR + , http://dbpedia.org/resource/Alexey_Ivakhnenko + , http://dbpedia.org/resource/History_of_artificial_neural_networks + , http://dbpedia.org/resource/Gain-field_encoding + , http://dbpedia.org/resource/Forecasting + , http://dbpedia.org/resource/SethBling + , http://dbpedia.org/resource/Tensor_Processing_Unit + , http://dbpedia.org/resource/Amazon_SageMaker + , http://dbpedia.org/resource/EEG_analysis + , http://dbpedia.org/resource/Text-to-image_model + , http://dbpedia.org/resource/Syntactic_parsing_%28computational_linguistics%29 + , http://dbpedia.org/resource/Layer_%28deep_learning%29 + , http://dbpedia.org/resource/Twitter_bot + , http://dbpedia.org/resource/Learning_rule + , http://dbpedia.org/resource/List_of_algorithms + , http://dbpedia.org/resource/GPT-2 + , http://dbpedia.org/resource/Intelligent_control + , http://dbpedia.org/resource/Attention_%28machine_learning%29 + , http://dbpedia.org/resource/Timeline_of_machine_learning + , http://dbpedia.org/resource/Backpropagation_through_time + , http://dbpedia.org/resource/Reverse_image_search + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/NeuroSolutions + , http://dbpedia.org/resource/Reservoir_computing + , http://dbpedia.org/resource/Liquid_state_machine + , http://dbpedia.org/resource/Echo_state_network + , http://dbpedia.org/resource/Spiking_neural_network + , http://dbpedia.org/resource/Legendre_polynomials + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Mathematics_of_artificial_neural_networks + , http://dbpedia.org/resource/Recursive_neural_network + , http://dbpedia.org/resource/Structured_prediction + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Rumelhart_Prize + , http://dbpedia.org/resource/Connectionist_temporal_classification + , http://dbpedia.org/resource/Speechmatics + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Hopfield_network + , http://dbpedia.org/resource/Dynamical_systems_theory + , http://dbpedia.org/resource/Index_of_robotics_articles + , http://dbpedia.org/resource/Claudia_Clopath + , http://dbpedia.org/resource/Kanaka_Rajan + , http://dbpedia.org/resource/1_the_Road + , http://dbpedia.org/resource/Teacher_forcing + , http://dbpedia.org/resource/Training_recurrent_neural_networks + , http://dbpedia.org/resource/Applications_of_recurrent_neural_networks + , http://dbpedia.org/resource/HRNN + , http://dbpedia.org/resource/Hierarchical_recurrent_neural_network + , http://dbpedia.org/resource/BiRNN + , http://dbpedia.org/resource/IndRNN + , http://dbpedia.org/resource/Recurrent_Neural_Network + , http://dbpedia.org/resource/Handwriting_recognition + , http://dbpedia.org/resource/Vanishing_gradient_problem + , http://dbpedia.org/resource/Cache_language_model + , http://dbpedia.org/resource/Machine_learning_in_bioinformatics + , http://dbpedia.org/resource/Tony_Robinson_%28speech_recognition%29 + , http://dbpedia.org/resource/Machine_learning_in_video_games + , http://dbpedia.org/resource/Knowledge_graph_embedding + , http://dbpedia.org/resource/Rnn_%28software%29 + , http://dbpedia.org/resource/Neural_network_Gaussian_process + , http://dbpedia.org/resource/Paul_Churchland + , http://dbpedia.org/resource/Gene_regulatory_network + , http://dbpedia.org/resource/Timothy_Lillicrap + , http://dbpedia.org/resource/Comparison_of_deep_learning_software + , http://dbpedia.org/resource/Mycroft_%28software%29 + , http://dbpedia.org/resource/Neural_machine_translation + , http://dbpedia.org/resource/OCRopus + , http://dbpedia.org/resource/Lenia + , http://dbpedia.org/resource/Brain.js + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Information_extraction + , http://dbpedia.org/resource/DeepL_Translator + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Outline_of_artificial_intelligence + , http://dbpedia.org/resource/Video_super-resolution + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Spectrogram + , http://dbpedia.org/resource/Long_short-term_memory + , http://dbpedia.org/resource/Caffe_%28software%29 + , http://dbpedia.org/resource/Semantic_parsing + , http://dbpedia.org/resource/Huaguang_Zhang + , http://dbpedia.org/resource/J%C3%BCrgen_Schmidhuber + , http://dbpedia.org/resource/Neural_network + , http://dbpedia.org/resource/Expert_system + , http://dbpedia.org/resource/Mlpack + , http://dbpedia.org/resource/Jeffrey_Elman + , http://dbpedia.org/resource/Cognitive_architecture + , http://dbpedia.org/resource/Deepfake + , http://dbpedia.org/resource/Amos_Storkey + , http://dbpedia.org/resource/Seq2seq + , http://dbpedia.org/resource/Jordan_network + , http://dbpedia.org/resource/Elman_network + , http://dbpedia.org/resource/Neural_Turing_machine + , http://dbpedia.org/resource/Differentiable_neural_computer + , http://dbpedia.org/resource/Recurrent_neural_networks + , http://dbpedia.org/resource/Simple_recurrent_network + , http://dbpedia.org/resource/Bidirectional_recurrent_neural_networks + , http://dbpedia.org/resource/RNN + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Recurrent_neural_network + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Recursive_neural_network + owl:differentFrom
http://dbpedia.org/resource/Recurrent_neural_network + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.