Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Long short-term memory
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Long_short-term_memory
http://dbpedia.org/ontology/abstract Длинная цепь элементов краткосрочной памятДлинная цепь элементов краткосрочной памяти (англ. Long short-term memory; LSTM) — разновидность архитектуры рекуррентных нейронных сетей, предложенная в 1997 году и Юргеном Шмидхубером. Как и большинство рекуррентных нейронных сетей, LSTM-сеть является универсальной в том смысле, что при достаточном числе элементов сети она может выполнить любое вычисление, на которое способен обычный компьютер, для чего необходима соответствующая матрица весов, которая может рассматриваться как программа. В отличие от традиционных рекуррентных нейронных сетей, LSTM-сеть хорошо приспособлена к обучению на задачах классификации, обработки и прогнозирования временных рядов в случаях, когда важные события разделены временными лагами с неопределённой продолжительностью и границами. Относительная невосприимчивость к длительности временных разрывов даёт LSTM преимущество по отношению к альтернативным рекуррентным нейронным сетям, скрытым марковским моделям и другим методам обучения для последовательностей в различных сферах применения. Из множества достижений LSTM-сетей можно выделить наилучшие результаты в распознавании несегментированного слитного рукописного текста, и победу в 2009 году на соревнованиях по распознаванию рукописного текста. LSTM-сети также используются в задачах распознавания речи, например LSTM-сеть была основным компонентом сети, которая в 2013 году достигла рекордного порога ошибки в 17,7 % в задаче распознавания фонем на классическом корпусе естественной речи . По состоянию на 2016 год ведущие технологические компании, включая Google, Apple, Microsoft и Baidu, используют LSTM-сети в качестве фундаментального компонента новых продуктов.ндаментального компонента новых продуктов. , До́вга короткоча́сна па́м'ять (ДКЧП, англ.До́вга короткоча́сна па́м'ять (ДКЧП, англ. long short-term memory, LSTM) — це архітектура рекурентних нейронних мереж (РНМ, штучна нейронна мережа), запропонована 1997 року та Юргеном Шмідгубером. Як і більшість РНМ, мережа ДКЧП є універсальною в тому сенсі, що за достатньої кількості вузлів мережі вона може обчислювати будь-що, що може обчислювати звичайний комп'ютер, за умови, що вона має належну матрицю , що може розглядатися як її програма. На відміну від традиційних РНМ, мережа ДКЧП добре підходить для навчання з досвіду з метою класифікації, обробки або передбачення часових рядів в умовах, коли між важливими подіями існують часові затримки невідомої тривалості. Відносна нечутливість до довжини прогалин дає ДКЧП перевагу в численних застосуваннях над альтернативними РНМ, прихованими марковськими моделями та іншими методами навчання послідовностей. Серед інших успіхів, ДКЧП досягла найкращих з відомих результатів у стисненні тексту природною мовою, розпізнаванні несегментованого неперервного рукописного тексту, і 2009 року виграла змагання з розпізнавання рукописного тексту . Мережі ДКЧП також застосовувалися до автоматичного розпізнавання мовлення, і були головною складовою мережі, яка 2003 року досягла рекордного 17.7-відсоткового рівня фонемних похибок на класичному наборі даних природного мовлення . Станом на 2016 рік основні технологічні компанії, включно з Google, Apple, Microsoft та Baidu, використовують мережі ДКЧП як основні складові нових продуктів. ДКЧП як основні складові нових продуктів. , 長・短期記憶(ちょう・たんききおく、英: Long short-term memor長・短期記憶(ちょう・たんききおく、英: Long short-term memory、略称: LSTM)は、深層学習(ディープラーニング)の分野において用いられる人工回帰型ニューラルネットワーク(RNN)アーキテクチャである。標準的なとは異なり、LSTMは自身を「汎用計算機」(すなわち、チューリングマシンが計算可能なことを何でも計算できる)にするフィードバック結合を有する。LSTMは(画像といった)単一のデータ点だけでなく、(音声あるいは動画といった)全データ配列を処理できる。例えば、LSTMは分割されていない、つながった手書き文字認識や音声認識といった課題に適用可能である。ブルームバーグ ビジネスウィーク誌は「これらの力がLSTMを、病気の予測から作曲まで全てに使われる、ほぼ間違いなく最も商業的なAIの成果としている」と書いた。 一般的なLSTMユニットは、記憶セル、入力ゲート、出力ゲート、および忘却ゲートから構成される。記憶セルは任意の時間間隔にわたって値を記憶し、3つの「ゲート」は記憶セルを出入りする情報の流れを制御する。 LSTMネットワークは時系列データに基づく分類、、予測によく適している。これは、LSTMネットワークが時系列中の重要な事象間の未知の期間の時間差となることができるためである。LSTMは、従来のRNNを訓練する際に遭遇しうる勾配爆発および消失問題に対処するために開発された。ギャップの長さに対する相対的な鈍感さが、多数の応用におけるRNNや隠れマルコフモデル、その他の系列学習法に対するLSTMの優位性である。おけるRNNや隠れマルコフモデル、その他の系列学習法に対するLSTMの優位性である。 , Τα Δίκτυα Μακράς Βραχύχρονης Μνήμης (αγγλιΤα Δίκτυα Μακράς Βραχύχρονης Μνήμης (αγγλικά Long Short-term Memory - LSTM) είναι μορφή τεχνητών ανατροφοδοτούμενων νευρωνικών δικτύων που χρησιμοποιούνται στον τομέα της . Σε αντίθεση με τα συνηθέστερα εμπροσθοδοτούμενα νευρωνικά δίκτυα, τα ανατροφοδοτούμενα νευρωνικά δίκτυα διαθέτουν συνδέσμους ανατροφοδότησης που τα επιτρέπουν να επεξεργάζονται δεδομένα ως σειρές (συνήθως χρονοσειρές όπως δεδομένα ήχου ή βίντεο). Τα Δίκτυα Μακράς Βραχύχρονης Μνήμης χρησιμοποιούνται σε εφαρμογές όπως την αυτόματη ανάγνωση χειρογράφων την αναγνώριση ομιλίας και την ανίχνευση ανωμαλιών σε δικτυακές επικοινωνίες). Η αρχιτεκτονική της Μακράς Βραχύχρονης Μνήμης αναπτύχθηκε ως λύση στο πρόβλημα εξαφάνισης κλίσεων που σημειώνεται στα παραδοσιακά ανατροφοδοτούμενα νευρωνικά. Η βασική της μονάδα απαρτίζεται από ένα κελί και πύλες εισόδου, εξόδου και λήθης. Το κελί κράταει πληροφορίες απο προηγούμενες θέσεις χρόνου ενώ οι τρεις πύλες ρυθμίζουν την ροή πληροφορίας εντός και εκτός του κελιού. Έτσι, το δίκτυο μπορεί να μοντελοποιήσει τις σχέσεις χρονοσειρών με καθυστερήσεις άγνωστης διάρκειας μεταξύ σημαντικών γεγονότων. Αυτή η σχετικά χαμηλή ευαισθησία στην χρονική απόσταση πληροφοριών αποτελεί και το βασικό πλεονέκτιμα των Δικτύων Μακράς Βραχύχρονης Μνήμης σε σχέση με τα παραδοσιακά ανατροφοδοτούμενα, τα κρυφά Μαρκοβιανά μοντέλα και άλλες μεθόδους μάθησης σειρών.μοντέλα και άλλες μεθόδους μάθησης σειρών. , الذاكرة قصيرة المدى المستمرة لفترة أطول (بالذاكرة قصيرة المدى المستمرة لفترة أطول (بالإنجليزية: Long short-term memory)‏ (LSTM) هي تقنية ساهمت بشكل كبير في تحسين تطوير الذكاء الاصطناعي. عند تدريب الشبكات العصبية الاصطناعية، تستخدم طرق الانتشار الخلفي، والتي يمكن تصويرها كمتسلق جبال يبحث عن أعمق واد في المنطقة. في حالة وجود عدة طبقات متعمقة، يمكن أن يكون هذا قصيراً، تمامًا كما ينتهي الحال بمتسلق الجبال النسيان في أول أفضل واد على المنحدر ولا يمكنه العثور على قريته في واد عميق. تحل هذه الطريقة المشكلة باستخدام ثلاثة أنواع من البوابات لخلية LSTM لتحسين الذاكرة: بوابة إدخال وبوابة تذكر ونسيان وبوابة إخراج. بهذه الطريقة، على عكس الشبكات العصبية المتكررة التقليدية، تتيح LSTM نوعًا من ذاكرة التجارب السابقة: ذاكرة قصيرة المدى تدوم لفترة طويلة (لأن السلوك الأساسي للشبكة يتم ترميزه في الأوزان).لوك الأساسي للشبكة يتم ترميزه في الأوزان). , Long short-term memory (LSTM) is an artifiLong short-term memory (LSTM) is an artificial neural network used in the fields of artificial intelligence and deep learning. Unlike standard feedforward neural networks, LSTM has feedback connections. Such a recurrent neural network (RNN) can process not only single data points (such as images), but also entire sequences of data (such as speech or video). For example, LSTM is applicable to tasks such as unsegmented, connected handwriting recognition, speech recognition, machine translation, robot control, video games, and healthcare. The name of LSTM refers to the analogy that a standard RNN has both "long-term memory" and "short-term memory". The connection weights and biases in the network change once per episode of training, analogous to how physiological changes in synaptic strengths store long-term memories; the activation patterns in the network change once per time-step, analogous to how the moment-to-moment change in electric firing patterns in the brain store short-term memories. The LSTM architecture aims to provide a short-term memory for RNN that can last thousands of timesteps, thus "long short-term memory". A common LSTM unit is composed of a cell, an input gate, an output gate and a forget gate. The cell remembers values over arbitrary time intervals and the three gates regulate the flow of information into and out of the cell. LSTM networks are well-suited to classifying, processing and making predictions based on time series data, since there can be lags of unknown duration between important events in a time series. LSTMs were developed to deal with the vanishing gradient problem that can be encountered when training traditional RNNs. Relative insensitivity to gap length is an advantage of LSTM over RNNs, hidden Markov models and other sequence learning methods in numerous applications.learning methods in numerous applications. , 长短期记忆(英語:Long Short-Term Memory,LSTM)是一种时间长短期记忆(英語:Long Short-Term Memory,LSTM)是一种时间循环神经网络(RNN),论文首次发表于1997年。由于独特的设计结构,LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件。 LSTM的表现通常比时间循环神经网络及隐马尔科夫模型(HMM)更好,比如用在不分段连续手写识别上。2009年,用LSTM构建的人工神经网络模型赢得过手写识别比赛冠军。LSTM还普遍用于自主语音识别,2013年運用TIMIT自然演講資料庫達成17.7%錯誤率的紀錄。作为非线性模型,LSTM可作为复杂的非线性单元用于构造更大型深度神经网络。率的紀錄。作为非线性模型,LSTM可作为复杂的非线性单元用于构造更大型深度神经网络。 , Long short-term memory (amb acrònim anglèsLong short-term memory (amb acrònim anglès LSTM) és una tècnica per a millorar el desenvolupament de la intel·ligència artificial formada per xarxes neuronals recurrents (RNN). La unitat bàsica LSTM està formada per una cèl·lula de memòria, una porta d'entrada, una porta de sortida i una porta d'oblit. S'apliquen en els camps de la classificació i predicció estadística sobre un conjunt de dades temporals. LSTM van ser proposats per Sepp Hochreiter i Jürgen Schmidhuber l'any 1997 i millorats per Felix Gers el 2000. Empreses com Google (home), Apple (siri), Amazon (alexa) i Microsoft empren LSTM com a component fonamental en els seus motors de reconeixement de la parla. seus motors de reconeixement de la parla. , 장단기 메모리(Long Short-Term Memory, LSTM)는 순환 신경망(RNN) 기법의 하나로 셀, 입력 게이트, 출력 게이트, 망각 게이트를 이용해 기존 순환 신경망(RNN)의 문제인 기울기 소멸 문제(vanishing gradient problem)를 방지하도록 개발되었다. , Long short-term memory (LSTM, deutsch: lanLong short-term memory (LSTM, deutsch: langes Kurzzeitgedächtnis) ist in der Informatik eine Technik, die zur Verbesserung der Entwicklung von künstlicher Intelligenz wesentlich beigetragen hat. Beim Trainieren von künstlichen neuronalen Netzen werden Verfahren des Fehlersignalabstiegs genutzt, die man sich wie die Suche eines Bergsteigers nach dem tiefsten Tal vorstellen kann. Beim Deep Learning kann dies zu kurz greifen, so wie ein vergesslicher Bergsteiger beim Abstieg im ersten besten Tal landet und sein Dorf in einem tieferen Tal nicht finden kann. Das LSTM-Verfahren löst dieses Problem, indem es für eine LSTM-Zelle zur besseren Erinnerung drei Torsorten verwendet: Ein Eingangstor (Input Gate), ein Merk- und Vergesstor (Forget Gate) und ein Ausgangstor (Output Gate). LSTM ermöglicht auf diese Weise im Gegensatz zu herkömmlichen rekurrenten neuronalen Netzen eine Art Erinnerung an frühere Erfahrungen: Ein Kurzzeitgedächtnis, das lange anhält (weil das prinzipielle Verhalten des Netzes in den Gewichten kodiert ist). 1997 wurden LSTM-Netze von Sepp Hochreiter und Jürgen Schmidhuber in einer Veröffentlichung vorgestellt und 1999 von Felix Gers, Schmidhuber, und Fred Cummins verbessert. Seit etwa 2016 feiert LSTM bedeutende Erfolge, da seitdem große Datenmengen zum Training genutzt werden können, weitere Verbesserungen der LSTM-Technik durchgeführt wurden, hinreichend leistungsfähige Rechner zur Verfügung stehen und Grafikprozessor-Programmierung angewendet wird. Neuronale Netze mit vielen Schichten sind extrem lernfähig. LSTM sorgt dafür, dass genau solche mehrschichtigen Netze gut funktionieren können. Dies hat einen Durchbruch bei der künstlichen Intelligenz ermöglicht.ei der künstlichen Intelligenz ermöglicht.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/LSTM_Cell.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink http://www.felixgers.de/papers/phd.pdf + , http://christianherta.de/lehre/dataScience/machineLearning/neuralNetworks/LSTM.html + , http://etd.uwc.ac.za/bitstream/handle/11394/249/Abidogun_MSC_2005.pdf + , http://etd.uwc.ac.za/xmlui/handle/11394/249 + , http://www.jmlr.org/papers/volume3/gers02a/gers02a.pdf + , https://towardsdatascience.com/lstm-networks-a-detailed-explanation-8fae6aefc7f9 + , https://web.archive.org/web/20120522234026/http:/etd.uwc.ac.za/usrfiles/modules/etd/docs/etd_init_3937_1174040706.pdf + , http://www.idsia.ch/~juergen/rnn.html + , http://www.cs.umd.edu/~dmonner/papers/nn2012.pdf +
http://dbpedia.org/ontology/wikiPageID 10711453
http://dbpedia.org/ontology/wikiPageLength 49210
http://dbpedia.org/ontology/wikiPageRevisionID 1124148483
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Robot_control + , http://dbpedia.org/resource/IBM_Research + , http://dbpedia.org/resource/Hidden_Markov_models + , http://dbpedia.org/resource/Bill_Gates + , http://dbpedia.org/resource/Recurrent_neural_network + , http://dbpedia.org/resource/J%C3%BCrgen_Schmidhuber + , http://dbpedia.org/resource/Category:Neural_network_architectures + , http://dbpedia.org/resource/Residual_neural_network + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Machine_translation + , http://dbpedia.org/resource/Seq2seq + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Starcraft_II + , http://dbpedia.org/resource/Spectral_radius + , http://dbpedia.org/resource/AlphaStar_%28software%29 + , http://dbpedia.org/resource/Phoneme + , http://dbpedia.org/resource/Long-term_potentiation + , http://dbpedia.org/resource/Predict + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Anomaly_detection + , http://dbpedia.org/resource/Google_Scholar + , http://dbpedia.org/resource/Prefrontal_cortex_basal_ganglia_working_memory + , http://dbpedia.org/resource/Sepp_Hochreiter + , http://dbpedia.org/resource/ICDAR + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/DeepMind + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Business_process_management + , http://dbpedia.org/resource/Drug_design + , http://dbpedia.org/resource/Sign_language + , http://dbpedia.org/resource/Semantic_parsing + , http://dbpedia.org/resource/Neuroevolution + , http://dbpedia.org/resource/Felix_Gers + , http://dbpedia.org/resource/Connectionist_temporal_classification_%28CTC%29 + , http://dbpedia.org/resource/Alex_Graves_%28computer_scientist%29 + , http://dbpedia.org/resource/Convolution + , http://dbpedia.org/resource/Object_co-segmentation + , http://dbpedia.org/resource/Time_series + , http://dbpedia.org/resource/Michigan_State_University + , http://dbpedia.org/resource/Hadamard_product_%28matrices%29 + , http://dbpedia.org/resource/Back-propagation + , http://dbpedia.org/resource/Meta-learning_%28computer_science%29 + , http://dbpedia.org/resource/Highway_network + , http://dbpedia.org/resource/Feedforward_neural_network + , http://dbpedia.org/resource/Neural_architecture_search + , http://dbpedia.org/resource/Backpropagation_through_time + , http://dbpedia.org/resource/TIMIT + , http://dbpedia.org/resource/IDSIA + , http://dbpedia.org/resource/Hyperbolic_tangent + , http://dbpedia.org/resource/Computer_data_processing + , http://dbpedia.org/resource/Switchboard_corpus + , http://dbpedia.org/resource/Traffic_forecast + , http://dbpedia.org/resource/Connectionist_Temporal_Classification + , http://dbpedia.org/resource/Time_series_prediction + , http://dbpedia.org/resource/File:LSTM_Cell.svg + , http://dbpedia.org/resource/OpenAI + , http://dbpedia.org/resource/File:Peephole_Long_Short-Term_Memory.svg + , http://dbpedia.org/resource/Apple_Worldwide_Developers_Conference + , http://dbpedia.org/resource/Activation_function + , http://dbpedia.org/resource/Cornell_University + , http://dbpedia.org/resource/Neural_Computation_%28journal%29 + , http://dbpedia.org/resource/Handwriting_recognition + , http://dbpedia.org/resource/Round-off_error + , http://dbpedia.org/resource/Robot + , http://dbpedia.org/resource/Time_aware_long_short-term_memory + , http://dbpedia.org/resource/Gated_recurrent_unit + , http://dbpedia.org/resource/Amazon_Polly + , http://dbpedia.org/resource/Differentiable_neural_computer + , http://dbpedia.org/resource/Classification_in_machine_learning + , http://dbpedia.org/resource/Biology + , http://dbpedia.org/resource/Reinforcement_learning + , http://dbpedia.org/resource/Google_Neural_Machine_Translation + , http://dbpedia.org/resource/Vanishing_gradient_problem +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Div_col + , http://dbpedia.org/resource/Template:Div_col_end + , http://dbpedia.org/resource/Template:Machine_learning + , http://dbpedia.org/resource/Template:Technical + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Redirect + , http://dbpedia.org/resource/Template:Cite_thesis + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Cite_web + , http://dbpedia.org/resource/Template:Citation_needed +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Neural_network_architectures +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Architecture +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Long_short-term_memory?oldid=1124148483&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/LSTM_Cell.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Peephole_Long_Short-Term_Memory.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Long_short-term_memory +
owl:sameAs http://uk.dbpedia.org/resource/%D0%94%D0%BE%D0%B2%D0%B3%D0%B0_%D0%BA%D0%BE%D1%80%D0%BE%D1%82%D0%BA%D0%BE%D1%87%D0%B0%D1%81%D0%BD%D0%B0_%D0%BF%D0%B0%D0%BC%27%D1%8F%D1%82%D1%8C + , http://ja.dbpedia.org/resource/%E9%95%B7%E3%83%BB%E7%9F%AD%E6%9C%9F%E8%A8%98%E6%86%B6 + , http://zh.dbpedia.org/resource/%E9%95%B7%E7%9F%AD%E6%9C%9F%E8%A8%98%E6%86%B6 + , http://ko.dbpedia.org/resource/%EC%9E%A5%EB%8B%A8%EA%B8%B0_%EB%A9%94%EB%AA%A8%EB%A6%AC + , http://lv.dbpedia.org/resource/LSTM + , http://el.dbpedia.org/resource/%CE%94%CE%AF%CE%BA%CF%84%CF%85%CE%B1_%CE%9C%CE%B1%CE%BA%CF%81%CE%AC%CF%82_%CE%92%CF%81%CE%B1%CF%87%CF%8D%CF%87%CF%81%CE%BF%CE%BD%CE%B7%CF%82_%CE%9C%CE%BD%CE%AE%CE%BC%CE%B7%CF%82 + , https://global.dbpedia.org/id/4r8eg + , http://ru.dbpedia.org/resource/%D0%94%D0%BE%D0%BB%D0%B3%D0%B0%D1%8F_%D0%BA%D1%80%D0%B0%D1%82%D0%BA%D0%BE%D1%81%D1%80%D0%BE%D1%87%D0%BD%D0%B0%D1%8F_%D0%BF%D0%B0%D0%BC%D1%8F%D1%82%D1%8C + , http://gl.dbpedia.org/resource/LSTM + , http://www.wikidata.org/entity/Q6673524 + , http://rdf.freebase.com/ns/m.02qmzyq + , http://de.dbpedia.org/resource/Long_short-term_memory + , http://sr.dbpedia.org/resource/%D0%94%D1%83%D0%B3%D0%B0_%D0%BA%D1%80%D0%B0%D1%82%D0%BAo%D1%80%D0%BE%D1%87%D0%BD%D0%B0_%D0%BC%D0%B5%D0%BC%D0%BE%D1%80%D0%B8%D1%98%D0%B0 + , http://tr.dbpedia.org/resource/Uzun_k%C4%B1sa_s%C3%BCreli_bellek + , http://vi.dbpedia.org/resource/B%E1%BB%99_nh%E1%BB%9B_d%C3%A0i-ng%E1%BA%AFn_h%E1%BA%A1n + , http://ca.dbpedia.org/resource/Long_short-term_memory + , http://ar.dbpedia.org/resource/%D8%A7%D9%84%D8%B0%D8%A7%D9%83%D8%B1%D8%A9_%D9%82%D8%B5%D9%8A%D8%B1%D8%A9_%D8%A7%D9%84%D9%85%D8%AF%D9%89_%D8%AA%D8%AF%D9%88%D9%85_%D9%84%D9%81%D8%AA%D8%B1%D8%A9_%D8%A3%D8%B7%D9%88%D9%84 + , http://yago-knowledge.org/resource/Long_short-term_memory + , http://fa.dbpedia.org/resource/%D8%AD%D8%A7%D9%81%D8%B8%D9%87_%D8%B7%D9%88%D9%84%D8%A7%D9%86%DB%8C_%DA%A9%D9%88%D8%AA%D8%A7%D9%87-%D9%85%D8%AF%D8%AA + , http://dbpedia.org/resource/Long_short-term_memory +
rdf:type http://dbpedia.org/ontology/Company + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Message106598915 + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/WikicatArtificialNeuralNetworks + , http://dbpedia.org/class/yago/NeuralNetwork106725467 +
rdfs:comment До́вга короткоча́сна па́м'ять (ДКЧП, англ.До́вга короткоча́сна па́м'ять (ДКЧП, англ. long short-term memory, LSTM) — це архітектура рекурентних нейронних мереж (РНМ, штучна нейронна мережа), запропонована 1997 року та Юргеном Шмідгубером. Як і більшість РНМ, мережа ДКЧП є універсальною в тому сенсі, що за достатньої кількості вузлів мережі вона може обчислювати будь-що, що може обчислювати звичайний комп'ютер, за умови, що вона має належну матрицю , що може розглядатися як її програма. На відміну від традиційних РНМ, мережа ДКЧП добре підходить для навчання з досвіду з метою класифікації, обробки або передбачення часових рядів в умовах, коли між важливими подіями існують часові затримки невідомої тривалості. Відносна нечутливість до довжини прогалин дає ДКЧП перевагу в численних застосуваннях над альтернативними РНМ, прихованими ннях над альтернативними РНМ, прихованими , Long short-term memory (amb acrònim anglèsLong short-term memory (amb acrònim anglès LSTM) és una tècnica per a millorar el desenvolupament de la intel·ligència artificial formada per xarxes neuronals recurrents (RNN). La unitat bàsica LSTM està formada per una cèl·lula de memòria, una porta d'entrada, una porta de sortida i una porta d'oblit. S'apliquen en els camps de la classificació i predicció estadística sobre un conjunt de dades temporals. LSTM van ser proposats per Sepp Hochreiter i Jürgen Schmidhuber l'any 1997 i millorats per Felix Gers el 2000. Empreses com Google (home), Apple (siri), Amazon (alexa) i Microsoft empren LSTM com a component fonamental en els seus motors de reconeixement de la parla. seus motors de reconeixement de la parla. , Τα Δίκτυα Μακράς Βραχύχρονης Μνήμης (αγγλιΤα Δίκτυα Μακράς Βραχύχρονης Μνήμης (αγγλικά Long Short-term Memory - LSTM) είναι μορφή τεχνητών ανατροφοδοτούμενων νευρωνικών δικτύων που χρησιμοποιούνται στον τομέα της . Σε αντίθεση με τα συνηθέστερα εμπροσθοδοτούμενα νευρωνικά δίκτυα, τα ανατροφοδοτούμενα νευρωνικά δίκτυα διαθέτουν συνδέσμους ανατροφοδότησης που τα επιτρέπουν να επεξεργάζονται δεδομένα ως σειρές (συνήθως χρονοσειρές όπως δεδομένα ήχου ή βίντεο). Τα Δίκτυα Μακράς Βραχύχρονης Μνήμης χρησιμοποιούνται σε εφαρμογές όπως την αυτόματη ανάγνωση χειρογράφων την αναγνώριση ομιλίας και την ανίχνευση ανωμαλιών σε δικτυακές επικοινωνίες).ευση ανωμαλιών σε δικτυακές επικοινωνίες). , Длинная цепь элементов краткосрочной памятДлинная цепь элементов краткосрочной памяти (англ. Long short-term memory; LSTM) — разновидность архитектуры рекуррентных нейронных сетей, предложенная в 1997 году и Юргеном Шмидхубером. Как и большинство рекуррентных нейронных сетей, LSTM-сеть является универсальной в том смысле, что при достаточном числе элементов сети она может выполнить любое вычисление, на которое способен обычный компьютер, для чего необходима соответствующая матрица весов, которая может рассматриваться как программа. В отличие от традиционных рекуррентных нейронных сетей, LSTM-сеть хорошо приспособлена к обучению на задачах классификации, обработки и прогнозирования временных рядов в случаях, когда важные события разделены временными лагами с неопределённой продолжительностью и границами. Относительная невосприимчиью и границами. Относительная невосприимчи , 长短期记忆(英語:Long Short-Term Memory,LSTM)是一种时间长短期记忆(英語:Long Short-Term Memory,LSTM)是一种时间循环神经网络(RNN),论文首次发表于1997年。由于独特的设计结构,LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件。 LSTM的表现通常比时间循环神经网络及隐马尔科夫模型(HMM)更好,比如用在不分段连续手写识别上。2009年,用LSTM构建的人工神经网络模型赢得过手写识别比赛冠军。LSTM还普遍用于自主语音识别,2013年運用TIMIT自然演講資料庫達成17.7%錯誤率的紀錄。作为非线性模型,LSTM可作为复杂的非线性单元用于构造更大型深度神经网络。率的紀錄。作为非线性模型,LSTM可作为复杂的非线性单元用于构造更大型深度神经网络。 , الذاكرة قصيرة المدى المستمرة لفترة أطول (بالذاكرة قصيرة المدى المستمرة لفترة أطول (بالإنجليزية: Long short-term memory)‏ (LSTM) هي تقنية ساهمت بشكل كبير في تحسين تطوير الذكاء الاصطناعي. عند تدريب الشبكات العصبية الاصطناعية، تستخدم طرق الانتشار الخلفي، والتي يمكن تصويرها كمتسلق جبال يبحث عن أعمق واد في المنطقة. في حالة وجود عدة طبقات متعمقة، يمكن أن يكون هذا قصيراً، تمامًا كما ينتهي الحال بمتسلق الجبال النسيان في أول أفضل واد على المنحدر ولا يمكنه العثور على قريته في واد عميق. تحل هذه الطريقة المشكلة باستخدام ثلاثة أنواع من البوابات لخلية LSTM لتحسين الذاكرة: بوابة إدخال وبوابة تذكر ونسيان وبوابة إخراج. بهذه الطريقة، على عكس الشبكات العصبية المتكررة التقليدية، تتيح LSTM نوعًا من ذاكرة التجارب السابقة: ذاكرة قصيرة المدى تدوم لفترة طويلة (لأن السلوك الأساسي للشبكة يتم ترميزه في الأوزان).لوك الأساسي للشبكة يتم ترميزه في الأوزان). , 長・短期記憶(ちょう・たんききおく、英: Long short-term memor長・短期記憶(ちょう・たんききおく、英: Long short-term memory、略称: LSTM)は、深層学習(ディープラーニング)の分野において用いられる人工回帰型ニューラルネットワーク(RNN)アーキテクチャである。標準的なとは異なり、LSTMは自身を「汎用計算機」(すなわち、チューリングマシンが計算可能なことを何でも計算できる)にするフィードバック結合を有する。LSTMは(画像といった)単一のデータ点だけでなく、(音声あるいは動画といった)全データ配列を処理できる。例えば、LSTMは分割されていない、つながった手書き文字認識や音声認識といった課題に適用可能である。ブルームバーグ ビジネスウィーク誌は「これらの力がLSTMを、病気の予測から作曲まで全てに使われる、ほぼ間違いなく最も商業的なAIの成果としている」と書いた。 一般的なLSTMユニットは、記憶セル、入力ゲート、出力ゲート、および忘却ゲートから構成される。記憶セルは任意の時間間隔にわたって値を記憶し、3つの「ゲート」は記憶セルを出入りする情報の流れを制御する。隔にわたって値を記憶し、3つの「ゲート」は記憶セルを出入りする情報の流れを制御する。 , Long short-term memory (LSTM, deutsch: lanLong short-term memory (LSTM, deutsch: langes Kurzzeitgedächtnis) ist in der Informatik eine Technik, die zur Verbesserung der Entwicklung von künstlicher Intelligenz wesentlich beigetragen hat. Beim Trainieren von künstlichen neuronalen Netzen werden Verfahren des Fehlersignalabstiegs genutzt, die man sich wie die Suche eines Bergsteigers nach dem tiefsten Tal vorstellen kann. Beim Deep Learning kann dies zu kurz greifen, so wie ein vergesslicher Bergsteiger beim Abstieg im ersten besten Tal landet und sein Dorf in einem tieferen Tal nicht finden kann. Das LSTM-Verfahren löst dieses Problem, indem es für eine LSTM-Zelle zur besseren Erinnerung drei Torsorten verwendet: Ein Eingangstor (Input Gate), ein Merk- und Vergesstor (Forget Gate) und ein Ausgangstor (Output Gate). LSTM ermöglicht asgangstor (Output Gate). LSTM ermöglicht a , 장단기 메모리(Long Short-Term Memory, LSTM)는 순환 신경망(RNN) 기법의 하나로 셀, 입력 게이트, 출력 게이트, 망각 게이트를 이용해 기존 순환 신경망(RNN)의 문제인 기울기 소멸 문제(vanishing gradient problem)를 방지하도록 개발되었다. , Long short-term memory (LSTM) is an artifiLong short-term memory (LSTM) is an artificial neural network used in the fields of artificial intelligence and deep learning. Unlike standard feedforward neural networks, LSTM has feedback connections. Such a recurrent neural network (RNN) can process not only single data points (such as images), but also entire sequences of data (such as speech or video). For example, LSTM is applicable to tasks such as unsegmented, connected handwriting recognition, speech recognition, machine translation, robot control, video games, and healthcare.obot control, video games, and healthcare.
rdfs:label Long short-term memory , 長・短期記憶 , Δίκτυα Μακράς Βραχύχρονης Μνήμης , Довга короткочасна пам'ять , Долгая краткосрочная память , الذاكرة قصيرة المدى تدوم لفترة أطول , 長短期記憶 , 장단기 메모리
hide properties that link here 
http://dbpedia.org/resource/Long_short_term_memory + , http://dbpedia.org/resource/LSTM + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Prefrontal_cortex_basal_ganglia_working_memory + , http://dbpedia.org/resource/Video_content_analysis + , http://dbpedia.org/resource/Object_co-segmentation + , http://dbpedia.org/resource/Neural_architecture_search + , http://dbpedia.org/resource/Highway_network + , http://dbpedia.org/resource/Siri + , http://dbpedia.org/resource/Stigmergy + , http://dbpedia.org/resource/Gated_recurrent_unit + , http://dbpedia.org/resource/OCRopus + , http://dbpedia.org/resource/Bastiaan_Quast + , http://dbpedia.org/resource/Time_aware_long_short-term_memory + , http://dbpedia.org/resource/EMRBots + , http://dbpedia.org/resource/Alex_Graves_%28computer_scientist%29 + , http://dbpedia.org/resource/Text-to-image_model + , http://dbpedia.org/resource/Relation_network + , http://dbpedia.org/resource/Natural_language_generation + , http://dbpedia.org/resource/History_of_artificial_intelligence + , http://dbpedia.org/resource/Seq2seq + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Transformer_%28machine_learning_model%29 + , http://dbpedia.org/resource/Recurrent_neural_network + , http://dbpedia.org/resource/Paraphrasing_%28computational_linguistics%29 + , http://dbpedia.org/resource/Felix_Gers + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Differentiable_neural_computer + , http://dbpedia.org/resource/Residual_neural_network + , http://dbpedia.org/resource/Emotion_recognition + , http://dbpedia.org/resource/Named-entity_recognition + , http://dbpedia.org/resource/Machine_learning_in_video_games + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Hadamard_product_%28matrices%29 + , http://dbpedia.org/resource/Meta-learning_%28computer_science%29 + , http://dbpedia.org/resource/Timeline_of_machine_learning + , http://dbpedia.org/resource/Vanishing_gradient_problem + , http://dbpedia.org/resource/Connectionist_temporal_classification + , http://dbpedia.org/resource/Handwriting_recognition + , http://dbpedia.org/resource/Amazon_Alexa + , http://dbpedia.org/resource/Sunspring + , http://dbpedia.org/resource/Long_short_term_memory + , http://dbpedia.org/resource/Tesseract_%28software%29 + , http://dbpedia.org/resource/Neural_Turing_machine + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Author_profiling + , http://dbpedia.org/resource/1_the_Road + , http://dbpedia.org/resource/Anomaly_detection + , http://dbpedia.org/resource/1-2-AX_working_memory_task + , http://dbpedia.org/resource/Tribe_%28internet%29 + , http://dbpedia.org/resource/Sepp_Hochreiter + , http://dbpedia.org/resource/J%C3%BCrgen_Schmidhuber + , http://dbpedia.org/resource/Google_Translate + , http://dbpedia.org/resource/FMLLR + , http://dbpedia.org/resource/Hyperparameter_%28machine_learning%29 + , http://dbpedia.org/resource/ELMo + , http://dbpedia.org/resource/GPT-2 + , http://dbpedia.org/resource/OpenAI_Five + , http://dbpedia.org/resource/Apache_MXNet + , http://dbpedia.org/resource/Outline_of_artificial_intelligence + , http://dbpedia.org/resource/Berliner_Hochschule_f%C3%BCr_Technik + , http://dbpedia.org/resource/Domain_generation_algorithm + , http://dbpedia.org/resource/History_of_artificial_neural_networks + , http://dbpedia.org/resource/Video_super-resolution + , http://dbpedia.org/resource/Legendre_polynomials + , http://dbpedia.org/resource/Activity_recognition + , http://dbpedia.org/resource/Directed_information + , http://dbpedia.org/resource/Image_segmentation + , http://dbpedia.org/resource/LSTM + , http://dbpedia.org/resource/Bidirectional_recurrent_neural_networks + , http://dbpedia.org/resource/LSTMs + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Long_short-term_memory + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Long_short-term_memory + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.