Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Automatic differentiation
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Automatic_differentiation
http://dbpedia.org/ontology/abstract Em matemática e álgebra computacional, a dEm matemática e álgebra computacional, a diferenciação automática (DA), também chamada de diferenciação algorítmica, é um conjunto de técnicas para avaliar a derivada de função numéricas especificadas em um programa de computador. A diferenciação automática explora o fato que todo programa computacional executa uma sequência de operações aritméticas (adição, subtração, multiplicação, divisão, etc.) e funções elementares (exponencial, logaritmo, seno, cosseno, etc.). Ao aplicar repetidademente a regra da cadeia a estas operações a derivada pode ser computada automaticamente e de modo eficiente, utilizando apenas algumas operações aritméticas a mais que a função original. A diferenciação automática é diferente da: * Diferenciação simbólica * Diferenciação numérica Ambos os métodos mencionados acima são lentos ao calcular derivadas parciais em relação à múltiplas variáveis o que é necessário, por exemplo, em algoritmos de otimização baseados no gradiente. Em redes neurais artificias a retropropagação (em inglês backpropagation) dos erros comumente utiliza as técnicas de diferenciação automática.a as técnicas de diferenciação automática. , En mathématique et en calcul formel, la dérivation automatique (DA), également appelé dérivation algorithmique, dérivation formelle, ou auto-dérivation est un ensemble de techniques d'évaluation de la dérivée d'une fonction par un programme informatique. , الاشتقاق الآلي في علم الجبر الحاسوبي هو اشتقاق التابع الرياضي الذي يعينه البرنامج من برامج الحاسوب. والعدد المشتق هو عدد حقيقي يبين شدة تغير التابع حسب تغير معطياته. , En matemàtiques i en àlgebra computacionalEn matemàtiques i en àlgebra computacional, la derivació automàtica, de vegades anomenada de forma alternativa derivació algorísmica, és un mètode d'avaluar numèricament la derivada d'una funció en un punt fent servir un programa d'ordinador. Els dos camins clàssics per resoldre la derivació d'una funció en un punt emprant programes d'ordinador són: * amb algorismes de derivació simbòlica es troba l'expressió de la funció derivada i llavors s'avalua aquesta funció derivada en el punt en qüestió; o * fer servir la derivació numèrica. El principal inconvenient de la derivació simbòlica és que és lenta i també de vegades la dificultat d'obtenir una expressió matemàtica per a les funcions que venen definides per un programa d'ordinador. A més, moltes funcions esdevenen força complexes a mesura que es calculen derivades d'ordre superior. Dos inconvenients importants de la derivació numèrica són l'error d'arrodoniment en la discretització i la . Els dos mètodes clàssics tenen problemes amb el càlcul de derivades d'ordre superior on la complexitat i els errors creixen. La derivació automàtica soluciona tots els problemes esmentats. La derivació automàtica explota el fet que qualsevol programa d'ordinador que implementi una funció vectorial y = F(x) (generalment) es pot descompondre en una successió d'assignacions elementals, cada una de les quals es pot derivar de forma trivial mirant la taula de derivades. Aquestes derivades de les parts elementals que componen la funció, avaluades per a un argument particular, es combinen d'acord amb la regla de la cadena per al càlcul de derivades per tal d'obtenir informació d'algun tipus de derivada de F (com ara el gradient, la tangent, la matriu jacobiana, etc.). Aquest procés dona derivades exactes (dins de l'exactitud numèrica). Com que la transformació simbòlica només es dona al nivell més bàsic, la derivació automàtica evita els problemes computacionals inherents a la complexitat del càlcul simbòlic.ents a la complexitat del càlcul simbòlic. , 在數學和計算機代數中,自動微分有時稱作演算式微分,是一種可以藉由電腦程式計算一個函數在數學和計算機代數中,自動微分有時稱作演算式微分,是一種可以藉由電腦程式計算一個函數導數的方法。兩種傳統做微分的方法為: * 對一個函數的表示式做符號上的微分,並且計算其在某一點上的值。 * 使用差分。 使用符號微分最主要的缺點是速度慢及將電腦程式轉換成表示式的困難。此外,很多函數在要計算更高階微分時會變得複雜。使用差分的兩個重要的缺點是及過程和相消誤差。此兩者傳統方法在計算更高階微分時,都有複雜度及誤差增加的問題。自動微分則解決上述的問題。 自動微分使用這個事實:任何實作一個向量函數 y=F(x)的電腦程式,一般而言,可以被分解成由基本指定運算所成的序列,而其中每一個都可以藉由查表而輕易地微分。這些計算某一特定項的 "基本偏微分" 是依照微積分中的复合函数求导法则來合併成某個 F 的微分資訊(如梯度、切線、雅可比矩陣等)。這個過程會產生確實(數值上準確)的導數。因為只在最基礎的層面做符號轉換,自動微分避免了複雜的符號運算的問題。上準確)的導數。因為只在最基礎的層面做符號轉換,自動微分避免了複雜的符號運算的問題。 , 自動微分(じどうびぶん、アルゴリズム的微分とも)とは、プログラムで定義された関数を解自動微分(じどうびぶん、アルゴリズム的微分とも)とは、プログラムで定義された関数を解析し、偏導関数の値を計算するプログラムを導出する技術である。自動微分は複雑なプログラムであっても加減乗除などの基本的な算術演算や基本的な関数(指数関数・対数関数・三角関数など)のような基本的な演算の組み合わせで構成されていることを利用し、これらの演算に対して連鎖律を繰り返し適用することによって実現される。自動微分を用いることで偏導関数値を少ない計算量で自動的に求めることができる。 自動微分は * (Symbolic differentiation, 原関数を表す数式から数式処理により導関数を導出する) * (Numerical differentiation, 原関数の値から近似的に微分係数を算出する) のどちらとも異なる。 数式微分は効率が悪くなりやすく、プログラムで定義された関数から微分表現を導くのは困難であるという問題がある。一方、数値微分では離散化の際の丸め誤差や桁落ちによる精度の低下が問題である。さらに、どちらの手法も計算量や誤差の関係で高次の微分係数を求めることが難しい。また、勾配を用いた最適化で必要となる、多くの入力変数を持つ関数に対する偏微分値の計算を行うには速度が遅い。自動微分はこれらの古典的手法の問題を解決する。 英語では Automatic differentiation (あるいは単に AD) と呼ばれる。tomatic differentiation (あるいは単に AD) と呼ばれる。 , Автоматичне диференціювання (англ. automatАвтоматичне диференціювання (англ. automatic differentiation, AD) в математиці та символьних обчисленнях — спосіб обчислити похідну для функції, яка задана алгоритмом. AD використовує той факт, що довільна функція в комп'ютерній програмі все одно буде обчислюватись за допомогою арифметичних дій (+, -, *, /) та елементарних функцій стандартних бібліотек (exp, log, sin, cos, і т.д.). Застосовуючи ланцюгове правило, похідна довільного порядку може бути обчислена з заданою точністю, за кількість операцій, що пропорційна кількості операцій для обчислення самої функції. Автоматичне диференціювання не є: * ні символьним диференціюванням, * ні чисельним диференціюванням. Символьне диференціювання не завжди ефективне, оскільки деякі функції важко представити єдиним виразом, а чисельне диференціювання призводить до внесення похибок округлення та дискретизації. Обидва ці методи не є зручними для обчислення похідних високих порядків, оскільки похибка і складність значно зростає. Також обидва ці методи є повільними при обчисленні часткових похідних для функції багатьох аргументів. Автоматичне диференціювання вирішує всі ці проблеми, але вводить додаткову програмну залежність.ле вводить додаткову програмну залежність. , La differenziazione automatica (in lingua La differenziazione automatica (in lingua inglese automatic differentiation, AD), nota anche come differenziazione algoritmica o differenziazione computazionale, è un insieme di tecniche per il calcolo automatico delle derivate di una funzione matematica implementata da un programma informatico. La differenziazione automatica sfrutta il fatto che l'implementazione di una funzione, indipendentemente da quanto sia complessa, si riduce all'esecuzione di una serie di operazioni aritmetiche (somma, sottrazione, moltiplicazione, divisione, etc.) e funzioni elementari (esponenziale, funzioni trigonometriche, etc.). Applicando la regola della catena ripetutamente a tali operazioni, la derivata di una funzione arbitrariamente complessa può essere calcolata automaticamente, alla precisione di calcolo in uso, e velocemente, usando un numero di operazioni equivalente al più ad un fattore piccolo e costante rispetto al numero di operazioni usate nella funzione originale. La differenziazione automatica non deve essere confusa con la , che viene eseguita manipolando le espressioni rappresentate in forma simbolica, né con la , che approssima la derivata con una differenza finita. Il primo metodo è solitamente molto più lento e limitato dalla difficoltà di convertire funzioni arbitrarie in forma simbolica, mentre il secondo metodo introduce errori numerici di discretizzazione che tendono a propagarsi e limitano la stabilità numerica. Inoltre, entrambi i metodi sono lenti nel calcolare derivate parziali di funzioni con un numero elevato di variabili, problema comunemente incontrato in metodi di ottimizzazione basati su discesa del gradiente. Tali metodi sono alla base dell'implementazione di molte tecniche di apprendimento automatico, in particolare apprendimento profondo, e la maggior parte dei framework di apprendimento profondo implementano la differenziazione automatica per il calcolo automatico del gradiente.a per il calcolo automatico del gradiente. , In mathematics and computer algebra, automIn mathematics and computer algebra, automatic differentiation (AD), also called algorithmic differentiation, computational differentiation, auto-differentiation, or simply autodiff, is a set of techniques to evaluate the derivative of a function specified by a computer program. AD exploits the fact that every computer program, no matter how complicated, executes a sequence of elementary arithmetic operations (addition, subtraction, multiplication, division, etc.) and elementary functions (exp, log, sin, cos, etc.). By applying the chain rule repeatedly to these operations, derivatives of arbitrary order can be computed automatically, accurately to working precision, and using at most a small constant factor more arithmetic operations than the original program. Automatic differentiation is distinct from symbolic differentiation and numerical differentiation. Symbolic differentiation faces the difficulty of converting a computer program into a single mathematical expression and can lead to inefficient code. Numerical differentiation (the method of finite differences) can introduce round-off errors in the discretization process and cancellation. Both of these classical methods have problems with calculating higher derivatives, where complexity and errors increase. Finally, both of these classical methods are slow at computing partial derivatives of a function with respect to many inputs, as is needed for gradient-based optimization algorithms. Automatic differentiation solves all of these problems.ferentiation solves all of these problems. , Das automatische Differenzieren bzw. DiffeDas automatische Differenzieren bzw. Differenzieren von Algorithmen ist ein Verfahren der Informatik und angewandten Mathematik. Zu einer Funktion in mehreren Variablen, die als Prozedur in einer Programmiersprache oder als Berechnungsgraph gegeben ist, wird eine erweiterte Prozedur erzeugt, die sowohl die Funktion als auch einen oder beliebig viele Gradienten bis hin zur vollen Jacobi-Matrix auswertet. Wenn das Ausgangsprogramm Schleifen enthält, darf die Anzahl der Schleifendurchläufe nicht von den unabhängigen Variablen abhängig sein. Diese Ableitungen werden z. B. für das Lösen von nichtlinearen Gleichungssystemen mittels Newton-Verfahren und für Methoden der nichtlinearen Optimierung benötigt. Das wichtigste Hilfsmittel dabei ist die Kettenregel sowie die Tatsache, dass zu den im Computer verfügbaren Elementarfunktionen wie sin, cos, exp, log die Ableitungen bekannt und genauso exakt berechenbar sind. Damit wird der Aufwand zur Berechnung der Ableitungen proportional (mit kleinem Faktor) zum Aufwand der Auswertung der Ausgangsfunktion.fwand der Auswertung der Ausgangsfunktion. , En matemática y álgebra computacional, difEn matemática y álgebra computacional, diferenciación automática, o DA, también conocida como diferenciación algorítmica, es un método para la evaluación de derivadas de una función expresada como un programa de computación. Existen dos métodos clásicos para el cálculo de derivadas: * derivar simbólicamente la función obteniendo una expresión y evaluarla en un punto dado; o * utilizar derivación numérica. El inconveniente de la derivación simbólica es la lentitud y la dificultad de convertir programas de computación en una única expresión. Además, la complejidad de muchas funciones crece según se calculan derivadas de mayor grado. Dos inconvenientes importantes de las derivadas finitas son los errores de redondeo en cálculos de naturaleza discreta y la cancelación. Los dos métodos clásicos tiene problemas con el cálculo de derivadas de mayor grado, donde la complejidad y los errores se ven incrementados. La diferenciación automática soluciona todos estos problemas. DA se basa en el hecho de que cualquier programa de computación que implemente una función vectorial y = F(x) (generalmente) se puede descomponer en una secuencia de asignaciones elementales, siendo cada una trivialmente diferenciable utilizando una LUT (LookUp Table o tabla para búsquedas). Estas derivadas parciales básicas, evaluadas utilizando los argumentos, se combinan de acuerdo a regla de la cadena del cálculo de derivadas para formar información derivada para F (como gradientes, tangentes, la matriz Jacobiana, etc.). Este proceso obtiene derivadas exactas (según la precisión numérica). Debido a que la transformación simbólica ocurre sólo en el nivel más básico, DA evita los problemas computacionales inherentes al cálculo simbólico complejo. inherentes al cálculo simbólico complejo.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/AutomaticDifferentiationNutshell.png?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink https://github.com/omartinsky/QuantAndFinancial/tree/master/autodiff_templated + , https://web.archive.org/web/20100323035649/http:/www.ec-securehost.com/SIAM/OT105.html + , http://academics.davidson.edu/math/neidinger/SIAMRev74362.pdf + , http://tapenade.inria.fr:8080/tapenade/index.jsp + , https://www.finmath.net/finmath-lib/concepts/stochasticautomaticdifferentiation/ + , http://www.win-vector.com/dfiles/AutomaticDifferentiationWithScala.pdf + , https://web.archive.org/web/20070927120356/http:/www.vivlabs.com/subpage_ad.php + , https://github.com/google/tangent + , http://citeseerx.ist.psu.edu/viewdoc/download%3Fdoi=10.1.1.89.7749&rep=rep1&type=pdf + , http://www.nag.co.uk/Market/seminars/Uwe_AD_Slides_July13.pdf + , http://www.nag.co.uk/Market/articles/adjoint-algorithmic-differentiation-of-gpu-accelerated-app.pdf + , http://www.nag.co.uk/doc/techrep/pdf/tr5_10.pdf + , https://web.archive.org/web/20140423121504/http:/developers.opengamma.com/quantitative-research/Adjoint-Algorithmic-Differentiation-OpenGamma.pdf + , http://www.autodiff.org/ + , http://www.ec-securehost.com/SIAM/OT105.html + , http://www.autodiff.org/%3Fmodule=Applications&application=HC1 + , http://www.quantandfinancial.com/2017/02/automatic-differentiation-templated.html + , https://www.intel.com/content/dam/www/public/us/en/documents/white-papers/xva-pricing-application-financial-services-white-papers.pdf + , https://research.googleblog.com/2017/11/tangent-source-to-source-debuggable.html +
http://dbpedia.org/ontology/wikiPageID 734787
http://dbpedia.org/ontology/wikiPageLength 28399
http://dbpedia.org/ontology/wikiPageRevisionID 1118541232
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Computational_complexity_theory + , http://dbpedia.org/resource/Real_numbers + , http://dbpedia.org/resource/Discretization + , http://dbpedia.org/resource/Source_code_transformation + , http://dbpedia.org/resource/Category:Computer_algebra + , http://dbpedia.org/resource/Round-off_error + , http://dbpedia.org/resource/Infinitesimal + , http://dbpedia.org/resource/Expression_%28mathematics%29 + , http://dbpedia.org/resource/Computer_algebra + , http://dbpedia.org/resource/Checkpointing_scheme + , http://dbpedia.org/resource/Rematerialization + , http://dbpedia.org/resource/Springer_Science%2BBusiness_Media + , http://dbpedia.org/resource/Natural_logarithm + , http://dbpedia.org/resource/Smooth_infinitesimal_analysis + , http://dbpedia.org/resource/Covector + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Mathematics + , http://dbpedia.org/resource/Operator_overloading + , http://dbpedia.org/resource/Mathematical_expression + , http://dbpedia.org/resource/Society_for_Industrial_and_Applied_Mathematics + , http://dbpedia.org/resource/NP-complete + , http://dbpedia.org/resource/Derivative + , http://dbpedia.org/resource/Adept_%28C%2B%2B_library%29 + , http://dbpedia.org/resource/Polynomials + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Gradient + , http://dbpedia.org/resource/Seppo_Linnainmaa + , http://dbpedia.org/resource/Arithmetic + , http://dbpedia.org/resource/Dual_numbers + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Differentiable_programming + , http://dbpedia.org/resource/Chain_rule + , http://dbpedia.org/resource/Symbolic_differentiation + , http://dbpedia.org/resource/File:ForwardAccumulationAutomaticDifferentiation.png + , http://dbpedia.org/resource/Algebra_over_a_field + , http://dbpedia.org/resource/File:OperatorOverloadingAutomaticDifferentiation.png + , http://dbpedia.org/resource/Abstract_number + , http://dbpedia.org/resource/Optimization_%28mathematics%29 + , http://dbpedia.org/resource/Transpose + , http://dbpedia.org/resource/Taylor_series + , http://dbpedia.org/resource/Ordered_pair + , http://dbpedia.org/resource/Analytic_functions + , http://dbpedia.org/resource/Exponential_function + , http://dbpedia.org/resource/File:SourceTransformationAutomaticDifferentiation.png + , http://dbpedia.org/resource/File:AutomaticDifferentiationNutshell.png + , http://dbpedia.org/resource/Nonstandard_interpretation + , http://dbpedia.org/resource/File:ReverseaccumulationAD.png + , http://dbpedia.org/resource/Sine + , http://dbpedia.org/resource/Jacobian_matrix_and_determinant + , http://dbpedia.org/resource/Numerical_differentiation + , http://dbpedia.org/resource/Stan_%28software%29 + , http://dbpedia.org/resource/Cosine + , http://dbpedia.org/resource/Palgrave_Macmillan + , http://dbpedia.org/resource/Unary_operation + , http://dbpedia.org/resource/Category:Differential_calculus + , http://dbpedia.org/resource/Space%E2%80%93time_tradeoff +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Block_indent + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Authority_control + , http://dbpedia.org/resource/Template:Notelist + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Efn + , http://dbpedia.org/resource/Template:Reflist +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Differential_calculus + , http://dbpedia.org/resource/Category:Computer_algebra +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Set +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Automatic_differentiation?oldid=1118541232&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/ReverseaccumulationAD.png + , http://commons.wikimedia.org/wiki/Special:FilePath/ForwardAccumulationAutomaticDifferentiation.png + , http://commons.wikimedia.org/wiki/Special:FilePath/SourceTransformationAutomaticDifferentiation.png + , http://commons.wikimedia.org/wiki/Special:FilePath/AutomaticDifferentiationNutshell.png + , http://commons.wikimedia.org/wiki/Special:FilePath/OperatorOverloadingAutomaticDifferentiation.png +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Automatic_differentiation +
owl:sameAs http://ar.dbpedia.org/resource/%D8%A7%D9%84%D8%A7%D8%B4%D8%AA%D9%82%D8%A7%D9%82_%D8%A7%D9%84%D8%A2%D9%84%D9%8A + , http://pt.dbpedia.org/resource/Diferencia%C3%A7%C3%A3o_autom%C3%A1tica + , http://es.dbpedia.org/resource/Diferenciaci%C3%B3n_autom%C3%A1tica + , http://it.dbpedia.org/resource/Differenziazione_automatica + , http://dbpedia.org/resource/Automatic_differentiation + , http://rdf.freebase.com/ns/m.036tpg + , https://global.dbpedia.org/id/4wXXs + , http://www.wikidata.org/entity/Q787371 + , http://uk.dbpedia.org/resource/%D0%90%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%BD%D0%B5_%D0%B4%D0%B8%D1%84%D0%B5%D1%80%D0%B5%D0%BD%D1%86%D1%96%D1%8E%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F + , http://zh.dbpedia.org/resource/%E8%87%AA%E5%8B%95%E5%BE%AE%E5%88%86 + , http://de.dbpedia.org/resource/Automatisches_Differenzieren + , http://ja.dbpedia.org/resource/%E8%87%AA%E5%8B%95%E5%BE%AE%E5%88%86 + , http://fr.dbpedia.org/resource/D%C3%A9rivation_automatique + , http://ca.dbpedia.org/resource/Derivaci%C3%B3_autom%C3%A0tica +
rdf:type http://dbpedia.org/ontology/MusicGenre +
rdfs:comment La differenziazione automatica (in lingua La differenziazione automatica (in lingua inglese automatic differentiation, AD), nota anche come differenziazione algoritmica o differenziazione computazionale, è un insieme di tecniche per il calcolo automatico delle derivate di una funzione matematica implementata da un programma informatico. La differenziazione automatica sfrutta il fatto che l'implementazione di una funzione, indipendentemente da quanto sia complessa, si riduce all'esecuzione di una serie di operazioni aritmetiche (somma, sottrazione, moltiplicazione, divisione, etc.) e funzioni elementari (esponenziale, funzioni trigonometriche, etc.). Applicando la regola della catena ripetutamente a tali operazioni, la derivata di una funzione arbitrariamente complessa può essere calcolata automaticamente, alla precisione di calcolautomaticamente, alla precisione di calcol , الاشتقاق الآلي في علم الجبر الحاسوبي هو اشتقاق التابع الرياضي الذي يعينه البرنامج من برامج الحاسوب. والعدد المشتق هو عدد حقيقي يبين شدة تغير التابع حسب تغير معطياته. , Автоматичне диференціювання (англ. automatАвтоматичне диференціювання (англ. automatic differentiation, AD) в математиці та символьних обчисленнях — спосіб обчислити похідну для функції, яка задана алгоритмом. AD використовує той факт, що довільна функція в комп'ютерній програмі все одно буде обчислюватись за допомогою арифметичних дій (+, -, *, /) та елементарних функцій стандартних бібліотек (exp, log, sin, cos, і т.д.). Застосовуючи ланцюгове правило, похідна довільного порядку може бути обчислена з заданою точністю, за кількість операцій, що пропорційна кількості операцій для обчислення самої функції.сті операцій для обчислення самої функції. , Das automatische Differenzieren bzw. DiffeDas automatische Differenzieren bzw. Differenzieren von Algorithmen ist ein Verfahren der Informatik und angewandten Mathematik. Zu einer Funktion in mehreren Variablen, die als Prozedur in einer Programmiersprache oder als Berechnungsgraph gegeben ist, wird eine erweiterte Prozedur erzeugt, die sowohl die Funktion als auch einen oder beliebig viele Gradienten bis hin zur vollen Jacobi-Matrix auswertet. Wenn das Ausgangsprogramm Schleifen enthält, darf die Anzahl der Schleifendurchläufe nicht von den unabhängigen Variablen abhängig sein. den unabhängigen Variablen abhängig sein. , En matemàtiques i en àlgebra computacionalEn matemàtiques i en àlgebra computacional, la derivació automàtica, de vegades anomenada de forma alternativa derivació algorísmica, és un mètode d'avaluar numèricament la derivada d'una funció en un punt fent servir un programa d'ordinador. Els dos camins clàssics per resoldre la derivació d'una funció en un punt emprant programes d'ordinador són: * amb algorismes de derivació simbòlica es troba l'expressió de la funció derivada i llavors s'avalua aquesta funció derivada en el punt en qüestió; o * fer servir la derivació numèrica.ió; o * fer servir la derivació numèrica. , Em matemática e álgebra computacional, a dEm matemática e álgebra computacional, a diferenciação automática (DA), também chamada de diferenciação algorítmica, é um conjunto de técnicas para avaliar a derivada de função numéricas especificadas em um programa de computador. A diferenciação automática é diferente da: * Diferenciação simbólica * Diferenciação numéricaciação simbólica * Diferenciação numérica , 自動微分(じどうびぶん、アルゴリズム的微分とも)とは、プログラムで定義された関数を解自動微分(じどうびぶん、アルゴリズム的微分とも)とは、プログラムで定義された関数を解析し、偏導関数の値を計算するプログラムを導出する技術である。自動微分は複雑なプログラムであっても加減乗除などの基本的な算術演算や基本的な関数(指数関数・対数関数・三角関数など)のような基本的な演算の組み合わせで構成されていることを利用し、これらの演算に対して連鎖律を繰り返し適用することによって実現される。自動微分を用いることで偏導関数値を少ない計算量で自動的に求めることができる。 自動微分は * (Symbolic differentiation, 原関数を表す数式から数式処理により導関数を導出する) * (Numerical differentiation, 原関数の値から近似的に微分係数を算出する) のどちらとも異なる。 数式微分は効率が悪くなりやすく、プログラムで定義された関数から微分表現を導くのは困難であるという問題がある。一方、数値微分では離散化の際の丸め誤差や桁落ちによる精度の低下が問題である。さらに、どちらの手法も計算量や誤差の関係で高次の微分係数を求めることが難しい。また、勾配を用いた最適化で必要となる、多くの入力変数を持つ関数に対する偏微分値の計算を行うには速度が遅い。自動微分はこれらの古典的手法の問題を解決する。る偏微分値の計算を行うには速度が遅い。自動微分はこれらの古典的手法の問題を解決する。 , In mathematics and computer algebra, automIn mathematics and computer algebra, automatic differentiation (AD), also called algorithmic differentiation, computational differentiation, auto-differentiation, or simply autodiff, is a set of techniques to evaluate the derivative of a function specified by a computer program. AD exploits the fact that every computer program, no matter how complicated, executes a sequence of elementary arithmetic operations (addition, subtraction, multiplication, division, etc.) and elementary functions (exp, log, sin, cos, etc.). By applying the chain rule repeatedly to these operations, derivatives of arbitrary order can be computed automatically, accurately to working precision, and using at most a small constant factor more arithmetic operations than the original program.etic operations than the original program. , En matemática y álgebra computacional, difEn matemática y álgebra computacional, diferenciación automática, o DA, también conocida como diferenciación algorítmica, es un método para la evaluación de derivadas de una función expresada como un programa de computación. Existen dos métodos clásicos para el cálculo de derivadas: * derivar simbólicamente la función obteniendo una expresión y evaluarla en un punto dado; o * utilizar derivación numérica.o dado; o * utilizar derivación numérica. , En mathématique et en calcul formel, la dérivation automatique (DA), également appelé dérivation algorithmique, dérivation formelle, ou auto-dérivation est un ensemble de techniques d'évaluation de la dérivée d'une fonction par un programme informatique. , 在數學和計算機代數中,自動微分有時稱作演算式微分,是一種可以藉由電腦程式計算一個函數在數學和計算機代數中,自動微分有時稱作演算式微分,是一種可以藉由電腦程式計算一個函數導數的方法。兩種傳統做微分的方法為: * 對一個函數的表示式做符號上的微分,並且計算其在某一點上的值。 * 使用差分。 使用符號微分最主要的缺點是速度慢及將電腦程式轉換成表示式的困難。此外,很多函數在要計算更高階微分時會變得複雜。使用差分的兩個重要的缺點是及過程和相消誤差。此兩者傳統方法在計算更高階微分時,都有複雜度及誤差增加的問題。自動微分則解決上述的問題。 自動微分使用這個事實:任何實作一個向量函數 y=F(x)的電腦程式,一般而言,可以被分解成由基本指定運算所成的序列,而其中每一個都可以藉由查表而輕易地微分。這些計算某一特定項的 "基本偏微分" 是依照微積分中的复合函数求导法则來合併成某個 F 的微分資訊(如梯度、切線、雅可比矩陣等)。這個過程會產生確實(數值上準確)的導數。因為只在最基礎的層面做符號轉換,自動微分避免了複雜的符號運算的問題。上準確)的導數。因為只在最基礎的層面做符號轉換,自動微分避免了複雜的符號運算的問題。
rdfs:label 自動微分 , Автоматичне диференціювання , Automatisches Differenzieren , Dérivation automatique , Automatic differentiation , Derivació automàtica , Diferenciación automática , Diferenciação automática , Differenziazione automatica , الاشتقاق الآلي
hide properties that link here 
http://dbpedia.org/resource/CasADi + , http://dbpedia.org/resource/INTLAB + http://dbpedia.org/ontology/genre
http://dbpedia.org/resource/AD_%28disambiguation%29 + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Reverse_accumulation + , http://dbpedia.org/resource/Computational_differentiation + , http://dbpedia.org/resource/Algorithmic_differentiation + , http://dbpedia.org/resource/Differentiable_programming_space + , http://dbpedia.org/resource/Operational_calculus_on_programming_spaces + , http://dbpedia.org/resource/Forward_accumulation + , http://dbpedia.org/resource/Auto_derivative + , http://dbpedia.org/resource/Auto_derivatives + , http://dbpedia.org/resource/Autodifferentiation + , http://dbpedia.org/resource/Forward_mode + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Infinitesimal + , http://dbpedia.org/resource/Programming_paradigm + , http://dbpedia.org/resource/TensorFlow + , http://dbpedia.org/resource/David_Rumelhart + , http://dbpedia.org/resource/Seppo_Linnainmaa + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Geoffrey_Hinton + , http://dbpedia.org/resource/Adept_%28C%2B%2B_library%29 + , http://dbpedia.org/resource/SymbolicC%2B%2B + , http://dbpedia.org/resource/WORHP + , http://dbpedia.org/resource/CasADi + , http://dbpedia.org/resource/Stan_%28software%29 + , http://dbpedia.org/resource/ADMB + , http://dbpedia.org/resource/IPOPT + , http://dbpedia.org/resource/INTLAB + , http://dbpedia.org/resource/TOMLAB + , http://dbpedia.org/resource/Plotting_algorithms_for_the_Mandelbrot_set + , http://dbpedia.org/resource/Computational_Optimization_and_Applications + , http://dbpedia.org/resource/Expression_templates + , http://dbpedia.org/resource/Autodiff + , http://dbpedia.org/resource/List_of_numerical_libraries + , http://dbpedia.org/resource/History_of_artificial_intelligence + , http://dbpedia.org/resource/Library_of_Congress_Classification:Class_Q_--_Science + , http://dbpedia.org/resource/AMPL + , http://dbpedia.org/resource/List_of_statistical_software + , http://dbpedia.org/resource/List_of_uncertainty_propagation_software + , http://dbpedia.org/resource/Glossary_of_calculus + , http://dbpedia.org/resource/Recurrent_neural_network + , http://dbpedia.org/resource/Physics-informed_neural_networks + , http://dbpedia.org/resource/Derivative + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Comparison_of_deep_learning_software + , http://dbpedia.org/resource/Differentiable_programming + , http://dbpedia.org/resource/J._H._Wilkinson_Prize_for_Numerical_Software + , http://dbpedia.org/resource/Michael_J._Black + , http://dbpedia.org/resource/Torch_%28machine_learning%29 + , http://dbpedia.org/resource/Hyperparameter_optimization + , http://dbpedia.org/resource/Google_JAX + , http://dbpedia.org/resource/Timeline_of_machine_learning + , http://dbpedia.org/resource/Computational_science + , http://dbpedia.org/resource/Reverse_accumulation + , http://dbpedia.org/resource/PROSE_modeling_language + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Flux_%28machine-learning_framework%29 + , http://dbpedia.org/resource/Heston_model + , http://dbpedia.org/resource/List_of_optimization_software + , http://dbpedia.org/resource/Validated_numerics + , http://dbpedia.org/resource/Interval_arithmetic + , http://dbpedia.org/resource/AD_%28disambiguation%29 + , http://dbpedia.org/resource/Hessian_automatic_differentiation + , http://dbpedia.org/resource/Dual_number + , http://dbpedia.org/resource/John_Guckenheimer + , http://dbpedia.org/resource/List_of_important_publications_in_computer_science + , http://dbpedia.org/resource/Levi-Civita_field + , http://dbpedia.org/resource/Checkpointing_scheme + , http://dbpedia.org/resource/Propagation_of_uncertainty + , http://dbpedia.org/resource/PyTorch + , http://dbpedia.org/resource/Hostway + , http://dbpedia.org/resource/Timeline_of_artificial_intelligence + , http://dbpedia.org/resource/TomSym + , http://dbpedia.org/resource/Householder%27s_method + , http://dbpedia.org/resource/Hamiltonian_Monte_Carlo + , http://dbpedia.org/resource/APMonitor + , http://dbpedia.org/resource/Scientific_programming_language + , http://dbpedia.org/resource/Andrea_Walther + , http://dbpedia.org/resource/Computational_differentiation + , http://dbpedia.org/resource/Algorithmic_differentiation + , http://dbpedia.org/resource/OJA_%28disambiguation%29 + , http://dbpedia.org/resource/Differentiable_programming_space + , http://dbpedia.org/resource/Operational_calculus_on_programming_spaces + , http://dbpedia.org/resource/Forward_accumulation + , http://dbpedia.org/resource/Auto_derivative + , http://dbpedia.org/resource/Auto_derivatives + , http://dbpedia.org/resource/Autodifferentiation + , http://dbpedia.org/resource/Forward_mode + , http://dbpedia.org/resource/Auto-differentiation + http://dbpedia.org/ontology/wikiPageWikiLink
http://dbpedia.org/resource/INTLAB + http://dbpedia.org/property/genre
http://en.wikipedia.org/wiki/Automatic_differentiation + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Automatic_differentiation + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.