Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Stochastic gradient descent
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Stochastic_gradient_descent
http://dbpedia.org/ontology/abstract La discesa stocastica del gradiente (in liLa discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma. SGD opera similmente a GD ma, ad ogni iterazione, sostituisce il valore esatto del gradiente della funzione costo con una stima ottenuta valutando il gradiente solo su un sottinsieme degli addendi. È ampiamente usato per l'allenamento di una varietà di modelli probabilistici e modelli di apprendimento automatico, come macchine a vettori di supporto, regressione logistica e . In combinazione con il metodo di retropropagazione dell'errore, è lo standard de facto per l'allenamento delle reti neurali artificiali.llenamento delle reti neurali artificiali. , Стохастический градиентный спуск (англ. StСтохастический градиентный спуск (англ. Stochastic gradient descent, SGD) — итерационный метод для оптимизации целевой функции с подходящими свойствами гладкости (например, дифференцируемость или субдифференцируемость). Его можно расценивать как стохастическую аппроксимацию оптимизации методом градиентного спуска, поскольку он заменяет реальный градиент, вычисленный из полного набора данных, оценкой, вычисленной из случайно выбранного подмножества данных. Это сокращает задействованные вычислительные ресурсы и помогает достичь более высокой скорости итераций в обмен на более низкую скорость сходимости. Особенно большой эффект достигается в приложениях, связанных с обработкой больших данных. Хотя базовая идея стохастической аппроксимации восходит к алгоритму Роббинса-Монро 1950-х годов, стохастический градиентный спуск стал важным оптимизационным методом в машинном обучении.тимизационным методом в машинном обучении. , L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. , Стохастичний градієнтний спуск (англ. stocСтохастичний градієнтний спуск (англ. stochastic gradient descent, incremental gradient descent) — ітеративний метод оптимізації градієнтного спуску за допомогою . Використовується для прискорення пошуку цільової функції шляхом використання обмеженого за розміром тренувального набору, який вибирається випадково при кожній ітерації. Недавня стаття недвозначно приписує розробку метода Герберту Роббінсу та Саттону Монро (англ. Sutton Monro), які описали його у статті 1951 року «Метод стохастичного наближення» (англ. A Stochastic Approximation Method).(англ. A Stochastic Approximation Method). , 確率的勾配降下法(かくりつてきこうばいこうかほう、英: stochastic gradient descent, SGD)は、連続最適化問題に対する勾配法の乱択アルゴリズム。バッチ学習である最急降下法をオンライン学習に改良したアルゴリズムである。目的関数が微分可能な和の形であることを必要とする。 , L'algorisme del gradient estocàstic (amb aL'algorisme del gradient estocàstic (amb acrònim anglès SGD), també conegut per gradient descendent incremental, és un mètode iteractiu per a optimitzar una funció objectiu derivable. S'anomena estocàstic perque les mostres se seleccionen aleatòriament en comptes d'un ordre predeterminat. Va ser desenvolupat per Herbert Robbins i Sutton Monro l'any 1951.Herbert Robbins i Sutton Monro l'any 1951. , Stochastic gradient descent (often abbreviStochastic gradient descent (often abbreviated SGD) is an iterative method for optimizing an objective function with suitable smoothness properties (e.g. differentiable or subdifferentiable). It can be regarded as a stochastic approximation of gradient descent optimization, since it replaces the actual gradient (calculated from the entire data set) by an estimate thereof (calculated from a randomly selected subset of the data). Especially in high-dimensional optimization problems this reduces the very high computational burden, achieving faster iterations in trade for a lower convergence rate. While the basic idea behind stochastic approximation can be traced back to the Robbins–Monro algorithm of the 1950s, stochastic gradient descent has become an important optimization method in machine learning.t optimization method in machine learning.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Stogra.png?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink https://ghostarchive.org/varchive/youtube/20211222/IHZwWFHWa-w + , https://www.google.com/books/edition/Fundamentals_of_Deep_Learning/80glDwAAQBAJ%3Fhl=en&gbpv=1&pg=PA63 + , https://distill.pub/2017/momentum/ + , https://www.google.com/books/edition/Neural_Networks_Tricks_of_the_Trade/VCKqCAAAQBAJ%3Fhl=en&gbpv=1&pg=PA9 + , https://www.youtube.com/watch%3Fv=IHZwWFHWa-w&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi&index=2 + , http://studyofai.com/machine-learning-algorithms/ + , http://codingplayground.blogspot.it/2013/05/stocastic-gradient-descent.html + , http://leon.bottou.org/papers/bottou-mlss-2004 +
http://dbpedia.org/ontology/wikiPageID 1180641
http://dbpedia.org/ontology/wikiPageLength 37114
http://dbpedia.org/ontology/wikiPageRevisionID 1123041873
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Hessian_matrix + , http://dbpedia.org/resource/Force + , http://dbpedia.org/resource/Exponential_families + , http://dbpedia.org/resource/Category:Statistical_approximations + , http://dbpedia.org/resource/Momentum + , http://dbpedia.org/resource/Vectorization_%28mathematics%29 + , http://dbpedia.org/resource/Robbins%E2%80%93Siegmund_theorem + , http://dbpedia.org/resource/Rprop + , http://dbpedia.org/resource/Distill_%28journal%29 + , http://dbpedia.org/resource/Empirical_risk_minimization + , http://dbpedia.org/resource/Hadamard_product_%28matrices%29 + , http://dbpedia.org/resource/John_Wiley_&_Sons + , http://dbpedia.org/resource/Estimating_equations + , http://dbpedia.org/resource/Robbins%E2%80%93Monro_algorithm + , http://dbpedia.org/resource/File:Stogra.png + , http://dbpedia.org/resource/M-estimation + , http://dbpedia.org/resource/Category:Gradient_methods + , http://dbpedia.org/resource/Category:M-estimators + , http://dbpedia.org/resource/Computational_complexity + , http://dbpedia.org/resource/Bisection_method + , http://dbpedia.org/resource/Coordinate_descent + , http://dbpedia.org/resource/Online_machine_learning + , http://dbpedia.org/resource/Convex_optimization + , http://dbpedia.org/resource/Stationary_point + , http://dbpedia.org/resource/Proximal_gradient_method + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Smoothness + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/Objective_function + , http://dbpedia.org/resource/Pseudoconvex_function + , http://dbpedia.org/resource/Linear_combination + , http://dbpedia.org/resource/Category:Computational_statistics + , http://dbpedia.org/resource/Estimator + , http://dbpedia.org/resource/Category:Stochastic_optimization + , http://dbpedia.org/resource/Observation_%28statistics%29 + , http://dbpedia.org/resource/Langevin_dynamics + , http://dbpedia.org/resource/Logistic_function + , http://dbpedia.org/resource/Convex_function + , http://dbpedia.org/resource/Statistics + , http://dbpedia.org/resource/Learning_rate + , http://dbpedia.org/resource/Parametric_statistics + , http://dbpedia.org/resource/Limited-memory_BFGS + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Subgradient_method + , http://dbpedia.org/resource/High-dimensional + , http://dbpedia.org/resource/Poisson_regression + , http://dbpedia.org/resource/Logistic_regression + , http://dbpedia.org/resource/Category:Convex_optimization + , http://dbpedia.org/resource/Likelihood_function + , http://dbpedia.org/resource/Artificial_neural_networks + , http://dbpedia.org/resource/Maximum-likelihood_estimation + , http://dbpedia.org/resource/Vowpal_Wabbit + , http://dbpedia.org/resource/David_Rumelhart + , http://dbpedia.org/resource/Backtracking_line_search + , http://dbpedia.org/resource/Generalized_linear_model + , http://dbpedia.org/resource/Category:Machine_learning_algorithms + , http://dbpedia.org/resource/Almost_surely + , http://dbpedia.org/resource/Ronald_J._Williams + , http://dbpedia.org/resource/ADALINE + , http://dbpedia.org/resource/YouTube + , http://dbpedia.org/resource/Geophysics + , http://dbpedia.org/resource/Differentiable_function + , http://dbpedia.org/resource/Stochastic_hill_climbing + , http://dbpedia.org/resource/K-means_clustering + , http://dbpedia.org/resource/Mathematical_optimization + , http://dbpedia.org/resource/Stochastic_approximation + , http://dbpedia.org/resource/Least_squares + , http://dbpedia.org/resource/Least_mean_squares_filter + , http://dbpedia.org/resource/Linear_classifier + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Geoffrey_Hinton + , http://dbpedia.org/resource/Data_set + , http://dbpedia.org/resource/Linear_regression + , http://dbpedia.org/resource/Sampling_%28statistics%29 + , http://dbpedia.org/resource/Simulated_annealing + , http://dbpedia.org/resource/Score_%28statistics%29 + , http://dbpedia.org/resource/M-estimator + , http://dbpedia.org/resource/Norm_%28mathematics%29 + , http://dbpedia.org/resource/Stochastic_variance_reduction + , http://dbpedia.org/resource/Loss_function + , http://dbpedia.org/resource/Graphical_model + , http://dbpedia.org/resource/Adaptive_learning_rate + , http://dbpedia.org/resource/Outer_product +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Cite_web + , http://dbpedia.org/resource/Template:R + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Mvar + , http://dbpedia.org/resource/Template:See_also + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Machine_learning + , http://dbpedia.org/resource/Template:Cbignore + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Notelist + , http://dbpedia.org/resource/Template:Citation + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Framebox + , http://dbpedia.org/resource/Template:Frame-footer + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:Efn +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Statistical_approximations + , http://dbpedia.org/resource/Category:Stochastic_optimization + , http://dbpedia.org/resource/Category:Computational_statistics + , http://dbpedia.org/resource/Category:Machine_learning_algorithms + , http://dbpedia.org/resource/Category:Gradient_methods + , http://dbpedia.org/resource/Category:M-estimators + , http://dbpedia.org/resource/Category:Convex_optimization +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Method +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Stochastic_gradient_descent?oldid=1123041873&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Stogra.png +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Stochastic_gradient_descent +
owl:sameAs http://ja.dbpedia.org/resource/%E7%A2%BA%E7%8E%87%E7%9A%84%E5%8B%BE%E9%85%8D%E9%99%8D%E4%B8%8B%E6%B3%95 + , http://fr.dbpedia.org/resource/Algorithme_du_gradient_stochastique + , http://ru.dbpedia.org/resource/%D0%A1%D1%82%D0%BE%D1%85%D0%B0%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D0%B3%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B9_%D1%81%D0%BF%D1%83%D1%81%D0%BA + , http://it.dbpedia.org/resource/Discesa_stocastica_del_gradiente + , http://fa.dbpedia.org/resource/%DA%AF%D8%B1%D8%A7%D8%AF%DB%8C%D8%A7%D9%86_%DA%A9%D8%A7%D9%87%D8%B4%DB%8C_%D8%AA%D8%B5%D8%A7%D8%AF%D9%81%DB%8C + , http://yago-knowledge.org/resource/Stochastic_gradient_descent + , http://www.wikidata.org/entity/Q7617819 + , http://ca.dbpedia.org/resource/Algorisme_del_gradient_estoc%C3%A0stic + , http://dbpedia.org/resource/Stochastic_gradient_descent + , http://rdf.freebase.com/ns/m.04f0gg + , http://uk.dbpedia.org/resource/%D0%A1%D1%82%D0%BE%D1%85%D0%B0%D1%81%D1%82%D0%B8%D1%87%D0%BD%D0%B8%D0%B9_%D0%B3%D1%80%D0%B0%D0%B4%D1%96%D1%94%D0%BD%D1%82%D0%BD%D0%B8%D0%B9_%D1%81%D0%BF%D1%83%D1%81%D0%BA + , https://global.dbpedia.org/id/4vPge +
rdf:type http://dbpedia.org/ontology/Software +
rdfs:comment L'algorisme del gradient estocàstic (amb aL'algorisme del gradient estocàstic (amb acrònim anglès SGD), també conegut per gradient descendent incremental, és un mètode iteractiu per a optimitzar una funció objectiu derivable. S'anomena estocàstic perque les mostres se seleccionen aleatòriament en comptes d'un ordre predeterminat. Va ser desenvolupat per Herbert Robbins i Sutton Monro l'any 1951.Herbert Robbins i Sutton Monro l'any 1951. , Стохастичний градієнтний спуск (англ. stocСтохастичний градієнтний спуск (англ. stochastic gradient descent, incremental gradient descent) — ітеративний метод оптимізації градієнтного спуску за допомогою . Використовується для прискорення пошуку цільової функції шляхом використання обмеженого за розміром тренувального набору, який вибирається випадково при кожній ітерації. Недавня стаття недвозначно приписує розробку метода Герберту Роббінсу та Саттону Монро (англ. Sutton Monro), які описали його у статті 1951 року «Метод стохастичного наближення» (англ. A Stochastic Approximation Method).(англ. A Stochastic Approximation Method). , Stochastic gradient descent (often abbreviStochastic gradient descent (often abbreviated SGD) is an iterative method for optimizing an objective function with suitable smoothness properties (e.g. differentiable or subdifferentiable). It can be regarded as a stochastic approximation of gradient descent optimization, since it replaces the actual gradient (calculated from the entire data set) by an estimate thereof (calculated from a randomly selected subset of the data). Especially in high-dimensional optimization problems this reduces the very high computational burden, achieving faster iterations in trade for a lower convergence rate.ons in trade for a lower convergence rate. , La discesa stocastica del gradiente (in liLa discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma. SGD opera similmente a GD ma, ad ogni iterazione, sostituisce il valore esatto del gradiente della funzione costo con una stima ottenuta valutando il gradiente solo su un sottinsieme degli addendi. È ampiamente usato per l'allenamento di una varietà di modelli probabilistici e modelli di apprendimento automatico, come macchine a vettori di supporto, regressione logistica e . In combinazione con il metodo di retropropagazione dell'errore, è lo standard de facto per l'allenamento delle reti neurali artificiali.llenamento delle reti neurali artificiali. , L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. , 確率的勾配降下法(かくりつてきこうばいこうかほう、英: stochastic gradient descent, SGD)は、連続最適化問題に対する勾配法の乱択アルゴリズム。バッチ学習である最急降下法をオンライン学習に改良したアルゴリズムである。目的関数が微分可能な和の形であることを必要とする。 , Стохастический градиентный спуск (англ. StСтохастический градиентный спуск (англ. Stochastic gradient descent, SGD) — итерационный метод для оптимизации целевой функции с подходящими свойствами гладкости (например, дифференцируемость или субдифференцируемость). Его можно расценивать как стохастическую аппроксимацию оптимизации методом градиентного спуска, поскольку он заменяет реальный градиент, вычисленный из полного набора данных, оценкой, вычисленной из случайно выбранного подмножества данных. Это сокращает задействованные вычислительные ресурсы и помогает достичь более высокой скорости итераций в обмен на более низкую скорость сходимости. Особенно большой эффект достигается в приложениях, связанных с обработкой больших данных.ях, связанных с обработкой больших данных.
rdfs:label Discesa stocastica del gradiente , 確率的勾配降下法 , Стохастичний градієнтний спуск , Algorithme du gradient stochastique , Algorisme del gradient estocàstic , Стохастический градиентный спуск , Stochastic gradient descent
rdfs:seeAlso http://dbpedia.org/resource/Estimating_equation +
hide properties that link here 
http://dbpedia.org/resource/Gradient_%28disambiguation%29 + , http://dbpedia.org/resource/SGD_%28disambiguation%29 + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/AdaGrad + , http://dbpedia.org/resource/Adagrad + , http://dbpedia.org/resource/Adam_%28optimization_algorithm%29 + , http://dbpedia.org/resource/Applications_of_stochastic_gradient_descent + , http://dbpedia.org/resource/Stochastic_Gradient_Descent + , http://dbpedia.org/resource/SGD_optimizer + , http://dbpedia.org/resource/Gradient_descent_in_machine_learning + , http://dbpedia.org/resource/Incremental_gradient_descent + , http://dbpedia.org/resource/RMSProp + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Stochastic_approximation + , http://dbpedia.org/resource/Gradient_%28disambiguation%29 + , http://dbpedia.org/resource/Caustic_%28optics%29 + , http://dbpedia.org/resource/Ant_colony_optimization_algorithms + , http://dbpedia.org/resource/Kaczmarz_method + , http://dbpedia.org/resource/Neural_network_quantum_states + , http://dbpedia.org/resource/Stochastic_gradient_Langevin_dynamics + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Lasso_%28statistics%29 + , http://dbpedia.org/resource/Fast.ai + , http://dbpedia.org/resource/List_of_statistics_articles + , http://dbpedia.org/resource/Massive_Online_Analysis + , http://dbpedia.org/resource/Computer_chess + , http://dbpedia.org/resource/Preconditioner + , http://dbpedia.org/resource/ADALINE + , http://dbpedia.org/resource/Loss_functions_for_classification + , http://dbpedia.org/resource/Backpropagation + , http://dbpedia.org/resource/GPT-2 + , http://dbpedia.org/resource/Torch_%28machine_learning%29 + , http://dbpedia.org/resource/Paraphrasing_%28computational_linguistics%29 + , http://dbpedia.org/resource/Visual_temporal_attention + , http://dbpedia.org/resource/Oja%27s_rule + , http://dbpedia.org/resource/Stochastic_variance_reduction + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/DoD_NDSEG_Fellowship + , http://dbpedia.org/resource/Streaming_algorithm + , http://dbpedia.org/resource/Training%2C_validation%2C_and_test_data_sets + , http://dbpedia.org/resource/Neighbourhood_components_analysis + , http://dbpedia.org/resource/Mathematics_of_artificial_neural_networks + , http://dbpedia.org/resource/Learning_to_rank + , http://dbpedia.org/resource/Recursive_neural_network + , http://dbpedia.org/resource/List_of_numerical_analysis_topics + , http://dbpedia.org/resource/Apache_Spark + , http://dbpedia.org/resource/Feature_scaling + , http://dbpedia.org/resource/Least_mean_squares_filter + , http://dbpedia.org/resource/SGD_%28disambiguation%29 + , http://dbpedia.org/resource/Vanishing_gradient_problem + , http://dbpedia.org/resource/Online_machine_learning + , http://dbpedia.org/resource/L%C3%A9on_Bottou + , http://dbpedia.org/resource/Song-Chun_Zhu + , http://dbpedia.org/resource/Feature_learning + , http://dbpedia.org/resource/Vowpal_Wabbit + , http://dbpedia.org/resource/Limited-memory_BFGS + , http://dbpedia.org/resource/Multi-task_learning + , http://dbpedia.org/resource/Adaptive_algorithm + , http://dbpedia.org/resource/Variational_autoencoder + , http://dbpedia.org/resource/Gradient_method + , http://dbpedia.org/resource/Elad_Hazan + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Coordinate_descent + , http://dbpedia.org/resource/Simultaneous_perturbation_stochastic_approximation + , http://dbpedia.org/resource/Stochastic_optimization + , http://dbpedia.org/resource/Linear_classifier + , http://dbpedia.org/resource/Delta_rule + , http://dbpedia.org/resource/Learning_rate + , http://dbpedia.org/resource/Minimum_mean_square_error + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Darkforest + , http://dbpedia.org/resource/Stochastic_hill_climbing + , http://dbpedia.org/resource/AdaGrad + , http://dbpedia.org/resource/Federated_learning + , http://dbpedia.org/resource/TensorFlow + , http://dbpedia.org/resource/Energy_based_model + , http://dbpedia.org/resource/Eta + , http://dbpedia.org/resource/Orange_%28software%29 + , http://dbpedia.org/resource/Peter_Richtarik + , http://dbpedia.org/resource/Momentum_%28disambiguation%29 + , http://dbpedia.org/resource/Backtracking_line_search + , http://dbpedia.org/resource/Neural_Turing_machine + , http://dbpedia.org/resource/Adagrad + , http://dbpedia.org/resource/Adam_%28optimization_algorithm%29 + , http://dbpedia.org/resource/Adaptive_equalizer + , http://dbpedia.org/resource/Wasserstein_GAN + , http://dbpedia.org/resource/Applications_of_stochastic_gradient_descent + , http://dbpedia.org/resource/Stochastic_Gradient_Descent + , http://dbpedia.org/resource/SGD_optimizer + , http://dbpedia.org/resource/Gradient_descent_in_machine_learning + , http://dbpedia.org/resource/Incremental_gradient_descent + , http://dbpedia.org/resource/RMSProp + , http://dbpedia.org/resource/Momentum_%28machine_learning%29 + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Stochastic_gradient_descent + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Rprop + owl:differentFrom
http://dbpedia.org/resource/Stochastic_gradient_descent + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.