Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Hinge loss
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Hinge_loss
http://dbpedia.org/ontology/abstract Завісні втрати (англ. hinge loss) у машиннЗавісні втрати (англ. hinge loss) у машинному навчанні — це функція втрат, яка використовується для навчання класифікаторів. Завісні втрати використовують для максимальної розділової класифікації, здебільшого для опорних векторних машин (ОВМ). Для поміченого виходу t = ±1 та оцінки класифікатора y, завісна втрата передбачення y визначається як Варто зауважити, що тут y є «сирим» значенням функції прийняття рішення у класифікаторі, а не міткою класу. Наприклад, в лінійних ОВМ , де є параметрами гіперплощини та — точка, яку потрібно класифікувати. Зрозуміло, що коли t та y мають однаковий знак (що означає, що y вказує на правильний клас) та , тоді завісні втрати , а коли вони мають різні знаки, то зростає лінійно від y (одностороння помилка). На рисунку пояснюється, чому завісні втрати дають кращу оцінку втрат ніж функція нуль-один. кращу оцінку втрат ніж функція нуль-один. , 在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」,因此非常適合用於支持向量機 (SVM)。对于一个预期输出 ,分类结果 的鉸鏈損失定義為 特別注意:以上式子的應該使用分類器的「原始輸出」,而非預測標籤。例如,在線性支持向量機當中,,其中 是超平面参数,是輸入資料點。 當和同號(意即分類器的輸出是正確的分類),且 时,鉸鏈損失 。但是,當它們異號(意即分類器的輸出是错误的分類)時, 隨 線性增長。套用相似的想法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。 , Em aprendizagem automática, a perda de artEm aprendizagem automática, a perda de articulação é uma função de perda usada para classificadores de treinamento. A perda de articulação é usada para , principalmente para máquinas de vetores de suporte (SVMs). Para uma saída pretendida t = ±1 e um escore de classificador y, a perda de articulação da previsão y é definida como: Observe que y deve ser a saída "crua" da função de decisão do classificador, não o rótulo da classe prevista. Por exemplo, em SVMs lineares , onde são os parâmetros do hiperplano e é o ponto a ser classificado. Pode-se ver que quando t e y têm o mesmo sinal (que significa que y prediz a classe correta) e , a perda de articulação , mas quando eles têm sinal oposto, aumenta linearmente com y (erro unilateral). A em aprendizagem de máquina, a perda de articulação também é conhecida como "hinge loss" ou como "SVM loss".cida como "hinge loss" ou como "SVM loss". , In machine learning, the hinge loss is a lIn machine learning, the hinge loss is a loss function used for training classifiers. The hinge loss is used for "maximum-margin" classification, most notably for support vector machines (SVMs). For an intended output t = ±1 and a classifier score y, the hinge loss of the prediction y is defined as Note that should be the "raw" output of the classifier's decision function, not the predicted class label. For instance, in linear SVMs, , where are the parameters of the hyperplane and is the input variable(s). When t and y have the same sign (meaning y predicts the right class) and , the hinge loss . When they have opposite signs, increases linearly with y, and similarly if , even if it has the same sign (correct prediction, but not by enough margin).ect prediction, but not by enough margin).
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Hinge_loss_vs_zero_one_loss.svg?width=300 +
http://dbpedia.org/ontology/wikiPageID 33100241
http://dbpedia.org/ontology/wikiPageLength 7870
http://dbpedia.org/ontology/wikiPageRevisionID 1122589693
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/File:Hinge_loss_variants.svg + , http://dbpedia.org/resource/File:Hinge_loss_vs_zero_one_loss.svg + , http://dbpedia.org/resource/Category:Support_vector_machines + , http://dbpedia.org/resource/Differentiable_function + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Convex_function + , http://dbpedia.org/resource/Multiclass_classification + , http://dbpedia.org/resource/Subderivative + , http://dbpedia.org/resource/Smoothness + , http://dbpedia.org/resource/Loss_function + , http://dbpedia.org/resource/Hyperplane + , http://dbpedia.org/resource/Structured_support_vector_machine + , http://dbpedia.org/resource/Huber_loss + , http://dbpedia.org/resource/Structured_prediction + , http://dbpedia.org/resource/Hamming_loss + , http://dbpedia.org/resource/Category:Loss_functions + , http://dbpedia.org/resource/Statistical_classification +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Mvar + , http://dbpedia.org/resource/Template:Section_link + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:= + , http://dbpedia.org/resource/Template:Math +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Loss_functions + , http://dbpedia.org/resource/Category:Support_vector_machines +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Hinge_loss?oldid=1122589693&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Hinge_loss_variants.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Hinge_loss_vs_zero_one_loss.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Hinge_loss +
owl:sameAs http://pt.dbpedia.org/resource/Perda_de_articula%C3%A7%C3%A3o + , https://global.dbpedia.org/id/4mm6T + , http://uk.dbpedia.org/resource/%D0%97%D0%B0%D0%B2%D1%96%D1%81%D0%BD%D1%96_%D0%B2%D1%82%D1%80%D0%B0%D1%82%D0%B8 + , http://yago-knowledge.org/resource/Hinge_loss + , http://dbpedia.org/resource/Hinge_loss + , http://rdf.freebase.com/ns/m.0h64g00 + , http://zh.dbpedia.org/resource/Hinge_loss + , http://fa.dbpedia.org/resource/%D8%A7%D8%AA%D9%84%D8%A7%D9%81_%D9%87%DB%8C%D9%86%D8%AC + , http://www.wikidata.org/entity/Q5767098 +
rdf:type http://dbpedia.org/class/yago/WikicatSupportVectorMachines + , http://dbpedia.org/class/yago/Instrumentality103575240 + , http://dbpedia.org/class/yago/Device103183080 + , http://dbpedia.org/class/yago/Machine103699975 + , http://dbpedia.org/class/yago/Whole100003553 + , http://dbpedia.org/class/yago/PhysicalEntity100001930 + , http://dbpedia.org/class/yago/Object100002684 + , http://dbpedia.org/class/yago/Artifact100021939 +
rdfs:comment Em aprendizagem automática, a perda de artEm aprendizagem automática, a perda de articulação é uma função de perda usada para classificadores de treinamento. A perda de articulação é usada para , principalmente para máquinas de vetores de suporte (SVMs). Para uma saída pretendida t = ±1 e um escore de classificador y, a perda de articulação da previsão y é definida como: A em aprendizagem de máquina, a perda de articulação também é conhecida como "hinge loss" ou como "SVM loss".cida como "hinge loss" ou como "SVM loss". , 在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」,因此非常適合用於支持向量機 (SVM)。对于一个预期输出 ,分类结果 的鉸鏈損失定義為 特別注意:以上式子的應該使用分類器的「原始輸出」,而非預測標籤。例如,在線性支持向量機當中,,其中 是超平面参数,是輸入資料點。 當和同號(意即分類器的輸出是正確的分類),且 时,鉸鏈損失 。但是,當它們異號(意即分類器的輸出是错误的分類)時, 隨 線性增長。套用相似的想法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。 , In machine learning, the hinge loss is a lIn machine learning, the hinge loss is a loss function used for training classifiers. The hinge loss is used for "maximum-margin" classification, most notably for support vector machines (SVMs). For an intended output t = ±1 and a classifier score y, the hinge loss of the prediction y is defined as Note that should be the "raw" output of the classifier's decision function, not the predicted class label. For instance, in linear SVMs, , where are the parameters of the hyperplane and is the input variable(s).e hyperplane and is the input variable(s). , Завісні втрати (англ. hinge loss) у машиннЗавісні втрати (англ. hinge loss) у машинному навчанні — це функція втрат, яка використовується для навчання класифікаторів. Завісні втрати використовують для максимальної розділової класифікації, здебільшого для опорних векторних машин (ОВМ). Для поміченого виходу t = ±1 та оцінки класифікатора y, завісна втрата передбачення y визначається як Варто зауважити, що тут y є «сирим» значенням функції прийняття рішення у класифікаторі, а не міткою класу. Наприклад, в лінійних ОВМ , де є параметрами гіперплощини та — точка, яку потрібно класифікувати.ни та — точка, яку потрібно класифікувати.
rdfs:label Hinge loss , Завісні втрати , Perda de articulação
hide properties that link here 
http://dbpedia.org/resource/Hinge_%28disambiguation%29 + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Regularization_perspectives_on_support_vector_machines + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Regularization_%28mathematics%29 + , http://dbpedia.org/resource/Loss_function + , http://dbpedia.org/resource/Gene_expression_programming + , http://dbpedia.org/resource/Huber_loss + , http://dbpedia.org/resource/Regularized_least_squares + , http://dbpedia.org/resource/Online_machine_learning + , http://dbpedia.org/resource/Large_margin_nearest_neighbor + , http://dbpedia.org/resource/Weak_supervision + , http://dbpedia.org/resource/Empirical_risk_minimization + , http://dbpedia.org/resource/Triplet_loss + , http://dbpedia.org/resource/Linear_classifier + , http://dbpedia.org/resource/Ordinal_regression + , http://dbpedia.org/resource/Manifold_regularization + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Capsule_neural_network + , http://dbpedia.org/resource/Hinge_%28disambiguation%29 + , http://dbpedia.org/resource/Hinge_function + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Hinge_loss + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Hinge_loss + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.