http://dbpedia.org/ontology/abstract
|
Завісні втрати (англ. hinge loss) у машинн … Завісні втрати (англ. hinge loss) у машинному навчанні — це функція втрат, яка використовується для навчання класифікаторів. Завісні втрати використовують для максимальної розділової класифікації, здебільшого для опорних векторних машин (ОВМ). Для поміченого виходу t = ±1 та оцінки класифікатора y, завісна втрата передбачення y визначається як Варто зауважити, що тут y є «сирим» значенням функції прийняття рішення у класифікаторі, а не міткою класу. Наприклад, в лінійних ОВМ , де є параметрами гіперплощини та — точка, яку потрібно класифікувати. Зрозуміло, що коли t та y мають однаковий знак (що означає, що y вказує на правильний клас) та , тоді завісні втрати , а коли вони мають різні знаки, то зростає лінійно від y (одностороння помилка). На рисунку пояснюється, чому завісні втрати дають кращу оцінку втрат ніж функція нуль-один. кращу оцінку втрат ніж функція нуль-один.
, 在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」 … 在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」,因此非常適合用於支持向量機 (SVM)。对于一个预期输出 ,分类结果 的鉸鏈損失定義為 特別注意:以上式子的應該使用分類器的「原始輸出」,而非預測標籤。例如,在線性支持向量機當中,,其中 是超平面参数,是輸入資料點。 當和同號(意即分類器的輸出是正確的分類),且 时,鉸鏈損失 。但是,當它們異號(意即分類器的輸出是错误的分類)時, 隨 線性增長。套用相似的想法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。
, Em aprendizagem automática, a perda de art … Em aprendizagem automática, a perda de articulação é uma função de perda usada para classificadores de treinamento. A perda de articulação é usada para , principalmente para máquinas de vetores de suporte (SVMs). Para uma saída pretendida t = ±1 e um escore de classificador y, a perda de articulação da previsão y é definida como: Observe que y deve ser a saída "crua" da função de decisão do classificador, não o rótulo da classe prevista. Por exemplo, em SVMs lineares , onde são os parâmetros do hiperplano e é o ponto a ser classificado. Pode-se ver que quando t e y têm o mesmo sinal (que significa que y prediz a classe correta) e , a perda de articulação , mas quando eles têm sinal oposto, aumenta linearmente com y (erro unilateral). A em aprendizagem de máquina, a perda de articulação também é conhecida como "hinge loss" ou como "SVM loss".cida como "hinge loss" ou como "SVM loss".
, In machine learning, the hinge loss is a l … In machine learning, the hinge loss is a loss function used for training classifiers. The hinge loss is used for "maximum-margin" classification, most notably for support vector machines (SVMs). For an intended output t = ±1 and a classifier score y, the hinge loss of the prediction y is defined as Note that should be the "raw" output of the classifier's decision function, not the predicted class label. For instance, in linear SVMs, , where are the parameters of the hyperplane and is the input variable(s). When t and y have the same sign (meaning y predicts the right class) and , the hinge loss . When they have opposite signs, increases linearly with y, and similarly if , even if it has the same sign (correct prediction, but not by enough margin).ect prediction, but not by enough margin).
|
http://dbpedia.org/ontology/thumbnail
|
http://commons.wikimedia.org/wiki/Special:FilePath/Hinge_loss_vs_zero_one_loss.svg?width=300 +
|
http://dbpedia.org/ontology/wikiPageID
|
33100241
|
http://dbpedia.org/ontology/wikiPageLength
|
7870
|
http://dbpedia.org/ontology/wikiPageRevisionID
|
1122589693
|
http://dbpedia.org/ontology/wikiPageWikiLink
|
http://dbpedia.org/resource/Machine_learning +
, http://dbpedia.org/resource/File:Hinge_loss_variants.svg +
, http://dbpedia.org/resource/File:Hinge_loss_vs_zero_one_loss.svg +
, http://dbpedia.org/resource/Category:Support_vector_machines +
, http://dbpedia.org/resource/Differentiable_function +
, http://dbpedia.org/resource/Support_vector_machine +
, http://dbpedia.org/resource/Convex_function +
, http://dbpedia.org/resource/Multiclass_classification +
, http://dbpedia.org/resource/Subderivative +
, http://dbpedia.org/resource/Smoothness +
, http://dbpedia.org/resource/Loss_function +
, http://dbpedia.org/resource/Hyperplane +
, http://dbpedia.org/resource/Structured_support_vector_machine +
, http://dbpedia.org/resource/Huber_loss +
, http://dbpedia.org/resource/Structured_prediction +
, http://dbpedia.org/resource/Hamming_loss +
, http://dbpedia.org/resource/Category:Loss_functions +
, http://dbpedia.org/resource/Statistical_classification +
|
http://dbpedia.org/property/wikiPageUsesTemplate
|
http://dbpedia.org/resource/Template:Mvar +
, http://dbpedia.org/resource/Template:Section_link +
, http://dbpedia.org/resource/Template:Reflist +
, http://dbpedia.org/resource/Template:= +
, http://dbpedia.org/resource/Template:Math +
|
http://purl.org/dc/terms/subject
|
http://dbpedia.org/resource/Category:Loss_functions +
, http://dbpedia.org/resource/Category:Support_vector_machines +
|
http://www.w3.org/ns/prov#wasDerivedFrom
|
http://en.wikipedia.org/wiki/Hinge_loss?oldid=1122589693&ns=0 +
|
http://xmlns.com/foaf/0.1/depiction
|
http://commons.wikimedia.org/wiki/Special:FilePath/Hinge_loss_variants.svg +
, http://commons.wikimedia.org/wiki/Special:FilePath/Hinge_loss_vs_zero_one_loss.svg +
|
http://xmlns.com/foaf/0.1/isPrimaryTopicOf
|
http://en.wikipedia.org/wiki/Hinge_loss +
|
owl:sameAs |
http://pt.dbpedia.org/resource/Perda_de_articula%C3%A7%C3%A3o +
, https://global.dbpedia.org/id/4mm6T +
, http://uk.dbpedia.org/resource/%D0%97%D0%B0%D0%B2%D1%96%D1%81%D0%BD%D1%96_%D0%B2%D1%82%D1%80%D0%B0%D1%82%D0%B8 +
, http://yago-knowledge.org/resource/Hinge_loss +
, http://dbpedia.org/resource/Hinge_loss +
, http://rdf.freebase.com/ns/m.0h64g00 +
, http://zh.dbpedia.org/resource/Hinge_loss +
, http://fa.dbpedia.org/resource/%D8%A7%D8%AA%D9%84%D8%A7%D9%81_%D9%87%DB%8C%D9%86%D8%AC +
, http://www.wikidata.org/entity/Q5767098 +
|
rdf:type |
http://dbpedia.org/class/yago/WikicatSupportVectorMachines +
, http://dbpedia.org/class/yago/Instrumentality103575240 +
, http://dbpedia.org/class/yago/Device103183080 +
, http://dbpedia.org/class/yago/Machine103699975 +
, http://dbpedia.org/class/yago/Whole100003553 +
, http://dbpedia.org/class/yago/PhysicalEntity100001930 +
, http://dbpedia.org/class/yago/Object100002684 +
, http://dbpedia.org/class/yago/Artifact100021939 +
|
rdfs:comment |
Em aprendizagem automática, a perda de art … Em aprendizagem automática, a perda de articulação é uma função de perda usada para classificadores de treinamento. A perda de articulação é usada para , principalmente para máquinas de vetores de suporte (SVMs). Para uma saída pretendida t = ±1 e um escore de classificador y, a perda de articulação da previsão y é definida como: A em aprendizagem de máquina, a perda de articulação também é conhecida como "hinge loss" ou como "SVM loss".cida como "hinge loss" ou como "SVM loss".
, 在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」 … 在機器學習中,鉸鏈損失是一個用於訓練分類器的損失函數。鉸鏈損失被用於「最大間格分類」,因此非常適合用於支持向量機 (SVM)。对于一个预期输出 ,分类结果 的鉸鏈損失定義為 特別注意:以上式子的應該使用分類器的「原始輸出」,而非預測標籤。例如,在線性支持向量機當中,,其中 是超平面参数,是輸入資料點。 當和同號(意即分類器的輸出是正確的分類),且 时,鉸鏈損失 。但是,當它們異號(意即分類器的輸出是错误的分類)時, 隨 線性增長。套用相似的想法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。法,如果 ,即使 和 同號(意即分類器的分類正確,但是間隔不足),此時仍然會有損失。
, In machine learning, the hinge loss is a l … In machine learning, the hinge loss is a loss function used for training classifiers. The hinge loss is used for "maximum-margin" classification, most notably for support vector machines (SVMs). For an intended output t = ±1 and a classifier score y, the hinge loss of the prediction y is defined as Note that should be the "raw" output of the classifier's decision function, not the predicted class label. For instance, in linear SVMs, , where are the parameters of the hyperplane and is the input variable(s).e hyperplane and is the input variable(s).
, Завісні втрати (англ. hinge loss) у машинн … Завісні втрати (англ. hinge loss) у машинному навчанні — це функція втрат, яка використовується для навчання класифікаторів. Завісні втрати використовують для максимальної розділової класифікації, здебільшого для опорних векторних машин (ОВМ). Для поміченого виходу t = ±1 та оцінки класифікатора y, завісна втрата передбачення y визначається як Варто зауважити, що тут y є «сирим» значенням функції прийняття рішення у класифікаторі, а не міткою класу. Наприклад, в лінійних ОВМ , де є параметрами гіперплощини та — точка, яку потрібно класифікувати.ни та — точка, яку потрібно класифікувати.
|
rdfs:label |
Hinge loss
, Завісні втрати
, Perda de articulação
|