Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Partial least squares regression
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Partial_least_squares_regression
http://dbpedia.org/ontology/abstract 偏最小二乘回归(英語:Partial least squares regressio偏最小二乘回归(英語:Partial least squares regression, PLS回归)是一种统计学方法,与主成分回归有关系,但不是寻找响应和独立变量之间最小方差的超平面,而是通过投影和到一个新空间来寻找一个线性回归模型。因为数据X和Y都会投影到新空间,PLS系列的方法都被称为双线性因子模型。當Y是分类數據時有「偏最小二乘判别分析(英語:Partial least squares Discriminant Analysis, PLS-DA)」,是PLS的一个变形。 偏最小二乘用于查找两个矩阵(X和Y)的基本关系,即一个在这两个空间对协方差结构建模的隐变量方法。偏最小二乘模型将试图找到X空间的多维方向来解释Y空间方差最大的多维方向。偏最小二乘回归特别适合当预测矩阵比观测的有更多变量,以及X的值中有多重共线性的时候。相比之下,标准的回归在这些情况下不见效(除非它是吉洪诺夫正则化)。 偏最小二乘算法被用在中, 一个建立隐变量(原因不能没有实验和拟实验来确定,但一个典型的模型会基于之前理论假设(隐变量影响衡量指标的表现)的隐变量模型)这种技术是的一种形式,与经典方法不同的是基于组件而不是基于协方差。 偏最小二乘来源于瑞典统计学家,然后由他的儿子Svante Wold发展。偏最小二乘的另一个词(根据Svante Wold)是投影到潜在结构,但偏最小二乘法依然在许多领域占据着主导地位。尽管最初的应用是在社会科学中,偏最小二乘回归今天被广泛用于化学计量学和相关领域。它也被用于生物信息学,sensometrics,神经科学和人类学。而相比之下,偏最小二乘回歸最常用于社会科学、计量经济学、市场营销和战略管理。人类学。而相比之下,偏最小二乘回歸最常用于社会科学、计量经济学、市场营销和战略管理。 , Regression der partiellen kleinsten QuadraRegression der partiellen kleinsten Quadrate (Partielle Kleinste-Quadrate-Regression, PLS) ist ein Regressionsmodell, ähnlich zu Hauptkomponentenregression, bei dem die Eingabe iterativ in latente Räume projiziert wird, welche möglichst korreliert mit dem Ausgaberaum sind. Aus diesen Projektionen werden mehrere hierarchische lineare Regressionsmodelle aufgebaut.sche lineare Regressionsmodelle aufgebaut. , Partial least squares regression (PLS regrPartial least squares regression (PLS regression) is a statistical method that bears some relation to principal components regression; instead of finding hyperplanes of maximum variance between the response and independent variables, it finds a linear regression model by projecting the predicted variables and the observable variables to a new space. Because both the X and Y data are projected to new spaces, the PLS family of methods are known as bilinear factor models. Partial least squares discriminant analysis (PLS-DA) is a variant used when the Y is categorical. PLS is used to find the fundamental relations between two matrices (X and Y), i.e. a latent variable approach to modeling the covariance structures in these two spaces. A PLS model will try to find the multidimensional direction in the X space that explains the maximum multidimensional variance direction in the Y space. PLS regression is particularly suited when the matrix of predictors has more variables than observations, and when there is multicollinearity among X values. By contrast, standard regression will fail in these cases (unless it is regularized). Partial least squares was introduced by the Swedish statistician Herman O. A. Wold, who then developed it with his son, Svante Wold. An alternative term for PLS is projection to latent structures, but the term partial least squares is still dominant in many areas. Although the original applications were in the social sciences, PLS regression is today most widely used in chemometrics and related areas. It is also used in bioinformatics, sensometrics, neuroscience, and anthropology.sometrics, neuroscience, and anthropology. , La regresión de mínimos cuadrados parcialeLa regresión de mínimos cuadrados parciales o Partial least squares regression (PLS regression) es un método estadístico que tiene relación con la , en lugar de encontrar hiperplanos de máxima varianza entre la variable de respuesta y las variables independientes, se encuentra una regresión lineal mediante la proyección de las variables de predicción y las variables observables a un nuevo espacio. Debido a que tanto los datos de X e Y se proyectan a nuevos espacios, la familia de los modelos PLS se conoce como factor de modelos bilineales. Los cuadrados mínimos parciales Análisis discriminante (PLS-DA) es una variante que se utiliza cuando la Y es binaria. La regresión de mínimos cuadrados parciales se utiliza para encontrar las relaciones fundamentales entre las dos matrices (X e Y), es decir, un enfoque de variable latente para modelar la estructura de covarianza en estos dos espacios. Un modelo de PLS trata de encontrar el sentido multidimensional en el espacio de X que explica la dirección de la máxima varianza multidimensional en el espacio Y. regresión de mínimos cuadrados parciales es especialmente adecuada cuando la matriz de predictores tiene más variables que observaciones, y cuando hay multicolinealidad entre los valores de X. Por el contrario, de no usarse este modelo se producirá un error estándar de la regresión en estos casos. El algoritmo de la regresión PLS se emplea en el modelado de ruta PLS,​​ un método para modelar una red "causal" de variables latentes, la palabra 'causal' se pone entre comillas, porque las causas, obviamente, no se pueden determinar sin experimentos o cuasi -métodos experimentales. Esta técnica es una forma de modelos de ecuaciones estructurales, que se distingue del método clásico por estar basadas en componentes en lugar de las covarianza.​ El método de mínimos cuadrados parciales se introdujo por el estadístico sueco Herman Wold, quien lo desarrolló con su hijo, Svante Wold. Un término alternativo para el PLS (y más correctamente según Svante Wold​) es la proyección sobre estructuras latentes, pero la expresión de mínimos cuadrados parciales sigue siendo dominante en muchas áreas. Aunque las aplicaciones originales estaban en las ciencias sociales, la regresión PLS es hoy en día más utilizado en Quimiometría y áreas relacionadas. También se utiliza en la bioinformática, Sensometrics, la neurociencia y la antropología. Por el contrario, PLS ruta modelado es la más utilizada en las ciencias sociales, la econometría, la comercialización y la gestión estratégica.comercialización y la gestión estratégica. , La regressió de mínims quadrats parcials, La regressió de mínims quadrats parcials, (en anglès partial least squares, PLS), és un mètode estadístic multivariant que analitza la relació entre variables per trobar un subespai de variables latents que sintetize les variables de predicció o independents (X) amb l'objectiu d'entendre la dispersió de les variables dependents o observades (Y) de forma lineal. A diferència de la regressió de components principals (PCR), que obté el subespai latent buscant maximitzar la variància de les variables explicatives (X), la PLS intenta maximitzar la covariància entre les variables dependents (Y) i les variables independents (X). Això ens permet trobar un subespai latent que conté informació de les observacions i per tant ens permet trobar aquell subespai que compacta la informació continguda a X, Y i la relació entre ambdós. La regressió de mínims quadrats parcials va ser introduïda per l'estadístic suec Herman Wold juntament amb el seu fill Svante Wold en el camp de la quimiometria. Un terme alternatiu - i més correcte segons els seus autors - per a PLS és projecció sobre estructures latents (Projection to Latent Structures). La utilització de la terminologia concreta dependrà del camp d'aplicació, essent regressió de mínims quadrats parcials la forma més comuna de referir-s'hi.cials la forma més comuna de referir-s'hi. , La régression des moindres carrés partielsLa régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS (« Partial Least Squares regression » et/ou « Projection to Latent Structure »). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression. Plus précisément, la régression PLS cherche des composantes, appelées variables latentes, liées à X et à Y, servant à exprimer la régression de Y sur ces variables et finalement de Y sur X.ur ces variables et finalement de Y sur X. , 部分的最小二乗回帰(ぶぶんてきさいしょうじじょうかいき、英: partial lea部分的最小二乗回帰(ぶぶんてきさいしょうじじょうかいき、英: partial least squares regression、略称: PLS回帰)は、といくらかの関係を持つ統計的手法の一つである。偏最小二乗回帰または部分最小二乗回帰とも呼ばれる。PLS回帰は、応答変数と説明変数との間の最大分散の超平面を探す代わりに、とを新たな空間に射影することによって線形回帰モデルを探る。XおよびYのデータが共に新たな空間に射影されるため、PLSに分類される手法群は双線形因子モデルとも呼ばれる。部分的最小二乗判別分析(PLS-DA)は、Yが分類である時の派生法である。 PLSは2つの行列(XおよびY)間の基本的関係を探すために用いられる。すなわち、これら2つの空間における共分散構造をモデル化するための潜在変数アプローチである。PLSモデルはY空間における最大多次元分散方向を説明するX空間における多次元方向を探そうと試みる。PLS回帰は予測因子の行列が観測因子よりも変数の数が多い時、そしてXの値の間に多重共線性が存在する時に特に適している。対照的に、標準的な回帰手法はこれらの場合()失敗する。 部分的最小二乗法は、スウェーデンの統計学者によって発表された。ウォルドはその後息子のと共にこの手法を発展させた。PLSの(スヴァンテ・ウォルドによればより正確な)別称は、「projection to latent structures」(潜在構造への射影)であるが、多くの分野において「部分的最小二乗法」という用語が未だに優勢である。PLS回帰の最初の応用は社会科学分野でのものだったが、今日、PLS回帰は計量化学(ケモメトリクス)と関連領域において最も広く使われている。また、バイオインフォマティクス、感覚計量学、神経科学、人類学でも使われている。いる。また、バイオインフォマティクス、感覚計量学、神経科学、人類学でも使われている。
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Deflation-The-geometric-interpretation-of-the-deflation-step-in-the-PLS-Algorithm.jpg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink https://www.youtube.com/watch%3Fv=Px2otK2nZ1c + , https://personal.utdallas.edu/~herve/Abdi-PLS-pretty.pdf +
http://dbpedia.org/ontology/wikiPageID 1046736
http://dbpedia.org/ontology/wikiPageLength 20816
http://dbpedia.org/ontology/wikiPageRevisionID 1111312181
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Deming_regression + , http://dbpedia.org/resource/Principal_component_regression + , http://dbpedia.org/resource/Hyperplane + , http://dbpedia.org/resource/Neuroscience + , http://dbpedia.org/resource/Singular_value_decomposition + , http://dbpedia.org/resource/Orthonormal_matrix + , http://dbpedia.org/resource/File:Deflation-The-geometric-interpretation-of-the-deflation-step-in-the-PLS-Algorithm.jpg + , http://dbpedia.org/resource/Data_mining + , http://dbpedia.org/resource/Herman_Wold + , http://dbpedia.org/resource/Total_sum_of_squares + , http://dbpedia.org/resource/Feature_extraction + , http://dbpedia.org/resource/Predicted_variable + , http://dbpedia.org/resource/Principal_component_analysis + , http://dbpedia.org/resource/Statistics + , http://dbpedia.org/resource/Latent_variable + , http://dbpedia.org/resource/Observable_variable + , http://dbpedia.org/resource/Category:Least_squares + , http://dbpedia.org/resource/Chemometrics + , http://dbpedia.org/resource/Anthropology + , http://dbpedia.org/resource/Linear_regression + , http://dbpedia.org/resource/Variance + , http://dbpedia.org/resource/Category:Articles_with_example_pseudocode + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Tikhonov_regularization + , http://dbpedia.org/resource/Regression_analysis + , http://dbpedia.org/resource/Canonical_correlation + , http://dbpedia.org/resource/Matrix_%28mathematics%29 + , http://dbpedia.org/resource/Journal_of_the_American_Statistical_Association + , http://dbpedia.org/resource/Partial_least_squares_path_modeling + , http://dbpedia.org/resource/Bioinformatics + , http://dbpedia.org/resource/Covariance + , http://dbpedia.org/resource/Multicollinearity + , http://dbpedia.org/resource/Sensometrics + , http://dbpedia.org/resource/Category:Latent_variable_models +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Least_Squares_and_Regression_Analysis + , http://dbpedia.org/resource/Template:Prone_to_spam + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Regression_bar + , http://dbpedia.org/resource/Template:Authority_control + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Mvar +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Latent_variable_models + , http://dbpedia.org/resource/Category:Articles_with_example_pseudocode + , http://dbpedia.org/resource/Category:Least_squares +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Method +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Partial_least_squares_regression?oldid=1111312181&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Deflation-The-geometric-interpretation-of-the-deflation-step-in-the-PLS-Algorithm.jpg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Partial_least_squares_regression +
owl:sameAs http://www.wikidata.org/entity/Q422009 + , https://global.dbpedia.org/id/3uTUp + , http://yago-knowledge.org/resource/Partial_least_squares_regression + , http://fr.dbpedia.org/resource/R%C3%A9gression_des_moindres_carr%C3%A9s_partiels + , http://es.dbpedia.org/resource/Regresi%C3%B3n_de_m%C3%ADnimos_cuadrados_parciales + , http://fa.dbpedia.org/resource/%DA%A9%D9%85%D8%AA%D8%B1%DB%8C%D9%86_%D9%85%D8%B1%D8%A8%D8%B9%D8%A7%D8%AA_%D8%AC%D8%B2%D8%A6%DB%8C + , http://rdf.freebase.com/ns/m.0419hy + , http://ja.dbpedia.org/resource/%E9%83%A8%E5%88%86%E7%9A%84%E6%9C%80%E5%B0%8F%E4%BA%8C%E4%B9%97%E5%9B%9E%E5%B8%B0 + , http://dbpedia.org/resource/Partial_least_squares_regression + , http://d-nb.info/gnd/4591652-4 + , http://zh.dbpedia.org/resource/%E5%81%8F%E6%9C%80%E5%B0%8F%E4%BA%8C%E4%B9%98%E5%9B%9E%E5%BD%92 + , http://de.dbpedia.org/resource/Regression_der_partiellen_kleinsten_Quadrate + , http://ca.dbpedia.org/resource/Regressi%C3%B3_de_m%C3%ADnims_quadrats_parcials +
rdf:type http://dbpedia.org/class/yago/Whole100003553 + , http://dbpedia.org/ontology/Software + , http://dbpedia.org/class/yago/Object100002684 + , http://dbpedia.org/class/yago/Person100007846 + , http://dbpedia.org/class/yago/YagoLegalActorGeo + , http://dbpedia.org/class/yago/YagoLegalActor + , http://dbpedia.org/class/yago/WikicatLatentVariableModels + , http://dbpedia.org/class/yago/CausalAgent100007347 + , http://dbpedia.org/class/yago/Model110324560 + , http://dbpedia.org/class/yago/LivingThing100004258 + , http://dbpedia.org/class/yago/Organism100004475 + , http://dbpedia.org/class/yago/Assistant109815790 + , http://dbpedia.org/class/yago/Worker109632518 + , http://dbpedia.org/class/yago/PhysicalEntity100001930 +
rdfs:comment 部分的最小二乗回帰(ぶぶんてきさいしょうじじょうかいき、英: partial lea部分的最小二乗回帰(ぶぶんてきさいしょうじじょうかいき、英: partial least squares regression、略称: PLS回帰)は、といくらかの関係を持つ統計的手法の一つである。偏最小二乗回帰または部分最小二乗回帰とも呼ばれる。PLS回帰は、応答変数と説明変数との間の最大分散の超平面を探す代わりに、とを新たな空間に射影することによって線形回帰モデルを探る。XおよびYのデータが共に新たな空間に射影されるため、PLSに分類される手法群は双線形因子モデルとも呼ばれる。部分的最小二乗判別分析(PLS-DA)は、Yが分類である時の派生法である。 PLSは2つの行列(XおよびY)間の基本的関係を探すために用いられる。すなわち、これら2つの空間における共分散構造をモデル化するための潜在変数アプローチである。PLSモデルはY空間における最大多次元分散方向を説明するX空間における多次元方向を探そうと試みる。PLS回帰は予測因子の行列が観測因子よりも変数の数が多い時、そしてXの値の間に多重共線性が存在する時に特に適している。対照的に、標準的な回帰手法はこれらの場合()失敗する。が存在する時に特に適している。対照的に、標準的な回帰手法はこれらの場合()失敗する。 , La regresión de mínimos cuadrados parcialeLa regresión de mínimos cuadrados parciales o Partial least squares regression (PLS regression) es un método estadístico que tiene relación con la , en lugar de encontrar hiperplanos de máxima varianza entre la variable de respuesta y las variables independientes, se encuentra una regresión lineal mediante la proyección de las variables de predicción y las variables observables a un nuevo espacio. Debido a que tanto los datos de X e Y se proyectan a nuevos espacios, la familia de los modelos PLS se conoce como factor de modelos bilineales. Los cuadrados mínimos parciales Análisis discriminante (PLS-DA) es una variante que se utiliza cuando la Y es binaria.nte que se utiliza cuando la Y es binaria. , 偏最小二乘回归(英語:Partial least squares regressio偏最小二乘回归(英語:Partial least squares regression, PLS回归)是一种统计学方法,与主成分回归有关系,但不是寻找响应和独立变量之间最小方差的超平面,而是通过投影和到一个新空间来寻找一个线性回归模型。因为数据X和Y都会投影到新空间,PLS系列的方法都被称为双线性因子模型。當Y是分类數據時有「偏最小二乘判别分析(英語:Partial least squares Discriminant Analysis, PLS-DA)」,是PLS的一个变形。 偏最小二乘用于查找两个矩阵(X和Y)的基本关系,即一个在这两个空间对协方差结构建模的隐变量方法。偏最小二乘模型将试图找到X空间的多维方向来解释Y空间方差最大的多维方向。偏最小二乘回归特别适合当预测矩阵比观测的有更多变量,以及X的值中有多重共线性的时候。相比之下,标准的回归在这些情况下不见效(除非它是吉洪诺夫正则化)。 偏最小二乘算法被用在中, 一个建立隐变量(原因不能没有实验和拟实验来确定,但一个典型的模型会基于之前理论假设(隐变量影响衡量指标的表现)的隐变量模型)这种技术是的一种形式,与经典方法不同的是基于组件而不是基于协方差。现)的隐变量模型)这种技术是的一种形式,与经典方法不同的是基于组件而不是基于协方差。 , La régression des moindres carrés partielsLa régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS (« Partial Least Squares regression » et/ou « Projection to Latent Structure »). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression. Plus précisément, la régression PLS cherche des composantes, appelées variables latentes, liées à X et à Y, servant à exprimer la régression de Y sur ces variables et finalement de Y sur X.ur ces variables et finalement de Y sur X. , Partial least squares regression (PLS regrPartial least squares regression (PLS regression) is a statistical method that bears some relation to principal components regression; instead of finding hyperplanes of maximum variance between the response and independent variables, it finds a linear regression model by projecting the predicted variables and the observable variables to a new space. Because both the X and Y data are projected to new spaces, the PLS family of methods are known as bilinear factor models. Partial least squares discriminant analysis (PLS-DA) is a variant used when the Y is categorical. a variant used when the Y is categorical. , Regression der partiellen kleinsten QuadraRegression der partiellen kleinsten Quadrate (Partielle Kleinste-Quadrate-Regression, PLS) ist ein Regressionsmodell, ähnlich zu Hauptkomponentenregression, bei dem die Eingabe iterativ in latente Räume projiziert wird, welche möglichst korreliert mit dem Ausgaberaum sind. Aus diesen Projektionen werden mehrere hierarchische lineare Regressionsmodelle aufgebaut.sche lineare Regressionsmodelle aufgebaut. , La regressió de mínims quadrats parcials, La regressió de mínims quadrats parcials, (en anglès partial least squares, PLS), és un mètode estadístic multivariant que analitza la relació entre variables per trobar un subespai de variables latents que sintetize les variables de predicció o independents (X) amb l'objectiu d'entendre la dispersió de les variables dependents o observades (Y) de forma lineal.pendents o observades (Y) de forma lineal.
rdfs:label Regression der partiellen kleinsten Quadrate , 部分的最小二乗回帰 , Regressió de mínims quadrats parcials , 偏最小二乘回归 , Partial least squares regression , Régression des moindres carrés partiels , Regresión de mínimos cuadrados parciales
hide properties that link here 
http://dbpedia.org/resource/Herman_Wold + http://dbpedia.org/ontology/knownFor
http://dbpedia.org/resource/PLS + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Partial_least_squares + , http://dbpedia.org/resource/PLSR + , http://dbpedia.org/resource/Partial_Least_Squares_Regression + , http://dbpedia.org/resource/Partial_Linear_Squares + , http://dbpedia.org/resource/Partial_linear_squares + , http://dbpedia.org/resource/Projection_to_latent_structures + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Linear_least_squares + , http://dbpedia.org/resource/Metabolomics + , http://dbpedia.org/resource/Principal_component_regression + , http://dbpedia.org/resource/Multivariate_statistics + , http://dbpedia.org/resource/Geometric_morphometrics_in_anthropology + , http://dbpedia.org/resource/List_of_statistics_articles + , http://dbpedia.org/resource/Quantitative_structure%E2%80%93activity_relationship + , http://dbpedia.org/resource/Linear_regression + , http://dbpedia.org/resource/List_of_algorithms + , http://dbpedia.org/resource/SmartPLS + , http://dbpedia.org/resource/Herman_Wold + , http://dbpedia.org/resource/Olive_oil_acidity + , http://dbpedia.org/resource/WarpPLS + , http://dbpedia.org/resource/Agnar_H%C3%B6skuldsson + , http://dbpedia.org/resource/Partial_least_squares + , http://dbpedia.org/resource/Latent_and_observable_variables + , http://dbpedia.org/resource/Near-infrared_spectroscopy + , http://dbpedia.org/resource/Remote_sensing_%28geology%29 + , http://dbpedia.org/resource/Feature_selection + , http://dbpedia.org/resource/Causal_inference + , http://dbpedia.org/resource/Structural_equation_modeling + , http://dbpedia.org/resource/Canonical_correlation + , http://dbpedia.org/resource/Multicollinearity + , http://dbpedia.org/resource/Approximate_Bayesian_computation + , http://dbpedia.org/resource/PLS + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Gradient-enhanced_kriging + , http://dbpedia.org/resource/Chemometrics + , http://dbpedia.org/resource/PLSR + , http://dbpedia.org/resource/Partial_Least_Squares_Regression + , http://dbpedia.org/resource/Partial_Linear_Squares + , http://dbpedia.org/resource/Partial_linear_squares + , http://dbpedia.org/resource/Projection_to_latent_structures + , http://dbpedia.org/resource/Multiomics + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Partial_least_squares_regression + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Partial_least_squares_regression + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.