Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/N-gram
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/N-gram
http://dbpedia.org/ontology/abstract Donada una seqüència, anomenem n-grama a uDonada una seqüència, anomenem n-grama a una subseqüència de n elements. Els elements poden ser tant lletres com paraules. S'utilitzen en diverses tasques de la traducció automàtica estadística, i també en altres camps de la investigació científica com l'anàlisi de seqüències genètiques. Anomenem unigrama al n-grama quan n=1, bigrama amb n=2, trigrama amb n=3, etc. Els models de n-grames també es coneixen com a "Models de Markov no-ocults", ja que es coneixen les probabilitats de transició entre els diferents estats.s de transició entre els diferents estats. , N-grama bat sekuentzia baten barne dagoen N-grama bat sekuentzia baten barne dagoen eta n elementuk osatutako azpi-sekuentzia da. N-gramak lengoaia naturalen prozesamendu estatistikoan eta sekuentzia genetikoen analisian erabili ohi dira. Elementuok mota ezberdinetakoak izan daitezke: letrak edo hitzak, esate baterako. 1 neurriko n-gramei unigrama deritze; 2 neurrikoei ; 3 neurrikoei ; eta 4tik gorakoei n-grama edo (n-1) ordenako Markoven eredu deitzen zaie, n hori zenbakiagatik ordeztu daitekeelarik (4-grama, 5-grama,...).eztu daitekeelarik (4-grama, 5-grama,...). , N-gram je definován jako sled n po sobě jdN-gram je definován jako sled n po sobě jdoucích položek z dané posloupnosti. Ze sémantického pohledu může být tato posloupnost buď posloupností slov nebo písmen, nebo čehokoli jiného. V praxi se častěji vyskytují n-gramy jako sled slov. Sled dvou po sobě jdoucích slov bývá často označován jako bigram, pro sled tří položek je zažitý pojem . Od čtyř a výše se používá označení n-gram, kde n je nahrazeno počtem za sebou jdoucích elementů. Při řešení úloh z oblasti počítačového zpracování přirozeného jazyka se na reprezentaci textu využívají ve většině případů slova nebo n-gramy slov.e většině případů slova nebo n-gramy slov. , Ein N-Gramm, manchmal auch Q-Gramm genanntEin N-Gramm, manchmal auch Q-Gramm genannt, ist das Ergebnis der Zerlegung eines Textes in Fragmente. Der Text wird dabei zerlegt, und jeweils aufeinanderfolgende Fragmente werden als N-Gramm zusammengefasst. Die Fragmente können Buchstaben, Phoneme, Wörter und Ähnliches sein. N-Gramme finden Anwendung in der Kryptologie und Korpuslinguistik, speziell auch in der Computerlinguistik, Quantitativen Linguistik und Computerforensik. Einzelne Wörter, ganze Sätze oder komplette Texte werden hierbei zur Analyse oder statistischen Auswertung in N-Gramme zerlegt und in Datensätzen zusammengefasst. Drei Datensätze von N-Grammen aus Google Books mit den Stichtagen Juli 2009, Juli 2012 und Februar 2020 wurden mit einer Weboberfläche und grafischer Auswertung in Form von Diagrammen versehen und unter dem Namen Google Books Ngram Viewer ins Netz gestellt.ogle Books Ngram Viewer ins Netz gestellt. , Un n-gramme est une sous-séquence de n éléUn n-gramme est une sous-séquence de n éléments construite à partir d'une séquence donnée. L'idée semble provenir des travaux de Claude Shannon en théorie de l'information. Son idée était que, à partir d'une séquence de lettres donnée (par exemple « par exemple ») il est possible d'obtenir la fonction de vraisemblance de l'apparition de la lettre suivante. À partir d'un corpus d'apprentissage, il est facile de construire une distribution de probabilité pour la prochaine lettre avec un historique de taille . Cette modélisation correspond en fait à un modèle de Markov d'ordre où seules les dernières observations sont utilisées pour la prédiction de la lettre suivante. Ainsi un bigramme est un modèle de Markov d'ordre 2. À titre d'exemple, le bi-gramme le plus fréquent de la langue française est « de », comme dans l'article « de », mais aussi comme dans les mots « demain », « monde » ou « moderne ». En traitement du langage naturel il est fréquent de parler de N-gramme pour désigner des séquences de mots et non de lettres.r des séquences de mots et non de lettres. , N-gram – model językowy stosowany w rozpozN-gram – model językowy stosowany w rozpoznawaniu mowy. N-gramy opierają się na statystykach i służą do przewidywania kolejnego elementu sekwencji. Stosowane są głównie do słów, jak również na przykład do fonemów (a także do zastosowań niezwiązanych z lingwistyką, jak np. ). Zastosowanie n-gramów wymaga zgromadzenia odpowiednio dużego zasobu danych statystycznych – korpusu. Utworzenie modelu n-gramowego zaczyna się od zliczania wystąpień sekwencji o ustalonej długości n w istniejących zasobach językowych. Zwykle analizuje się całe teksty i zlicza wszystkie pojedyncze wystąpienia (1-gramy, unigramy), dwójki (2-gramy, bigramy) i trójki (3-gramy, trigramy). Aby uzyskać 4-gramy słów potrzebnych jest bardzo dużo danych językowych, co szczególnie dla języka polskiego jest trudne do zrealizowania. Po przeanalizowaniu odpowiednio dużej ilości tekstu zamienia się liczbę wystąpień na prawdopodobieństwa poprzez normalizację. Umożliwia to predykcje kolejnego elementu na podstawie sekwencji n dotychczasowych. Dla języka polskiego przeanalizowanie tekstów zawierających 300 000 000 słów daje dobry model 1-gramowy i satysfakcjonujący 2-gramowy. W celu utworzenia wiarygodnego modelu 3-gramowego potrzebne są dużo większe zasoby. Duża ilość przeanalizowanego tekstu podnosi jakość modelu, aczkolwiek istnieją także metody umożliwiające ulepszenie n-gramowych modeli bez dodatkowych danych, w oparciu o wygładzanie zebranych statystyk. Głównymi zaletami n-gramów są prostota i skalowalność. Poprzez zmianę n można tym samym schematem otrzymywać zarówno modele niewymagające wielu danych treningowych, ale niedające dużej mocy predykcyjnej, jak i modele wymagające wielu danych, ale oferujące duże możliwości predykcyjne.ale oferujące duże możliwości predykcyjne. , N-грамма — последовательность из n элементN-грамма — последовательность из n элементов. С семантической точки зрения, это может быть последовательность звуков, слогов, слов или букв. На практике чаще встречается N-грамма как ряд слов, устойчивые словосочетания называют коллокацией. Последовательность из двух последовательных элементов часто называют биграмма, последовательность из трёх элементов называется триграмма. Не менее четырёх и выше элементов обозначаются как N-грамма, N заменяется на количество последовательных элементов. на количество последовательных элементов. , N-грама — послідовність з n елементів. З сN-грама — послідовність з n елементів. З семантичної точки зору, це може бути послідовність звуків, складів, слів або букв. На практиці частіше зустрічається N-грами як ряд слів, стійкі словосполучення називають колокацію. Послідовність з двох послідовних елементів часто називають біграм, послідовність з трьох елементів називається триграма. Не менш чотирьох і вище елементів позначаються як N-грами, N замінюється на кількість послідовних елементів.юється на кількість послідовних елементів. , n元语法(英語:n-gram)指文本中连续出现的n个语词。n元语法模型是基于(n-1)阶马尔可夫链的一种概率语言模型,通过n个语词出现的概率来推断语句的结构。这一模型被广泛应用于概率论、通信理论、计算语言学(如基于统计的自然语言处理)、计算生物学(如序列分析)、数据压缩等领域。 当n分别为1、2、3时,又分别称为一元语法(unigram)、二元语法(bigram)与三元语法(trigram)。 , Un n-gramma è una sottosequenza di n elemeUn n-gramma è una sottosequenza di n elementi di una data sequenza. Secondo l'applicazione, gli elementi in questione possono essere fonemi, sillabe, lettere, parole, ecc. Un n-gramma di lunghezza 1 è chiamato "unigramma", di lunghezza 2 "digramma", di lunghezza 3 "trigramma" e, da lunghezza 4 in poi, "n-gramma". Alcuni modelli del linguaggio costruiti a partire da n-grammi sono catene di Markov di ordine n-1.rammi sono catene di Markov di ordine n-1. , Un n-grama es una subsecuencia de n elemenUn n-grama es una subsecuencia de n elementos de una secuencia dada. El estudio de los n-gramas es interesante en diversas áreas del conocimiento. Por ejemplo, es usado en el estudio del lenguaje natural, en el estudio de las secuencias de genes y en el estudio de las secuencias de aminoácidos. La forma en la que extraemos los gramas se tiene que adaptar al ámbito que estamos estudiando y al objetivo que tenemos en mente. Por ejemplo en el estudio del lenguaje natural podríamos construir los n-gramas sobre la base de distintos tipos de elementos como por ejemplo fonemas, sílabas, letras, palabras. Algunos sistemas procesan las cadenas de texto eliminando los espacios. Otros no. En casi todos los casos, los signos de puntuación se eliminan durante el preproceso. Se puede usar gramas para casi todos los ámbitos. Por ejemplo, se han usado n-gramas para extraer características comunes de grandes conjuntos de imágenes de la Tierra tomadas desde satélite, y para determinar a qué parte de la Tierra pertenece una imagen dada. Para ciertos valores de n los n-gramas tienen nombres especiales. Por ejemplo: * Los 1-gramas también se llaman . * Los 2-gramas también se llaman bigramas o digramas. * Los 3-gramas también se llaman .ramas. * Los 3-gramas también se llaman . , In the fields of computational linguisticsIn the fields of computational linguistics and probability, an n-gram (sometimes also called Q-gram) is a contiguous sequence of n items from a given sample of text or speech. The items can be phonemes, syllables, letters, words or base pairs according to the application. The n-grams typically are collected from a text or speech corpus. When the items are words, n-grams may also be called shingles. Using Latin numerical prefixes, an n-gram of size 1 is referred to as a "unigram"; size 2 is a "bigram" (or, less commonly, a "digram"); size 3 is a "trigram". English cardinal numbers are sometimes used, e.g., "four-gram", "five-gram", and so on. In computational biology, a polymer or oligomer of a known size is called a k-mer instead of an n-gram, with specific names using Greek numerical prefixes such as "monomer", "dimer", "trimer", "tetramer", "pentamer", etc., or English cardinal numbers, "one-mer", "two-mer", "three-mer", etc.s, "one-mer", "two-mer", "three-mer", etc. , Nos campos de linguística computacional e Nos campos de linguística computacional e probabilidade, um n-grama é uma sequência contígua de n itens de uma determinada amostra de texto ou fala. Os itens podem ser fonemas, sílabas, letras, palavras ou pares de bases de acordo com a aplicação. Os n-gramas normalmente são coletados de um corpus de texto ou fala. Usando prefixos numéricos latinos, um n -grama de tamanho 1 é referido como um "unigrama"; o tamanho 2 é um " bigrama " (ou um "digrama"); o tamanho 3 é um " trigrama ". Os números cardinais são às vezes usados, por exemplo, "quatro grama", "cinco grama" e assim por diante. Em biologia computacional, um polímero ou oligômero de tamanho conhecido é chamado k-mero, em vez de n-grama, com nomes específicos usando prefixos numéricos gregos, como "monômero", "dímero", "trímero", "tetrâmero", "pentamer".mero", "trímero", "tetrâmero", "pentamer".
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/LARGER_FONT_VERSION_Six_n-grams_frequently_found_in_titles_of_publications_about_Coronavirus_disease_2019%2C_as_of_7_May_2020.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink http://googleresearch.blogspot.com/2006/08/all-our-n-gram-are-belong-to-you.html + , http://www.w3.org/TR/ngram-spec/ + , https://github.com/OpenRefine/OpenRefine/wiki/Clustering-In-Depth/ + , http://www.peachnote.com/ + , http://www.ngrams.info/ + , https://www.uvic.ca/engineering/ece/isot/assets/docs/Authorship_Verification_for_Short_Messages_using_Stylometry.pdf + , http://www.cs.columbia.edu/~mcollins/courses/nlp2011/notes/lm.pdf + , http://data.statoperator.com/ + , https://www.researchgate.net/publication/262176888 + , https://books.google.com/ngrams + , https://www.microsoft.com/en-us/research/project/web-n-gram-services/ +
http://dbpedia.org/ontology/wikiPageID 986182
http://dbpedia.org/ontology/wikiPageLength 30826
http://dbpedia.org/ontology/wikiPageRevisionID 1116515858
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/MinHash + , http://dbpedia.org/resource/G-score + , http://dbpedia.org/resource/File:LARGER_FONT_VERSION_Six_n-grams_frequently_found_in_titles_of_publications_about_Coronavirus_disease_2019%2C_as_of_7_May_2020.svg + , http://dbpedia.org/resource/Pseudocount + , http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Information_theory + , http://dbpedia.org/resource/Kneser%E2%80%93Ney_smoothing + , http://dbpedia.org/resource/Witten%E2%80%93Bell_discounting + , http://dbpedia.org/resource/Greek_numerical_prefixes + , http://dbpedia.org/resource/String_kernel + , http://dbpedia.org/resource/Katz%27s_back-off_model + , http://dbpedia.org/resource/Computational_linguistics + , http://dbpedia.org/resource/Sample_%28statistics%29 + , http://dbpedia.org/resource/Likelihood_function + , http://dbpedia.org/resource/Plagiarism_detection + , http://dbpedia.org/resource/Communication_theory + , http://dbpedia.org/resource/Feature_extraction + , http://dbpedia.org/resource/Collocation + , http://dbpedia.org/resource/Information_retrieval + , http://dbpedia.org/resource/Prior_distribution + , http://dbpedia.org/resource/G-test + , http://dbpedia.org/resource/Word + , http://dbpedia.org/resource/Space%E2%80%93time_tradeoff + , http://dbpedia.org/resource/Base_pair + , http://dbpedia.org/resource/Computational_biology + , http://dbpedia.org/resource/Corpus_of_Contemporary_American_English + , http://dbpedia.org/resource/Category:Computational_linguistics + , http://dbpedia.org/resource/Markov_chain + , http://dbpedia.org/resource/Character_%28computing%29 + , http://dbpedia.org/resource/Amino_acid + , http://dbpedia.org/resource/Good%E2%80%93Turing_frequency_estimation + , http://dbpedia.org/resource/Syllable + , http://dbpedia.org/resource/Hidden_Markov_model + , http://dbpedia.org/resource/Smoothing + , http://dbpedia.org/resource/Categorical_distribution + , http://dbpedia.org/resource/Cosine_similarity + , http://dbpedia.org/resource/Speech_corpus + , http://dbpedia.org/resource/Multinomial_distribution + , http://dbpedia.org/resource/K-mer + , http://dbpedia.org/resource/Claude_Shannon + , http://dbpedia.org/resource/Linear_interpolation + , http://dbpedia.org/resource/Wh-movement + , http://dbpedia.org/resource/Cardinal_number_%28linguistics%29 + , http://dbpedia.org/resource/Bayesian_inference + , http://dbpedia.org/resource/Dependency_grammar + , http://dbpedia.org/resource/Category:Probabilistic_models + , http://dbpedia.org/resource/Trigram + , http://dbpedia.org/resource/Text_corpus + , http://dbpedia.org/resource/Likelihood + , http://dbpedia.org/resource/Category:Language_modeling + , http://dbpedia.org/resource/Weighted_mean + , http://dbpedia.org/resource/Phonemes + , http://dbpedia.org/resource/Protein_sequencing + , http://dbpedia.org/resource/BLAST + , http://dbpedia.org/resource/Sequence_analysis + , http://dbpedia.org/resource/Rule_of_succession + , http://dbpedia.org/resource/Phoneme + , http://dbpedia.org/resource/DNA_sequencing + , http://dbpedia.org/resource/Letter_%28alphabet%29 + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Kernel_trick + , http://dbpedia.org/resource/Category:Natural_language_processing + , http://dbpedia.org/resource/Probability_distribution + , http://dbpedia.org/resource/Additive_smoothing + , http://dbpedia.org/resource/Probability + , http://dbpedia.org/resource/Vector_space + , http://dbpedia.org/resource/Longest_common_substring_problem + , http://dbpedia.org/resource/Category:Corpus_linguistics + , http://dbpedia.org/resource/PPM_compression_algorithm + , http://dbpedia.org/resource/Machine_translation + , http://dbpedia.org/resource/Language_identification + , http://dbpedia.org/resource/Posterior_distribution + , http://dbpedia.org/resource/Feature_engineering + , http://dbpedia.org/resource/Whitespace_character + , http://dbpedia.org/resource/Intelligent_character_recognition + , http://dbpedia.org/resource/Character_%28symbol%29 + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Grapheme + , http://dbpedia.org/resource/Polymer + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Cryptanalysis + , http://dbpedia.org/resource/Markov_model + , http://dbpedia.org/resource/Data_compression + , http://dbpedia.org/resource/Natural_language_processing + , http://dbpedia.org/resource/Latin_numerical_prefixes + , http://dbpedia.org/resource/Z-score + , http://dbpedia.org/resource/N-tuple + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Optical_character_recognition + , http://dbpedia.org/resource/Dissociated_press + , http://dbpedia.org/resource/Good%E2%80%93Turing_discounting + , http://dbpedia.org/resource/Bigram + , http://dbpedia.org/resource/Oligomer + , http://dbpedia.org/resource/Data_sparsity_problem + , http://dbpedia.org/resource/Category:Speech_recognition + , http://dbpedia.org/resource/Intelligent_Character_Recognition + , http://dbpedia.org/resource/Autocorrect +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:ISBN + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Mvar + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:More_footnotes + , http://dbpedia.org/resource/Template:Use_dmy_dates + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:For_multi + , http://dbpedia.org/resource/Template:Natural_Language_Processing + , http://dbpedia.org/resource/Template:Cite_conference + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Who + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:Distinguish +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Language_modeling + , http://dbpedia.org/resource/Category:Computational_linguistics + , http://dbpedia.org/resource/Category:Corpus_linguistics + , http://dbpedia.org/resource/Category:Probabilistic_models + , http://dbpedia.org/resource/Category:Natural_language_processing + , http://dbpedia.org/resource/Category:Speech_recognition +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Sequence +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/N-gram?oldid=1116515858&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/LARGER_FONT_VERSION_Six_n-grams_frequently_found_in_titles_of_publications_about_Coronavirus_disease_2019%2C_as_of_7_May_2020.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/N-gram +
owl:differentFrom http://dbpedia.org/resource/Engram_%28disambiguation%29 +
owl:sameAs http://pl.dbpedia.org/resource/N-gram + , http://rdf.freebase.com/ns/m.03wv8s + , http://es.dbpedia.org/resource/N-grama + , http://hi.dbpedia.org/resource/%E0%A4%8F%E0%A4%A8-%E0%A4%97%E0%A5%8D%E0%A4%B0%E0%A4%BE%E0%A4%AE + , http://eu.dbpedia.org/resource/N-grama + , http://no.dbpedia.org/resource/N-gram + , http://ru.dbpedia.org/resource/N-%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B0 + , http://sk.dbpedia.org/resource/N-gram + , http://tr.dbpedia.org/resource/N-gram + , http://fr.dbpedia.org/resource/N-gramme + , http://www.wikidata.org/entity/Q94489 + , http://cs.dbpedia.org/resource/N-gram + , http://zh.dbpedia.org/resource/N%E5%85%83%E8%AF%AD%E6%B3%95 + , https://global.dbpedia.org/id/55XEU + , http://fa.dbpedia.org/resource/%D8%A7%D9%86-%DA%AF%D8%B1%D9%85 + , http://dbpedia.org/resource/N-gram + , http://vi.dbpedia.org/resource/N-gram + , http://pt.dbpedia.org/resource/N-grama + , http://uk.dbpedia.org/resource/N-%D0%B3%D1%80%D0%B0%D0%BC%D0%B0 + , http://ca.dbpedia.org/resource/N-grama + , http://fi.dbpedia.org/resource/N-grammi + , http://it.dbpedia.org/resource/N-gramma + , http://yago-knowledge.org/resource/N-gram + , http://de.dbpedia.org/resource/N-Gramm +
rdf:type http://dbpedia.org/class/yago/Algorithm105847438 + , http://dbpedia.org/class/yago/Rule105846932 + , http://dbpedia.org/class/yago/WikicatAlgorithms + , http://dbpedia.org/class/yago/Event100029378 + , http://dbpedia.org/class/yago/WikicatCryptographicAttacks + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/Operation100955060 + , http://dbpedia.org/class/yago/Activity100407535 + , http://dbpedia.org/class/yago/Attack100972621 + , http://dbpedia.org/class/yago/Act100030358 + , http://dbpedia.org/class/yago/YagoPermanentlyLocatedEntity + , http://dbpedia.org/class/yago/Procedure101023820 + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 +
rdfs:comment Ein N-Gramm, manchmal auch Q-Gramm genanntEin N-Gramm, manchmal auch Q-Gramm genannt, ist das Ergebnis der Zerlegung eines Textes in Fragmente. Der Text wird dabei zerlegt, und jeweils aufeinanderfolgende Fragmente werden als N-Gramm zusammengefasst. Die Fragmente können Buchstaben, Phoneme, Wörter und Ähnliches sein. N-Gramme finden Anwendung in der Kryptologie und Korpuslinguistik, speziell auch in der Computerlinguistik, Quantitativen Linguistik und Computerforensik. Einzelne Wörter, ganze Sätze oder komplette Texte werden hierbei zur Analyse oder statistischen Auswertung in N-Gramme zerlegt und in Datensätzen zusammengefasst. Drei Datensätze von N-Grammen aus Google Books mit den Stichtagen Juli 2009, Juli 2012 und Februar 2020 wurden mit einer Weboberfläche und grafischer Auswertung in Form von Diagrammen versehen und unter in Form von Diagrammen versehen und unter , N-грамма — последовательность из n элементN-грамма — последовательность из n элементов. С семантической точки зрения, это может быть последовательность звуков, слогов, слов или букв. На практике чаще встречается N-грамма как ряд слов, устойчивые словосочетания называют коллокацией. Последовательность из двух последовательных элементов часто называют биграмма, последовательность из трёх элементов называется триграмма. Не менее четырёх и выше элементов обозначаются как N-грамма, N заменяется на количество последовательных элементов. на количество последовательных элементов. , Un n-grama es una subsecuencia de n elemenUn n-grama es una subsecuencia de n elementos de una secuencia dada. El estudio de los n-gramas es interesante en diversas áreas del conocimiento. Por ejemplo, es usado en el estudio del lenguaje natural, en el estudio de las secuencias de genes y en el estudio de las secuencias de aminoácidos. Se puede usar gramas para casi todos los ámbitos. Por ejemplo, se han usado n-gramas para extraer características comunes de grandes conjuntos de imágenes de la Tierra tomadas desde satélite, y para determinar a qué parte de la Tierra pertenece una imagen dada.te de la Tierra pertenece una imagen dada. , n元语法(英語:n-gram)指文本中连续出现的n个语词。n元语法模型是基于(n-1)阶马尔可夫链的一种概率语言模型,通过n个语词出现的概率来推断语句的结构。这一模型被广泛应用于概率论、通信理论、计算语言学(如基于统计的自然语言处理)、计算生物学(如序列分析)、数据压缩等领域。 当n分别为1、2、3时,又分别称为一元语法(unigram)、二元语法(bigram)与三元语法(trigram)。 , Un n-gramma è una sottosequenza di n elemeUn n-gramma è una sottosequenza di n elementi di una data sequenza. Secondo l'applicazione, gli elementi in questione possono essere fonemi, sillabe, lettere, parole, ecc. Un n-gramma di lunghezza 1 è chiamato "unigramma", di lunghezza 2 "digramma", di lunghezza 3 "trigramma" e, da lunghezza 4 in poi, "n-gramma". Alcuni modelli del linguaggio costruiti a partire da n-grammi sono catene di Markov di ordine n-1.rammi sono catene di Markov di ordine n-1. , Nos campos de linguística computacional e Nos campos de linguística computacional e probabilidade, um n-grama é uma sequência contígua de n itens de uma determinada amostra de texto ou fala. Os itens podem ser fonemas, sílabas, letras, palavras ou pares de bases de acordo com a aplicação. Os n-gramas normalmente são coletados de um corpus de texto ou fala.o coletados de um corpus de texto ou fala. , N-gram je definován jako sled n po sobě jdN-gram je definován jako sled n po sobě jdoucích položek z dané posloupnosti. Ze sémantického pohledu může být tato posloupnost buď posloupností slov nebo písmen, nebo čehokoli jiného. V praxi se častěji vyskytují n-gramy jako sled slov. Sled dvou po sobě jdoucích slov bývá často označován jako bigram, pro sled tří položek je zažitý pojem . Od čtyř a výše se používá označení n-gram, kde n je nahrazeno počtem za sebou jdoucích elementů. Při řešení úloh z oblasti počítačového zpracování přirozeného jazyka se na reprezentaci textu využívají ve většině případů slova nebo n-gramy slov.e většině případů slova nebo n-gramy slov. , Un n-gramme est une sous-séquence de n éléUn n-gramme est une sous-séquence de n éléments construite à partir d'une séquence donnée. L'idée semble provenir des travaux de Claude Shannon en théorie de l'information. Son idée était que, à partir d'une séquence de lettres donnée (par exemple « par exemple ») il est possible d'obtenir la fonction de vraisemblance de l'apparition de la lettre suivante. À partir d'un corpus d'apprentissage, il est facile de construire une distribution de probabilité pour la prochaine lettre avec un historique de taille . Cette modélisation correspond en fait à un modèle de Markov d'ordre où seules les dernières observations sont utilisées pour la prédiction de la lettre suivante. Ainsi un bigramme est un modèle de Markov d'ordre 2.igramme est un modèle de Markov d'ordre 2. , N-грама — послідовність з n елементів. З сN-грама — послідовність з n елементів. З семантичної точки зору, це може бути послідовність звуків, складів, слів або букв. На практиці частіше зустрічається N-грами як ряд слів, стійкі словосполучення називають колокацію. Послідовність з двох послідовних елементів часто називають біграм, послідовність з трьох елементів називається триграма. Не менш чотирьох і вище елементів позначаються як N-грами, N замінюється на кількість послідовних елементів.юється на кількість послідовних елементів. , Donada una seqüència, anomenem n-grama a uDonada una seqüència, anomenem n-grama a una subseqüència de n elements. Els elements poden ser tant lletres com paraules. S'utilitzen en diverses tasques de la traducció automàtica estadística, i també en altres camps de la investigació científica com l'anàlisi de seqüències genètiques. Anomenem unigrama al n-grama quan n=1, bigrama amb n=2, trigrama amb n=3, etc. Els models de n-grames també es coneixen com a "Models de Markov no-ocults", ja que es coneixen les probabilitats de transició entre els diferents estats.s de transició entre els diferents estats. , In the fields of computational linguisticsIn the fields of computational linguistics and probability, an n-gram (sometimes also called Q-gram) is a contiguous sequence of n items from a given sample of text or speech. The items can be phonemes, syllables, letters, words or base pairs according to the application. The n-grams typically are collected from a text or speech corpus. When the items are words, n-grams may also be called shingles.ords, n-grams may also be called shingles. , N-gram – model językowy stosowany w rozpozN-gram – model językowy stosowany w rozpoznawaniu mowy. N-gramy opierają się na statystykach i służą do przewidywania kolejnego elementu sekwencji. Stosowane są głównie do słów, jak również na przykład do fonemów (a także do zastosowań niezwiązanych z lingwistyką, jak np. ). Głównymi zaletami n-gramów są prostota i skalowalność. Poprzez zmianę n można tym samym schematem otrzymywać zarówno modele niewymagające wielu danych treningowych, ale niedające dużej mocy predykcyjnej, jak i modele wymagające wielu danych, ale oferujące duże możliwości predykcyjne.ale oferujące duże możliwości predykcyjne. , N-grama bat sekuentzia baten barne dagoen N-grama bat sekuentzia baten barne dagoen eta n elementuk osatutako azpi-sekuentzia da. N-gramak lengoaia naturalen prozesamendu estatistikoan eta sekuentzia genetikoen analisian erabili ohi dira. Elementuok mota ezberdinetakoak izan daitezke: letrak edo hitzak, esate baterako. 1 neurriko n-gramei unigrama deritze; 2 neurrikoei ; 3 neurrikoei ; eta 4tik gorakoei n-grama edo (n-1) ordenako Markoven eredu deitzen zaie, n hori zenbakiagatik ordeztu daitekeelarik (4-grama, 5-grama,...).eztu daitekeelarik (4-grama, 5-grama,...).
rdfs:label N-gramma , N-gram , N-grama , N元语法 , N-gramme , N-Gramm , N-грама , N-грамма
hide properties that link here 
http://dbpedia.org/resource/Claude_Shannon + http://dbpedia.org/ontology/knownFor
http://dbpedia.org/resource/N- + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Applications_of_n-gram_models + , http://dbpedia.org/resource/4-gram + , http://dbpedia.org/resource/5-gram + , http://dbpedia.org/resource/Five-gram + , http://dbpedia.org/resource/Four-gram + , http://dbpedia.org/resource/Syntactic_n-gram + , http://dbpedia.org/resource/Skip-gram + , http://dbpedia.org/resource/Skip-grams + , http://dbpedia.org/resource/N-gram_model + , http://dbpedia.org/resource/Ngrams + , http://dbpedia.org/resource/Skipgram + , http://dbpedia.org/resource/N-grams + , http://dbpedia.org/resource/NGRAM + , http://dbpedia.org/resource/Q-gram + , http://dbpedia.org/resource/Unigram + , http://dbpedia.org/resource/N_gram + , http://dbpedia.org/resource/N_grams + , http://dbpedia.org/resource/Ngram + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Chargaff%27s_rules + , http://dbpedia.org/resource/Mark_Davies_%28linguist%29 + , http://dbpedia.org/resource/Substring_index + , http://dbpedia.org/resource/Claude_Shannon + , http://dbpedia.org/resource/CRM114_%28program%29 + , http://dbpedia.org/resource/Microsoft_Translator + , http://dbpedia.org/resource/RetrievalWare + , http://dbpedia.org/resource/Frederick_Jelinek + , http://dbpedia.org/resource/Trigram + , http://dbpedia.org/resource/Bag-of-words_model + , http://dbpedia.org/resource/Latent_semantic_analysis + , http://dbpedia.org/resource/Katz%27s_back-off_model + , http://dbpedia.org/resource/Kneser%E2%80%93Ney_smoothing + , http://dbpedia.org/resource/Bigram + , http://dbpedia.org/resource/Applications_of_n-gram_models + , http://dbpedia.org/resource/Collocation_extraction + , http://dbpedia.org/resource/Linguistic_sequence_complexity + , http://dbpedia.org/resource/4-gram + , http://dbpedia.org/resource/5-gram + , http://dbpedia.org/resource/Five-gram + , http://dbpedia.org/resource/Four-gram + , http://dbpedia.org/resource/Engram + , http://dbpedia.org/resource/Syntactic_n-gram + , http://dbpedia.org/resource/Skip-gram + , http://dbpedia.org/resource/Skip-grams + , http://dbpedia.org/resource/N-gram_model + , http://dbpedia.org/resource/Trigram_tagger + , http://dbpedia.org/resource/Ngrams + , http://dbpedia.org/resource/Skipgram + , http://dbpedia.org/resource/N-grams + , http://dbpedia.org/resource/NGRAM + , http://dbpedia.org/resource/Q-gram + , http://dbpedia.org/resource/Unigram + , http://dbpedia.org/resource/N_gram + , http://dbpedia.org/resource/N_grams + , http://dbpedia.org/resource/Multimodal_sentiment_analysis + , http://dbpedia.org/resource/Sketch_Engine + , http://dbpedia.org/resource/Suffix_tree_clustering + , http://dbpedia.org/resource/CMU_Sphinx + , http://dbpedia.org/resource/Longest_common_substring_problem + , http://dbpedia.org/resource/Stemming + , http://dbpedia.org/resource/Trigram_search + , http://dbpedia.org/resource/Statistical_machine_translation + , http://dbpedia.org/resource/Language_identification + , http://dbpedia.org/resource/Paraphrasing_%28computational_linguistics%29 + , http://dbpedia.org/resource/PAQ + , http://dbpedia.org/resource/Evaluation_of_machine_translation + , http://dbpedia.org/resource/Collocation + , http://dbpedia.org/resource/Spell_checker + , http://dbpedia.org/resource/Approximate_string_matching + , http://dbpedia.org/resource/LanguageTool + , http://dbpedia.org/resource/Culturomics + , http://dbpedia.org/resource/Prediction_by_partial_matching + , http://dbpedia.org/resource/Edward_III_%28play%29 + , http://dbpedia.org/resource/ML.NET + , http://dbpedia.org/resource/Online_content_analysis + , http://dbpedia.org/resource/Factored_language_model + , http://dbpedia.org/resource/Ngram + , http://dbpedia.org/resource/JSTOR + , http://dbpedia.org/resource/Speech_recognition + , http://dbpedia.org/resource/Natural_Language_Toolkit + , http://dbpedia.org/resource/Bayesian_programming + , http://dbpedia.org/resource/Content_similarity_detection + , http://dbpedia.org/resource/Cache_language_model + , http://dbpedia.org/resource/Automatic_summarization + , http://dbpedia.org/resource/W-shingling + , http://dbpedia.org/resource/ROUGE_%28metric%29 + , http://dbpedia.org/resource/Philippine_Society_and_Revolution + , http://dbpedia.org/resource/Code_stylometry + , http://dbpedia.org/resource/Vowpal_Wabbit + , http://dbpedia.org/resource/General_Index_%28academia%29 + , http://dbpedia.org/resource/Node2vec + , http://dbpedia.org/resource/Spaced_seed + , http://dbpedia.org/resource/Google_Ngram_Viewer + , http://dbpedia.org/resource/Native-language_identification + , http://dbpedia.org/resource/N- + , http://dbpedia.org/resource/Federated_search + , http://dbpedia.org/resource/Entity_linking + , http://dbpedia.org/resource/Cliodynamics + , http://dbpedia.org/resource/List_of_datasets_for_machine-learning_research + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Content_sniffing + , http://dbpedia.org/resource/MeCab + , http://dbpedia.org/resource/Fake_news + , http://dbpedia.org/resource/Search_engine_indexing + , http://dbpedia.org/resource/Soundex + , http://dbpedia.org/resource/Semantic_analysis_%28machine_learning%29 + , http://dbpedia.org/resource/Outline_of_natural_language_processing + , http://dbpedia.org/resource/Three_Wolf_Moon + , http://dbpedia.org/resource/Fact-checking + , http://dbpedia.org/resource/BLEU + , http://dbpedia.org/resource/Spelling_suggestion + , http://dbpedia.org/resource/Jubatus + , http://dbpedia.org/resource/NIST_%28metric%29 + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/N-gram + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/N-gram + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.