Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 13 сообщений
Cообщения с меткой

ngram - Самое интересное в блогах

Следующие 30  »
rss_habr

Простым языком о языковых моделях и цепи Маркова (Markov Chain)

Вторник, 05 Июля 2022 г. 17:04 (ссылка)

N-граммы

N-граммы – это статистические модели, которые предсказывают следующее слово после N-1 слов на основе вероятности их сочетания. Например, сочетание I want to в английском языке имеет высокую вероятностью, а want I to – низкую. Говоря простым языком, N-грамма – это последовательность n слов. Например, биграммы – это последовательности из двух слов (I want, want to, to, go, go to, to the…), триграммы – последовательности из трех слов (I want to, want to go, to go to…) и так далее.

Такие распределения вероятностей имеют широкое применение в машинном переводе, автоматической проверке орфографии, распознавании речи и умном вводе. Например, при распознавании речи, по сравнению с фразой eyes awe of an, последовательность I saw a van будет иметь большую вероятность. Во всех этих случаях мы подсчитываем вероятность следующего слова или последовательности слов. Такие подсчеты называются языковыми моделями.

Как же рассчитать P(w)? Например, вероятность предложения P(I, found, two, pounds, in, the, library). Для этого нам понадобится цепное правило, которое определяется так:

Читать далее

https://habr.com/ru/post/675218/?utm_source=habrahabr&utm_medium=rss&utm_campaign=675218

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<ngram - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda