Диссертация (1137511), страница 27
Текст из файла (страница 27)
Vol. 5, no. 2. P. 99–154.URL: http://link.springer.com/10.1007/BF00393758 (online; accessed: 2018-0912).114. Yuan Dayu, Richardson Julian, Doherty Ryan [et al.]. Semi-supervised WordSense Disambiguation with Neural Models // arXiv preprint arXiv:1603.07012.2016.115. Zhou Dengyong, Bousquet Olivier, Lal Thomas Navin [et al.].
Learning with localand global consistency // Advances in Neural Information Processing Systems 16.MIT Press, 2004. P. 321–328.116. Learning from Labeled and Unlabeled Data with Label Propagation : Rep. :CMU-CALD-02-107 / Carnegie Mellon University ; Executor: Xiaojin Zhu,Zoubin Ghahramani. Pittsburgh : 2002. июн..117. Zhu Xiaojin, Ghahramani Zoubin, Lafferty John D. Semi-supervised learning using gaussian fields and harmonic functions // Proceedings of the 20th Internationalconference on Machine learning (ICML-03). Menlo Park, California : AAAIPress, 2003. P. 912–919.118.
Zipf George Kingsley. Selected studies of the principle of relative frequency inlanguage. Harvard University Press, 1932. ISBN: 978-0-674-43492-9.119. Махмутова ЛТ. Татар теленең аңлатмалы сүзлеге: 3 томда. һ. б. Казан, 1977.138120. Farø Ken, Hjorth Ebba, Kristensen Kjeld. Den danske ordbog, bd. 1-6. Copenhagen : Gyldendal and Society for Danish Language and Literature, 2003. Bd. 6.ISBN: 87-02-02401-2.139Список рисунков2.12.23.13.23.33.43.53.63.73.8Толкования первого значения лексемы ГРИБ разными толковымисловарями. .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35Примеры толкований из LDOCE . . . . . . . . . . . . . . . . . . . . . . 40Технологическая цепочка извлечения отношений . . . . . . . . .Пример входного формата словаря БТС . . . . . . . . . . . . . . .Словарная статья и её восстановленная структура. . . . . . . . . .Исходная словарная статья с максимальным разнообразием типовразделов и её разбор на пары. . . . . .
. . . . . . . . . . . . . . . .Эффект применения лексико-грамматических n-грамм . . . . . .Пример кластеров словарных толкований . . . . . . . . . . . . . .Примеры результатов кластеризации толкований . . . . . . . . . .Примеры отношений, извлечённых в ходе эксперимента. . . . . .4.14.2. . . 51. . . 54. .
. 56...............5873757981Алгоритм Леска. Пример разрешения омонимии существительного ЛУК 91Пример лексического значения гипонима, для которого неоднозначноуказана лексема гиперонима. . . . . . . . . . . . . . . . . . . . . . . . . 1004.3 Рабочее место разметчика омонимичных данных для дизамбигуации . 1034.4 Пример задания аннотатору с различными леммами,идентифицированными для одной лексемы гиперонима.
. . . . . . . . 1044.5 Пример задания аннотатору с несколькими кандидатами в гиперонимы. 1054.6 Причины возникновения синонимичных значений в корпусесловарных толкований . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1084.7 Влияние выбора контекста для построения векторного представленияна распределение результатов дизамбигуации в зависимости отвыбора оставшихся свободными параметров. . . . . . . . . .
. . . . . . 1174.8 Наилучшие результаты дизамбигуации в зависимости отсоотношения признаков толкования и расширенного толкования. . . . . 1184.9 Влияние выбора классификатора на результат дизамбигуации. . . . . . 1194.10 Гиперонимические цепочки, полученные в результате извлечения изтолкового словаря. . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . 1211404.11 Примеры наборов ко-гипонимов, полученных в результатеизвлечения из толкового словаря. . . . . . . . . . . . . . . . . . . . . . 121141Список таблиц1Сравнение методов составления тезаурусов . . . . . . . . . . . . . . . . 292Количество вхождений различных типов словарной информации вмашиночитаемой форме БТС .
. . . . . . . . . . . . . . . . . . . . . . .Ранжирование словарных разделов . . . . . . . . . . . . . . . . . . . .Примеры лексем, находящихся в синтаксической вершине толкования .Матрица совпадений ответов аннотаторов. . . . . . . . . . . . . . . . .Пример признаков, используемых для кластеризации толкований . .
.Пример предложения и извлечённых из неголексико-грамматических биграмм с шаблоном [POS – token] . . . . . .Оценка количества извлечённых отношений и точность извлеченияотношений в сравнении с Onto.PT. . . . . . . . . . . . . . . . . . . . . .Оценка числа толкований, к которым было применено правило, иточность применения правила. . . . . . .
. . . . . . . . . . . . . . . . .Количество извлечённых отношений каждого типа. . . . . . . . . . . .34567891011121314Параметры обучения векторных моделей . . . . . . . . . . . . . . . .Результаты классификации редких токенов, входящих в обучающийкорпус для векторных моделей . . . . . . . .
. . . . . . . . . . . . . .Влияние выбора векторной модели и используемого для построениявекторного представления контекста на точность дизамбигуатора. . .Влияние выбора контекста для построения векторного представленияна результат дизамбигуации. . . . . . . . .
. . . . . . . . . . . . . . .142555764656972767882. 101. 102. 116. 116.