Главная » Просмотр файлов » Диссертация

Диссертация (1137276), страница 20

Файл №1137276 Диссертация (Разработка вычислительных методов анализа текстов с использованием аннотированных суффиксных деревьев) 20 страницаДиссертация (1137276) страница 202019-05-20СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 20)

—2007. — Т. 28, № 1. — С. 37—78.69. Santos A. P., Rodrigues F. Multi-label Hierarchical Text ClassificationUsing the ACM taxonomy // 14th Portuguese Conference on ArtificialIntelligence. — 2009. — С. 553—564.11670. Cantador I., Bellogın A., Vallet D. Content-based Recommendation in SocialTagging Systems // Proc. Conference on Recommender Systems. — ACM.2010. — С. 237—240.71. Gupta A., Kumaraguru P. Credibility Ranking of Tweets During High ImpactEvents // Proc. Workshop on Privacy and Security in Online Social Media.

—ACM. 2012. — С. 2.72. Listwise Approach to Learning to Rank: Theory and Algorithm / F. Xia [идр.] // Proc. Conference on Machine learning. — ACM. 2008. — С. 1192—1199.73. Duh K., Kirchhoff K. Learning to Rank with Partially-labeled Data // Proc.Conference on Research and Development in Information Retrieval. — ACM.2008. — С. 251—258.74. Porter M. F. An Algorithm for Suffix Stripping // Program. — 1980. — Т. 14,№ 3. — С. 130—137.75.

Bird S. NLTK: the Natural Language Toolkit // Proc. InteractivePresentation Sessions. — Association for Computational Linguistics. 2006. —С. 69—72.76. Miller G. A. WordNet: a Lexical Database for English // Communicationsof the ACM. — 1995. — Т. 38, № 11. — С. 39—41.77. Robinson P. N., Bauer S. Introduction to Bio-ontologies. — CRC Press, 2011.78. Лукашевич Н.

В. Тезаурусы в Задачах Информационного Поиска // М.:Издательство МГУ, 2011. — М.: Издательство МГУ, 2011. 2010.79. Clustering query refinements by user intent / E. Sadikov [и др.] //International Conference on World Wide Web. — ACM. 2010. — С. 841—850.80. White R. W., Bennett P. N., Dumais S. T. Predicting Short-InterestsUsing Activity-based Search Context // Proc. International Conference onInformation and Knowledge Management. — ACM. 2010. — С.

1009—1018.81. Automatic Taxonomy Construction from Keywords / X. Liu [и др.] // Proc.International Conference on Knowledge Discovery and Data Mining. — ACM.2012. — С. 1433—1441.11782. Ding C. A Survey of Ontology Construction and Information Extraction fromWikipedia. — 2010.83. Dbpedia: a Nucleus for a Web of Open Data / S. Auer [и др.]. — Springer,2007.84. Chernyak E., Mirkin B.

A Method for Refining a Taxonomy by UsingAnnotated Suffix Trees and Wikipedia Resources // Procedia ComputerScience. — 2014. — Т. 31. — С. 193—200.85. Van Hage W. R., Katrenko S., Schreiber G. A Method to Combine LinguisticOntology-Mapping Techniques // The Semantic Web. — Springer, 2005. —С. 732—744.86. YAGO2: a Spatially and Temporally Enhanced Knowledge Base FromWikipedia / J. Hoffart [и др.] // Artificial Intelligence. — 2013. — Т.

194. —С. 28—61.87. Mining Concepts from Wikipedia for Ontology Construction / G. Cui[и др.] // Proc. International Joint Conference on Web Intelligence andIntelligent Agent Technology. — IEEE Computer Society. 2009. — С. 287—290.88. Ponzetto S. P., Strube M. Deriving a Large Scale Taxonomy fromWikipedia // Proc.

National Conference on Artificial Intelligence. Т. 7. —2007. — С. 1440—1445.89. Xavier C. C., De Lima V. L. S. A Semi-automatic Method for DomainOntology Extraction from Portuguese Language Wikipedia’s Categories //Advances in Artificial Intelligence. — Springer, 2010. — С. 11—20.90. Jiang S., Bing L., Zhang Y. Towards an Enhanced and Adaptable Ontologyby Distilling and Assembling Online Encyclopedias // Proc.

InternationalConference on Information & Knowledge Management. — ACM. 2013. —С. 1703—1708.91. Kittur A., Chi E. H., Suh B. What’s in Wikipedia?: Mapping Topics andConflict Using Socially Annotated Category Structure // Conference onhuman factors in computing systems. — ACM. 2009. — С. 1509—1512.11892. Hulth A. Improved Automatic Keyword Extraction Given More LinguisticKnowledge // Conference on Empirical Methods in Natural LanguageProcessing. — Association for Computational Linguistics.

2003. — С. 216—223.93. Тихомиров И. А., Соченков И. В. Метод Динамической КонтентнойФильтрации Сетевого Трафика на Основе Анализа Текстов на Естествен­ном Языке // Вестник НГУ, Информационные технологии. — 2008. — Т.6, № 2. — С. 94—100.94. Dong C., Agarwal A. WS 2 F: A Weakly Supervised Framework for DataStream Filtering // Proc. International Conference on Big Data. — IEEE.2014. — С. 50—57.95. Text Normalization and Semantic Indexing to Enhance Instant Messaging andSMS Spam Filtering / T.

A. Almeida [и др.] // Knowledge-Based Systems. —2016.96. Технология Фильтрации Содержания для Интернет / И. Ашманов [идр.] // Труды Международного Семинара «Диалог. — 2002.97. Левенштейн В. И. Двоичные Коды с Исправлением Выпадений, Вставоки Замещений Символов // Доклады Академий Наук СССР. — 1965. — Т.163, № 4. — С.

845—848.98. Korobov M. Morphological Analyzer and Generator for Russian andUkrainian Languages // Proc. Analysis of Images, Social Networks andTexts. — Springer, 2015. — С. 320—332.99. Segalovich I. A Fast Morphological Algorithm with Unknown Word GuessingInduced by a Dictionary for a Web Search Engine // Proc. InternationalConference on Machine Learning; Models, Technologies and Applications. —Citeseer. 2003. — С. 273—280.100. Ильвовский Д. А., Черняк Е. Л.

Системы Автоматической ОбработкиТекстов // Открытые системы. — 2014. — № 1. — С. 51—53.101. Мальковский М. Г., Грацианова Т. Ю., Полякова И. Н. Прикладное Про­граммное Обеспечение: Системы Автоматической Обработки Текстов //М.: МГУ. — 2000.102. The Stanford CoreNLP Natural Language Processing Toolkit / C. D. Manning[и др.] // ACL (System Demonstrations). — 2014. — С. 55—60.119103. Scikit-learn: Machine Learning in Python / F.

Pedregosa [и др.] // Journalof Machine Learning Research. — 2011. — Т. 12, Oct. — С. 2825—2830.104. Globally Normalized Transition-based Neural Networks / D. Andor [и др.] //arXiv preprint arXiv:1603.06042. — 2016.105. Bär D., Zesch T., Gurevych I. DKPro Similarity: An Open Source Frameworkfor Text Similarity. // ACL (System Demonstrations).

— 2013. — С. 121—126.120Список рисунков1.11.21.31.4...272829..30342.2Оптимизация представления АСД. Схлопывание вершин для = “mining” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Оптимизация представления АСД. Сжатие меток для = “mining”48483.1Первый уровень таксономии ACM CCS 2012 . . . . . . .

. . . . . . .574.1Схема пополнения таксономии. В прямоугольниках находятся темыосновы таксономии, в скругленный прямоугольниках – достроенныекатегории и подкатегории Википедии. Листья достроеннойтаксономии – названия статей Википедии – помещены в овалы. Воблачках находятся уточнения листьев. . . . . . . . . . .

. . . . . . .Фрагмент таксономии ТВиМС: промежуточные уровни раздела“Случайные процессы и поля” . . . . . . . . . . . . . . . . . . . . . .Фрагмент достроенной таксономии ТВиМС. В прямоугольникахнаходятся темы основы таксономии, в скругленныйпрямоугольниках – достроенные категории и подкатегорииВикипедии. Листья достроенной таксономии – названия статейВикипедии – помещены в овалы. В облачках находятся уточнениялистьев. . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Фрагмент достроенной таксономии ЧМ. В прямоугольникахнаходятся темы основы таксономии, в скругленныйпрямоугольниках – достроенные категории и подкатегорииВикипедии. Листья достроенной таксономии – названия статейВикипедии – помещены в овалы. .

. . . . . . . . . . . . . . . . . . . .1.52.14.24.34.46.1Суффиксное дерево для строки = xabxac [59] . . . . . . . . . . .Суффиксное дерево для двух строк 1 = xabxac, 2 = babxba [59]Аннотированное суффиксное дерево для строки = “xabxac” . .Обобщенное аннотированное суффкисное дерево для строк1 = “xabxac”, 2 = “babxac” . . .

. . . . . . . . . . . . . . . . . .Аннотированное суффиксное дерево для строки = “mining” . .73829293Схема pipeline библиотеки EAST . . . . . . . . . . . . . . . . . . . . . 1021216.26.3Пользовательский интерфейс WikiDP . . . . . . . . . . . . . . . . . . 106Извлеченное дерево категорий категории “Дискретная математика”без названий статей . . .

. . . . . . . . . . . . . . . . . . . . . . . . . 106122Список таблиц1234567891011Фрагмент РСТ таблицы [65]. Столбцы соответствуют публикациям,строки-словосочетаниям, а элементы – оценкам релевантности . . . .Пример аннотации, участвующей в эксперименте. Аннотациявыбрана случайным образом. . . . . . . . .

. . . . . . . . . . . . . . .Обозначения рассматриваемых мер релевантности . . . . . . . . . . .Способы представления текста как “мешка” термов . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 15 размерностей . . . . . . . . . . . . . . .

. . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 50 размерностей . . . . . . . . . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 100 размерностей . . . . . .

. . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 150 размерностей . . . . . . . . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 15Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 50515860626565656666666712312131415161718192021222324252627Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 100Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 150Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью вероятностной мерырелевантности BM25.

. . . . . . . . . . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощьютеоретико-множественного коэффицента Жаккара . . . . . . . . . .Оценка полученных результатов при использовании мерырелевантности, основанной на АСД, при использовании различныхвидов шкалирующих функций и очистки от шума на различныхуровнях .

Характеристики

Список файлов диссертации

Разработка вычислительных методов анализа текстов с использованием аннотированных суффиксных деревьев
Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6367
Авторов
на СтудИзбе
310
Средний доход
с одного платного файла
Обучение Подробнее