Диссертация (1137276), страница 20
Текст из файла (страница 20)
—2007. — Т. 28, № 1. — С. 37—78.69. Santos A. P., Rodrigues F. Multi-label Hierarchical Text ClassificationUsing the ACM taxonomy // 14th Portuguese Conference on ArtificialIntelligence. — 2009. — С. 553—564.11670. Cantador I., Bellogın A., Vallet D. Content-based Recommendation in SocialTagging Systems // Proc. Conference on Recommender Systems. — ACM.2010. — С. 237—240.71. Gupta A., Kumaraguru P. Credibility Ranking of Tweets During High ImpactEvents // Proc. Workshop on Privacy and Security in Online Social Media.
—ACM. 2012. — С. 2.72. Listwise Approach to Learning to Rank: Theory and Algorithm / F. Xia [идр.] // Proc. Conference on Machine learning. — ACM. 2008. — С. 1192—1199.73. Duh K., Kirchhoff K. Learning to Rank with Partially-labeled Data // Proc.Conference on Research and Development in Information Retrieval. — ACM.2008. — С. 251—258.74. Porter M. F. An Algorithm for Suffix Stripping // Program. — 1980. — Т. 14,№ 3. — С. 130—137.75.
Bird S. NLTK: the Natural Language Toolkit // Proc. InteractivePresentation Sessions. — Association for Computational Linguistics. 2006. —С. 69—72.76. Miller G. A. WordNet: a Lexical Database for English // Communicationsof the ACM. — 1995. — Т. 38, № 11. — С. 39—41.77. Robinson P. N., Bauer S. Introduction to Bio-ontologies. — CRC Press, 2011.78. Лукашевич Н.
В. Тезаурусы в Задачах Информационного Поиска // М.:Издательство МГУ, 2011. — М.: Издательство МГУ, 2011. 2010.79. Clustering query refinements by user intent / E. Sadikov [и др.] //International Conference on World Wide Web. — ACM. 2010. — С. 841—850.80. White R. W., Bennett P. N., Dumais S. T. Predicting Short-InterestsUsing Activity-based Search Context // Proc. International Conference onInformation and Knowledge Management. — ACM. 2010. — С.
1009—1018.81. Automatic Taxonomy Construction from Keywords / X. Liu [и др.] // Proc.International Conference on Knowledge Discovery and Data Mining. — ACM.2012. — С. 1433—1441.11782. Ding C. A Survey of Ontology Construction and Information Extraction fromWikipedia. — 2010.83. Dbpedia: a Nucleus for a Web of Open Data / S. Auer [и др.]. — Springer,2007.84. Chernyak E., Mirkin B.
A Method for Refining a Taxonomy by UsingAnnotated Suffix Trees and Wikipedia Resources // Procedia ComputerScience. — 2014. — Т. 31. — С. 193—200.85. Van Hage W. R., Katrenko S., Schreiber G. A Method to Combine LinguisticOntology-Mapping Techniques // The Semantic Web. — Springer, 2005. —С. 732—744.86. YAGO2: a Spatially and Temporally Enhanced Knowledge Base FromWikipedia / J. Hoffart [и др.] // Artificial Intelligence. — 2013. — Т.
194. —С. 28—61.87. Mining Concepts from Wikipedia for Ontology Construction / G. Cui[и др.] // Proc. International Joint Conference on Web Intelligence andIntelligent Agent Technology. — IEEE Computer Society. 2009. — С. 287—290.88. Ponzetto S. P., Strube M. Deriving a Large Scale Taxonomy fromWikipedia // Proc.
National Conference on Artificial Intelligence. Т. 7. —2007. — С. 1440—1445.89. Xavier C. C., De Lima V. L. S. A Semi-automatic Method for DomainOntology Extraction from Portuguese Language Wikipedia’s Categories //Advances in Artificial Intelligence. — Springer, 2010. — С. 11—20.90. Jiang S., Bing L., Zhang Y. Towards an Enhanced and Adaptable Ontologyby Distilling and Assembling Online Encyclopedias // Proc.
InternationalConference on Information & Knowledge Management. — ACM. 2013. —С. 1703—1708.91. Kittur A., Chi E. H., Suh B. What’s in Wikipedia?: Mapping Topics andConflict Using Socially Annotated Category Structure // Conference onhuman factors in computing systems. — ACM. 2009. — С. 1509—1512.11892. Hulth A. Improved Automatic Keyword Extraction Given More LinguisticKnowledge // Conference on Empirical Methods in Natural LanguageProcessing. — Association for Computational Linguistics.
2003. — С. 216—223.93. Тихомиров И. А., Соченков И. В. Метод Динамической КонтентнойФильтрации Сетевого Трафика на Основе Анализа Текстов на Естественном Языке // Вестник НГУ, Информационные технологии. — 2008. — Т.6, № 2. — С. 94—100.94. Dong C., Agarwal A. WS 2 F: A Weakly Supervised Framework for DataStream Filtering // Proc. International Conference on Big Data. — IEEE.2014. — С. 50—57.95. Text Normalization and Semantic Indexing to Enhance Instant Messaging andSMS Spam Filtering / T.
A. Almeida [и др.] // Knowledge-Based Systems. —2016.96. Технология Фильтрации Содержания для Интернет / И. Ашманов [идр.] // Труды Международного Семинара «Диалог. — 2002.97. Левенштейн В. И. Двоичные Коды с Исправлением Выпадений, Вставоки Замещений Символов // Доклады Академий Наук СССР. — 1965. — Т.163, № 4. — С.
845—848.98. Korobov M. Morphological Analyzer and Generator for Russian andUkrainian Languages // Proc. Analysis of Images, Social Networks andTexts. — Springer, 2015. — С. 320—332.99. Segalovich I. A Fast Morphological Algorithm with Unknown Word GuessingInduced by a Dictionary for a Web Search Engine // Proc. InternationalConference on Machine Learning; Models, Technologies and Applications. —Citeseer. 2003. — С. 273—280.100. Ильвовский Д. А., Черняк Е. Л.
Системы Автоматической ОбработкиТекстов // Открытые системы. — 2014. — № 1. — С. 51—53.101. Мальковский М. Г., Грацианова Т. Ю., Полякова И. Н. Прикладное Программное Обеспечение: Системы Автоматической Обработки Текстов //М.: МГУ. — 2000.102. The Stanford CoreNLP Natural Language Processing Toolkit / C. D. Manning[и др.] // ACL (System Demonstrations). — 2014. — С. 55—60.119103. Scikit-learn: Machine Learning in Python / F.
Pedregosa [и др.] // Journalof Machine Learning Research. — 2011. — Т. 12, Oct. — С. 2825—2830.104. Globally Normalized Transition-based Neural Networks / D. Andor [и др.] //arXiv preprint arXiv:1603.06042. — 2016.105. Bär D., Zesch T., Gurevych I. DKPro Similarity: An Open Source Frameworkfor Text Similarity. // ACL (System Demonstrations).
— 2013. — С. 121—126.120Список рисунков1.11.21.31.4...272829..30342.2Оптимизация представления АСД. Схлопывание вершин для = “mining” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Оптимизация представления АСД. Сжатие меток для = “mining”48483.1Первый уровень таксономии ACM CCS 2012 . . . . . . .
. . . . . . .574.1Схема пополнения таксономии. В прямоугольниках находятся темыосновы таксономии, в скругленный прямоугольниках – достроенныекатегории и подкатегории Википедии. Листья достроеннойтаксономии – названия статей Википедии – помещены в овалы. Воблачках находятся уточнения листьев. . . . . . . . . . .
. . . . . . .Фрагмент таксономии ТВиМС: промежуточные уровни раздела“Случайные процессы и поля” . . . . . . . . . . . . . . . . . . . . . .Фрагмент достроенной таксономии ТВиМС. В прямоугольникахнаходятся темы основы таксономии, в скругленныйпрямоугольниках – достроенные категории и подкатегорииВикипедии. Листья достроенной таксономии – названия статейВикипедии – помещены в овалы. В облачках находятся уточнениялистьев. . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Фрагмент достроенной таксономии ЧМ. В прямоугольникахнаходятся темы основы таксономии, в скругленныйпрямоугольниках – достроенные категории и подкатегорииВикипедии. Листья достроенной таксономии – названия статейВикипедии – помещены в овалы. .
. . . . . . . . . . . . . . . . . . . .1.52.14.24.34.46.1Суффиксное дерево для строки = xabxac [59] . . . . . . . . . . .Суффиксное дерево для двух строк 1 = xabxac, 2 = babxba [59]Аннотированное суффиксное дерево для строки = “xabxac” . .Обобщенное аннотированное суффкисное дерево для строк1 = “xabxac”, 2 = “babxac” . . .
. . . . . . . . . . . . . . . . . .Аннотированное суффиксное дерево для строки = “mining” . .73829293Схема pipeline библиотеки EAST . . . . . . . . . . . . . . . . . . . . . 1021216.26.3Пользовательский интерфейс WikiDP . . . . . . . . . . . . . . . . . . 106Извлеченное дерево категорий категории “Дискретная математика”без названий статей . . .
. . . . . . . . . . . . . . . . . . . . . . . . . 106122Список таблиц1234567891011Фрагмент РСТ таблицы [65]. Столбцы соответствуют публикациям,строки-словосочетаниям, а элементы – оценкам релевантности . . . .Пример аннотации, участвующей в эксперименте. Аннотациявыбрана случайным образом. . . . . . . . .
. . . . . . . . . . . . . . .Обозначения рассматриваемых мер релевантности . . . . . . . . . . .Способы представления текста как “мешка” термов . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 15 размерностей . . . . . . . . . . . . . . .
. . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 50 размерностей . . . . . . . . . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 100 размерностей . . . . . .
. . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью косинусной мерырелевантности и ЛСИ для снижения размерности векторной моделидо = 150 размерностей . . . . . . . . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 15Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 50515860626565656666666712312131415161718192021222324252627Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 100Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью мерырелевантности, основанной на ЛРД, при числе скрытых тем = 150Оценка полученных при использовании различных способовпредобработки текстов результатов с помощью вероятностной мерырелевантности BM25.
. . . . . . . . . . . . . . . . . . . . . . . . . . .Оценка полученных при использовании различных способовпредобработки текстов результатов с помощьютеоретико-множественного коэффицента Жаккара . . . . . . . . . .Оценка полученных результатов при использовании мерырелевантности, основанной на АСД, при использовании различныхвидов шкалирующих функций и очистки от шума на различныхуровнях .