Смагин М.С. Вычислительные машины, системы и сети (1088253), страница 42
Текст из файла (страница 42)
Оконечный узел сети, желающий обратиться к другому узлу по егосимвольному имени, формирует так называемый DNS-запрос, в котором указывает интересующее его символьное имя, и отправляет его DNS-серверу.DNS-сервер, получив такой запрос, находит в хранимых таблицах соответствующее символьное имя, и устанавливает по нему IP-адрес нужного узла.Этот адрес он возвращает обратно узлу, инициировавшему DNS-запрос.Узел-инициатор, получив DNS-ответ, передаёт полученный адрес протоколуTCP, который, в свою очередь, передаёт его протоколу IP для заполнения заголовка.В качестве основной формы представления информации пользователямсети Бернерс-Ли предложил гипертекстовые страницы.
Принципиальное отличие гипертекста от текста заключается в том, что в гипертекст внедренысредства навигации по нему, – привычные нам всем гиперссылки. Для передачи гипертекстовых страниц был разработан один из самых известных протоколов прикладного уровня, протокол HTTP (Hyper Text Transmit Protocol –протокол передачи гипертекста).
Первый HTTP-сервер открылся в 1991 году.Для разметки гипертекстовых страниц был предложен специальныйязык, получивший название HTML (HyperText Markup Language – язык разметки гипертекста). Принцип использования данного языка заключается втом, что в обрабатываемый текст вносятся специальные служебные символы,называемые тэгами, с помощью которых задаются гиперссылки и описываются способы графического выделения различных текстовых элементов.Надо сказать, что идеи Бернерс-Ли далеко не сразу нашли признание.Первоначально они были довольно холодно встречены научной общественностью, привыкшей уже работать с FTP и электронной почтой.
Получился278замкнутый круг, − производители ПО не включали поддержку HTML и HTTPв свои продукты, поскольку они не были популярны у пользователей, а пользователи не хотели покупать кота в мешке и платить за казавшийся ненужным сервис, возможностей которого они не представляли.
Выход из замкнутого круга был найден с появлением бесплатного браузера Mosaic, поддерживавшего работу с HTML, но при этом распространявшегося бесплатно.Гипертекстовые страницы позволяют передавать текстовую информацию, представленную в виде последовательности текстовых символов. Следующим видом информации, передачу которой освоила Всемирная паутина,стала графическая информация. Первые графические изображения во Всемирной паутине появились в 1992 году. Вышедшая в 1995 году спецификация HTML 2.0 предусматривала в этом языке специальные инструменты дляинтеграции графических изображений в гипертекстовые страницы.После передачи графической информации Всемирная паутина научилась передавать звуковую информацию.
Бурный рост сервисов сети, связанных со звуковой информацией, начался после разработки формата MP3,предназначенного для хранения звуковых данных. Данный формат был разработан в Германии в Институте Фраунгофера в конце 80-х годов. Европейский патент на способ кодирования звуковой информации был получен в1989 году. Спецификация была официально опубликована в 1995 году, а в1996 году она была запатентована в США. В 1999 году в Интернете был открыт первый сайт, содержащий записи в формате МР3.После интеграции во Всемирную паутину звуковой информации всталвопрос об интеграции в Интернет видеоданных. Технически, данный вопросбыл решён приблизительно в то же время, что и для аудиоинформации, − в1995 году. Именно в это время была опубликована первая версия стандартаH.263, использующегося в настоящее время для создания flash-видео файлов,повсеместно используемых в Интернете.
Ограничивающим фактором в этомслучае послужила низкая пропускная способность абонентских сетей. Распространение видеоданных в Интернете происходило параллельно с распро279странением возможностей широкополосного доступа. Хорошо всем нам известный сайт YouTube был открыт в начале 2005 года.По мере развития Всемирной паутины изменялись формы генерацииинформационного наполнения Сети. С этой точки зрения выделяют два этапаразвития Интернета – Web 1.0 и Web 2.0.На этапе Web 1.0 генерация новых информационных ресурсов осуществлялось небольшим количеством абонентов сети. Как правило, это быликрупные организации, создававшие свои информационные страницы и тематические веб-сайты. Отдельные пользователи тоже теоретически могли создавать свои страницы в Интернете, но этот процесс требовал большого объёма технических знаний и определённых финансовых затрат.Однако по мере развития Интернета стало появляться всё больше инструментов, дающих возможность размещать информацию в Интернете для частных лиц, не обременённых техническими знаниями.
Первым таким инструментом стала гостевая книга, потом появились форумы, а после, – стольпопулярные ныне блоги и социальные сети. Причём блоги могут быть кактекстовыми, так и звуковыми или видео. В этих двух случаях их ещё называют подкастами.Именно с момента резкого взлёта популярности блогов, как считается,наступил этап Web 2.0, который характеризуется широким доступом пользователей не только к считыванию информации из Интернета, но и к генерацииновых данных.Развитие технологий Web 2.0 привело к резкому росту объёма информации в Сети.
На сегодняшний день в Интернете насчитывается порядка 250миллионов сайтов. Всего на них хранится порядка триллиона графическихизображений, 10 миллиардов аудиозаписей и порядка миллиарда видеороликов. Естественно, задача поиска нужной информации в таких огромных объёмах данных встаёт очень остро.Наибольших успехов в настоящее время удалось добиться в вопросахпоиска текстовой информации. Большинство современных поисковиков ра280ботает по одному и тому же принципу.
Специальная программа, называемаяпоисковым роботом, просматривает сайты Интернета, выделяет их текстовуюсоставляющую и осуществляет их интеллектуальную обработку. Целью обработки является выявление ключевых слов, характеризующих содержаниеобрабатываемого текста. Выявленные ключевые слова записываются в базуданных поисковой системы, и по ним уже осуществляется поиск, когда пользователь вводит поисковый запрос.Наиболее популярными зарубежными поисковыми сайтами являютсясайты Google (www.google.com) и Yahoo (www.yahoo.com). По данным на декабрь2007 года, им отдают предпочтение почти 90 % пользователей Интернета. Изотечественных систем наиболее популярными являются системы Яндекс(www.yandex.ru), Mail.ru (www.mail.ru) и Рамблер (www.rambler.ru), причём надоотметить, что они ориентированы на поиск, в первую очередь, именно информации на русском языке.По мере роста объёма прочих видов информации в Интернете, такихкак графический, аудио и видео, всё большую важность приобретает задачапоиска графической информации, аудио- и видеоданных.
На сегодняшнийдень эту услугу предоставляет большинство поисковых машин. Кроме того,естьспециализированныепоисковыесистемы,такиекакPicsearch(www.picsearch.com) для графических изображений, BeeMP3 (beemp3.com) дляаудиоданных и blinkx (www.blinkx.com) для видеоданных. Однако их работаоснована на анализе текстовой информации, так или иначе связанной с искомыми объектами.В настоящее время начинают появляться системы поиска графическихизображений, аудио- и видеоданных, основанные на их непосредственноманализе информационных объектов с выявлением характеристических признаков.Лучше всего подобная задача пока решается для поиска графическихизображений и, в особенности, лиц. Работа подобных поисковых систем заключается в том, что пользователь вводит графический эталон, например фо281тографию интересующего его лица или предмета, а система выводит ему информацию обо всех найденных изображениях, где присутствует интересующее пользователя лицо или предмет.Наиболее эффективными системами поиска графических изображенийпо эталону являются система TinEye (www.tineye.com), а также специализированная система поисковой машины Google (images.google.com).Кроме того, в настоящее время развиваются поисковые программы, позволяющие осуществлять поиск звуковой информации.
До недавнего времени, такую услугу предлагал сайт www.podscope.com. В первую очередь онбыл ориентирован на поиск и распознавание речевых сигналов. Суть его работы заключалась в том, что он брал аудиоданные, отделяя их, при необходимости, от видеопотока, выделял из звукового потока речь, распознавал её идальше обрабатывал как текстовую информацию.В настоящее время задачу поиска аудиоданных можно решить с помощью поисковой системы Tunatic (www.wildbits.com/tunatic/), предназначенной для поиска музыкальных композиций. Система требует установки специального клиента, который позволяет анализировать музыкальные произведения, проигрываемые с помощью стороннего аудиоплеера, или поступающиечерез линейный вход или микрофон. По результатам анализа автоматическиформируется поисковый запрос на сервер системы, по которому выдаетсяинформация об исполнителе и названии проигрываемой композиции.Ну, и чтобы закончить разговор о поиске информации, следует упомянуть ещё один очень интересный сайт, так называемый «Вебархив»(www.archive.org).
Сайт существует с 1996 года и с этого времени осуществляет сканирование информации в Интернете и сохранение в своих архивах.Это позволяет просматривать содержимое как сайтов, которые уже не существуют, так и просматривать данные удалённые ранее с сайтов, существующих сейчас.В заключение следует кратко рассказать о возможных перспективахразвития Интернета и о том, что может прийти ему на смену.
Помимо того,282что сам Интернет продолжает развиваться, становится более доступным, осваивает новые виды услуг, существует ряд параллельно развивающихся сетевых проектов, которые, возможно, когда-нибудь выйдут из недр научногосообщества, дойдут до рядового потребителя и станут альтернативой Интернету, или даже полностью заменят его.Наиболее интересными из этих проектов являются два − американскийпроект «Интернет-2» и европейская сеть GEANT.
В основу данных проектовположены одинаковые принципы:1. Использование каналов передачи данных с пропускной способностьюне ниже 10 Гбит/сек.2. Использование IPv6.3. Поддержка multicast-сообщений, распространяемых по принципу «отодного ко многим».4. Поддержка развитых механизмов приоритетной обработки передаваемых данных.Internet-2, – это широкомасштабный американский проект по развёртыванию единой вычислительной сети, объединяющей 250 крупнейших научных центров США. Проект включает в себя собственно сеть, получившуюназвание Abilene Network (читается «Абилин»), а также консорциум организаций, занимающихся исследованиями и разработкой.