Поиск информации в интернете

Автор работы: Пользователь скрыл имя, 13 Декабря 2015 в 21:08, курсовая работа

Описание работы

Цель работы – изучить работу поисковых систем
Задачи:
- разобрать основные понятия;
- изучить принцип работы поисковых машин;
- познакомиться с классификацией поисковых систем;
- сравнить основные поисковые системы;
- разобрать процедуру поисковой оптимизации сайтов.

Файлы: 1 файл

Poisk_informatsii_v_Internet.doc

— 486.00 Кб (Скачать файл)

Но помимо скорости, важно еще и качество поиска. Для оценки релевантности поиска у Яндекса также существует отдельная система, использующая формулы ранжирования – функции от множества факторов, которых на данный момент более 800.

Поисковая выдача робота формируется индивидуально (иными словами, персонализировано) на основе местоположения, языка, интересов и истории предыдущих запросов каждого пользователя. Основную роль при ранжировании сайта играет его содержание, название домена, уникальность и качество текстов, наличие мультимедийного контента.

Основными факторами ранжирования являются:

- возраст сайта;

- привязка сайта к региону, наличие контактной информации;

- оригинальный контент, релевантный целевым запросам;

- структурирование информации;

- дизайн, юзабилити, скорость работы сайта;

- наличие коммерческой информации;

- отсутствие поискового спама;

- надежный и безопасный хостинг.

Преимуществом работы с данным поисковиком является то, что динамические сайты отлично индексируются, реализован механизм параллельного поиска по сервисам системы: Каталог, Новости, Маркет, Энциклопедии, Картинки.

 

Рис. 3. Стартовая страница Google.ru

 

Google был создан в 1996 году, и сейчас  это крупнейшая в мировом интернете  поисковая система. В российском рейтинге данный поисковик занимает второе место с долей поискового трафика равной 35%.

Googlebot - основной поисковый робот системы, сканирующий содержание страниц сайта для поискового индекса. Помимо него существует еще несколько специализированных роботов, например, для индексации сайтов для мобильных устройств или для индекса картинок и т.д.

При ранжировании сайтов поисковая система использует алгоритм расчета PageRank, являющийся одним из показателей авторитетности сайта для поисковой системы.

Система использует более 200 факторов ранжирования сайтов, среди которых:

- факторы домена;

- страничные факторы;

- факторы сайта;

- ссылочные факторы;

- специальные правила алгоритмов;

- факторы социальных сетей;

- факторы брендов;

- спам на сайте;

- спам во внешних ссылках.

Итак, на релевантность сайта в Google могут повлиять:

- доменные имена;

- названия сайтов;

- описания к сайтам;

- наличие заголовков и подзаголовков страниц;

- удобное меню и панель навигации;

- количество и качество контента;

- популярность сайта.

 

Рис. 4. Стартовая страница Go.mail

 

Поисковая система Mail.ru осталась позади Яндекса и Google. Сначала данный сервис работал, используя поисковые услуги Google, а позже Яндекса, а с 2013 года go.mail.ru применяет собственный поисковый движок. Сегодня доля переходов с этого поисковика составляет более 8% от всего трафика в Рунете. Mail.ru изначально делает ставку не на поиск, основной способ монетизации компании – различные сервисы, такие как Агент, Почта, Одноклассники, Мой Мир, и самый главный сектор заработка - это игры. Все вместе они делают холдинг самым посещаемым в России (по данным TNS).

Выделить приоритеты работы алгоритмов в этой системе довольно сложно, однако можно отметить основные факторы:

- наполнение качественным контентом;

- поведенческие показатели;

- удобный и понятный для посетителя сайт;

- качественная ссылочная масса.

Соблюдение этих правил позволит уверенно занять позиции в ТОП-10. Продвигать сайт с этой поисковой системой довольно легко.

Следует отметить своеобразность географической привязки. В настройках по умолчанию осуществляется выдача для региона «Весь интернет», однако можно выбрать свой регион в расширенных настройках.

 

Рис. 5 Стартовая страница Rambler.ru

 

Рамблер - одна из первых поисковых систем Рунета, появилась в 1996 году. По даннымстатистики данная система охватывает всего 0,8% поиска. Компания является одним из пионеров российского интернета: запустила первый в Рунете рейтинг-классификатор (Rambler Top100), первый интернет-портал и первой среди отечественных интернет-компаний вышла на биржу. Не выдержав конкуренции в 2011 году, Рамблер начал использовать поиск Яндекса, а в 2012 полностью сменил свою деятельность. Изменился не только интерфейс, но и задачи сервиса, теперь главная страница нацелена на предоставление посетителям персонализированной новостной ленты (базирующейся на анализе cookies, активности пользователей на сайтах с рекламой Begun или установленным счетчиком Rambler Top100). Инженеры Рамблера разработали новую технологию, позволяющую определять пол и возраст посетителя, опираясь на поведенческий фактор. С 2012 года 100% в сервисе Begun принадлежит Рамблер. В дальнейшем планируется объединить сервисы «Бегун» и Price.ru, открыв новые возможности для электронной торговли.

Недостатком поисковика является:

- плохая индексация динамических сайтов;

- невозможность зарегистрировать сайты с доменами .com, .net, .org.

Но если сайт русскоязычный, можно обратиться в службу технической поддержки с просьбой зарегистрировать и проиндексировать сайт.

Рамблер предлагает целый ряд сервисов:

- Поиски и рейтинги (Поиск, Top-100, Картинки, Видео, Товары);

- Товары и услуги (Авиа, Путешествия, Недвижимость, Авто);

- Информация (Новости, Спорт, Финансы, Погода, Карты);

- Развлечения (Касса, Игры, Фото, Радио, Гороскопы, ТВ-программа);

- Общение (Почта, Знакомства);

- Программы и приложения (Ассистент, браузер Нихром, Мобильные приложения);

- Инструменты и сервисы (Developers, Инвентарь, Словари).

Рамблер прекрасно распознает любой контент, индексирует PDF-файлы, находит флэш-сайты. На данный момент поисковая система отказалась от мета-тегов, кроме meta robots. Важной составляющей соответствия сайта алгоритму Рамблера является плотность ключевых запросов (не менее 8%). При ранжировании сайтов большое внимание уделяется тематике ресурса, чем уже специализация, тем выше релевантность.

Статистика Liveinternet переходов из поисковых систем по тематикам представлена ниже (рисунок 6).

Рис. 6. Статистика Liveinternet

 

Практически по всем представленным тематикам Яндекс обрабатывает больше всего поисковых запросов пользователей, но, например, в теме «связь» и «медицина» процент запросов в Google приближается к 40%, а совокупно два поисковика охватывают приблизительно 92% от всех переходов из поисковых систем. Поэтому по этим тематикам имеет смысл нацеливаться на продвижение сайта в обоих поисковиках, чтобы охватить максимальное количество пользователей.

Не стоит забывать, что качественная работа над сайтом позволит занять ему хорошие позиции во всех поисковых системах. Быть может, поисковые стандартны у той или иной системы различаются, и где-то подмешиваются социальные сигналы или поведенческий фактор, кто-то может позволить содержать асессоров. Но качество и уникальность контента, мета-теги, структура сайта и, конечно же, ссылки остаются неоспоримыми факторами для любой поисковой системы. И они будут определяющими для всех поисковых систем еще ближайших несколько лет5.

3 Поисковая оптимизация сайтов (SEO)

 

Поисковая оптимизация - это процесс работы над сайтом, его внешними и внутренними факторами, влияющими на ранжирование (сортировку) в поисковых системах – структурой, контентом, кодом, ссылками на сайт - с целью увеличения релевантности ресурса поисковым запросам пользователей, увеличения уровня доверия к сайту у поисковых машин и, соответственно, повышения позиций сайта в результатах поисковой выдачи - для привлечения посетителей (потенциальных покупателей). Специалисты SEO должны понимать алгоритмы работы поисковых систем - индексацию контента, поиск и ранжирование сайтов, а также то, как пользователь ищет то что ему нужно - что он набирает в поиске.

SEO - search engine optimization  
(поисковая оптимизация, оптимизация под поисковые системы/машины) - процесс, когда структура вебсайта, параметры страниц и контент устанавливаются таким образом при котором поисковые машины поощряют сайт: индексируют и помещают на верхние позиции поисковой выдачи.

Результат запроса (ответ на запрос) пользователя в поисковой системе - список страниц сайтов соответствующих (релевантных) запросу пользователя - с точки зрения алгоритма поисковой системы. Отсортированных в порядке убывания релевантности.

Например, пользователь набирает запросы: "официальный сайт университета" или"абитуриент хабаровск", или "вузы дальнего востока", а поисковая система выдает список соответствующих запросу страниц, причем на первых местах находятся страницы (сайты), которые соответствуют запросу пользователя с большей степенью.

Интрига ситуации заключается в следующем: большинство пользователей смотрят только первую десятку результатов запроса, и далее 10-й позиции в списке поисковой выдачи не смотрят вообще. Причины просты: на первой странице помещается 10 результатов поисковой выдачи, и среди этой первой десятки, в большинстве слуаев попадается "то что надо", а получив "то что надо" - мало кто захочет тратить время и переходить на следующую страницу, что бы копаться дальше.

Таким образом, что бы существенное количество пользователей, интересующихся информацией и еще не знающих про Ваш сайт - заходило на сайт, нужно что бы этот сайт по тем запросам, которые набирают пользователи, попадал на позицию "как можно выше" в результатах выдачи поисковой системы (первая страница результатов, что соответствует 1-й десятке списка).

Сайт, принимающий запросы пользователей и выдающий результат по ним - перечень ссылок интернета соответствующих запросам - в той или иной степени. Список сортируется по степени соответствия запросу в порядке убывания.

Что бы выдавать результат, поисковая машина считывает все, которые может найти, сайты в интернете, путем перехода по всем ссылкам на всех сайтах, а так же - путем перехода по ссылкам в своей базе данных регистрации сайтов. Затем она обрабатывает их информацию (фильтрует, структурирует, сортирует, упаковывает и др.) и записывает в свое хранилище. Считывание сайтов интернета происходит регулярно при помощи поискового робота, с периодом от нескольких дней до нескольких недель - в зависимости от уровня развития поисковой системы, параметров сайта и его доступности.

программа поисковой системы, которая считывает содержимое всех сайтов в интернете, информация о которых ей доступна. Чем чаще робот заходит на сайт, тем меньше промежуток времени между появлением новых материалов на сайте и их появлением в результатах поисковой выдачи.

Получив запрос пользователя, поисковая система в своем хранилище - среди многих миллионов и миллиардов страниц сайтов - находит те, которые соответствуют запросу, сортирует их по степени соответствия запросу, по одной ей известному алгоритму, цель которого - отсеять спамдексинг и небезопасный контент, объективно отсортировать и предоставить первыми - самые лучшие результаты. Затем возвращает пользователю отсортированный по степени соответствия запросу список страниц сайтов, что и является результатом поисковой выдачи.

Поисковая оптимизация это процесс организации контента на сайте и его взаимодействия с другими сайтами, для продвижения позиций сайта в результатах поисковых запросов.

Поисковая оптимизация это один из ключей деятельности веб-маркетинга, который помогает привлечь на сайт посетителей (потенциальных покупателей). SEO учитывает работу поисковых систем и то, как ищут пользователи. Оптимизация сайта включает редактирование контента, кода сайта и организацию взаимодействия сайта с другими сайтами - для того, чтобы увеличить релевантность сайта по определенным запросам пользователей, а так же удалить препятствия для индексации и создать условия для наиболее частой и быстрой индексации поисковыми роботами.

Как и в любой деятельности, в SEO имеется несколько подходов продвижения в поисковых системах и, соответственно, привлечения посетителей. Методы, допустимые с точки зрения поисковых машин, называются белыми методами оптимизации.

Так же есть методы, которые поисковыми машинами не приветствуются (они допускают достижение цели способом обмана), и за которые поисковые машины могут накладывать санкции на сайт. Такие методы оптимизации называются черными.

Спамдексинг - комплекс нелегитимных приемов, направленных на обман поисковой системы. Иногда такие меры называют непрофессиональными и незаконными, но поскольку в законах это не отражено, а черная оптимизация стала почти профессией и совершенствуется, то правильнее сказать про них - некорректные. Спамдексинг применяют, потому что так часто бывает быстрее и проще, но такой путь часто и обрывается не дойдя до цели. Веб-мастер может допустить спамдексинг неумышленно, по неопытности, но поисковая система его распознает и наложит санкции на сайт.

К черным методам оптимизации относятся такие методы, как:

- клоакинг (пользователю сайт показывает один контент, а поисковому роботу другой);

- дорвеи - страницы для перенаправления трафика;

- использование невидимого для пользователя, но видимого для поискового робота контента;

Информация о работе Поиск информации в интернете