Персональные данные в поисковиках

Опубликовано в : 26-07-2011 | Автор : Владимир Чернышов | В рубрике : Интернет

0

Дважды за последние пару недель возникали информповоды по поводу индексации поисковыми системами, а вернее речь шла практически только о Яндексе, совсем не публичной информации. Многие при этом склонны обвинять именно поисковики в таком нехорошем поведении, хотя поисковики вполне корректно делают свою работу: можно проиндексировать контент — индексируют.

На самом деле разгоняй надо делать админам, архитекторам и ПМам, которые вообще допустили доступность такого контента в интернете. По хорошему доступ к бек-енду должен открываться буквально по IP-адресам только непосредственно работающим с админкой людям, запароленный доступ и https обязательны. Никто не отменял VPN, кстати.

А закрыть доступ к разделу или незапароленной админке в robots.txt — это все равно, что дать незнакомому человеку ключи от квартиры и указать пальцем на дверь. Любой даже не хакер, а пользователь с уровнем выше среднего, пройдется по таким «закрытым» разделам пылесосом wget’а и будут потом писать уже не про поисковики, а чт-то вроде:

…в руки хакеров попало н-дцать тысяч пользовательских записей из ряда интернет-магазинов и сервисов…

В общем, кажущаяся простота развертывания готовых сервисов и модулей различных CMS и прочих готовых решений, а также изменяющий реальность подход к публичности личной информации все равно не снижает требований к ответственным специалистам.

Директивы в robots.txt

Опубликовано в : 07-05-2010 | Автор : Владимир Чернышов | В рубрике : Интернет

2

Минимум три года не отслеживал изменения в применении и директивах robots.txt. За это время и заметки в архиве блога о robots.txt и статья несколько устарели. Из справки Яндекса можно судить об изменениях: обрабатываются спецсимволы “*” и “?”, директива ограничения частоты запросов Crawl-Delay, впервые появившаяся у Yahoo в 2006-м году, как и Allow, а также незнакомая мне ранее Clean-param.

Насчет обработки спецсимволов для замены последовательностей и директивы Crawl-Delay — все вроде бы понятно, “звездочку” всегда использовали для замены последовательностей символов, ограничение частоты запросов, особенно для крупных сайтов тоже вещь полезная. А вот Allow и Clean-param вроде и понятны, но есть нюансы. В частности то, что в последовательности Allow/Disallow в рамках одной секции учитывается первая, если несколько директив могут применяться к определенному URL. Особенно пугает Allow: без ничего, запрещающая индексацию всего сайта (аналог Disallow: /). В случае Clean-Param хотелось бы понять, как обрабатываются ссылки на такие страницы и рассматриваются ли страницы как дубли?

А вообще интересно до чего дошел прогресс!

Социальные сети в 2012 году

Опубликовано в : 13-04-2010 | Автор : Владимир Чернышов | В рубрике : Интернет

9

Продолжение темы о будущем социальных сетей. На AdAge вышла большая статья с 11 предсказаниями о социальных сетях в 2012 году.

Какие же изменения ждут нас через два года?

  1. Изменится отношение к приватности личных данных – пользователи будут размещать все больше информации о себе в социальных медиа.
  2. Децентрализация социальных сетей. Уже можно наблюдать начало процесса в таких сервисах как Facebook Connect и Google FriendConnect.
  3. Взаимодействие с поисковыми системами будет другим – важным станет поиск по быстро меняющемуся контенту, вроде Твитера.
  4. Расцвет аггрегаторов контента, что связано с экспоненциальным ростом объема контента в сети.
  5. “Дополненная реальность” социальных сетей, когда к контактам в мобильном телефоне привязываются ленты в твитере, информация о местонахождении и т.д.
  6. “Маркетинг влияния” будет кардинально пересмотрен.
  7. Рейтингование всего и везде – рейтингование станет стандартным, сайты без возможностей рейтингования и комментирования будут выглядеть несуразно и архаично.
  8. Агенты в социальных медиа. Тут я не понял сути пункта 🙁
  9. Успех Google Wave, как инструмента коммуникации потребителей друг с другом и с маркетологами.
  10. Будущее после будущего. После социальных сетей в реальном времени наступит “мир семантического веба”, где сервисы и каналы будут предугадывать желание пользователей.
  11. Все медиа станут социальными!

Точность перевода и определений не гарантирую, дотошных отправлю к оригинальной статье с более полными и подробными комментариями.

Презентация «Идем онлайн»

Опубликовано в : 31-03-2010 | Автор : Владимир Чернышов | В рубрике : Интернет

0

Презентация моего доклада, сделанного в Харькове, 18-го марта на мероприятии Marketing Drive.

Целью доклада было рассказать об онлайновых маркетинговых инструментах, охарактеризовать сферы их применения, дать оценку эффективности.

Больше всего вопросов по ходу доклада и после него задавали об эффективности и других нюансах корпоративных блогов.

Сама презентация:

SEO для крупных сайтов

Опубликовано в : 25-03-2010 | Автор : Владимир Чернышов | В рубрике : Интернет

5

Множество раз сталкиваюсь с шаблонным подходом к поисковому продвижению. Пока типовой подход применяется к относительно типовым сайтам, все выглядит вполне логично: анализ тематики, составление семантического ядра, определение/создание целевых страниц, прописывание тайтлов/мета/h1, внутренняя перелинковка, набор ссылочной массы. Когда же речь идет о крупных сайтах, применять такую методику в лоб в принципе можно, вот только результат такой оптимизации скорее всего разочарует.

Основные принципы поисковой оптимизации для крупных сайтов:

  1. Семантического ядра для крупных сайтов нет – это либо семантический массив в случае интернет-магазинов и каталогов, или семантическое ядрышко в случае медиа-сайтов.
  2. Целевые страницы для сайтов с десятками и сотнями тысяч страниц – это на самом деле пара десятков ключевых страниц: главная, главные разделов/подразделов.
  3. Надо определять типы страниц входа: страницы товаров, тексты материалов, страницы отзывов/комментариев.
  4. Сделать оптимизацию шаблона для типовых страниц входа.
  5. Анализ и оптимизация внутренней ссылочной структуры. Для этого надо понимать принципы работы индексаторов поисковых систем, в общем виде понимать теорию графов и как выглядит граф сайта, когда узлы графа – страницы, а связи – ссылки между ними.
  6. Создать “тепличные” условия для индексации, непрерывно анализировать процесс добавления и обновления страниц сайта в индексе поисковой системы. Убрать лишнее из индекса, например версии для печати.
  7. Понимать, что делать с удаляемыми страницами, например страницу уже непродающегося товара в интернет-магазине. Кстати, вариантов много разных, в лоб удалять страницу точно не стОит.

Надо дружить с системами статистики и аналитики, а также понимать, что вообще говоря трафик – это посетители, аудитория, потенциальные покупатели и клиенты, а не самоцель.

Вот так, если кратко.

Главная > Архив рубрики "Интернет" (Page 2)