веб
Сухой факт
Лучше всего из стандартных шрифтов глазами считываются:
- С экрана - Verdana 10-12pt (затем Arial и Tahoma)
- В печати - Times New Roman, Georgia (потенциально другие с засечками, Courier?)
- Также хорошо воспринимается Helvetica (в рекламных материалах, заголовках). При плотном тексте воспринимается хуже.
Для справки. Общее правило для семейств шрифтов такое: serif шрифт для печати, sans-serif для экрана.
22 Февраль, 2011 - 08:26, teerex
$('a.show').hide();
$('a.hide').click(function(){
$('h2.title,.view-header-latest').add(this).hide();
$('a.show').show();
$.cookie('hideShow', 'hide');
return false;
});
var hideShow = $.cookie('hideShow');
if (hideShow=='hide') {
$('a.hide,h2.title,.view-header-latest').hide();
$('a.show').show();
};
$('a.show').click(function(){
$(this).hide();
$('a.hide,h2.title,.view-header-latest').show();
$.cookie('hideShow', 'show');
return false;
});
if (hideShow=='show') {
$('h2.title,.view-header-latest').show();
};
Данный материал основан на статье и исследованиях компании SEOmoz и моём опыте.
Не смотря на заголовок про гугл, эти правила применимы к понятию качества ссылок и для других поисковых систем.
В 1997 году основатели Google создали алгоритмический метод для определения важности и популярности страниц, основанной на нескольких ключевых принципах:
- Ссылки могут быть представлены как голоса, которые отдаются донором (ресурс, на котором стоит ссылка) акцептору (ресурс, на который ведёт ссылка)
- Все голоса изначально принимаются равными
- По алгоритму страницы, которые получают больше голосов, становятся более важными
- Более важные страницы передают больше голосов
- Голоса, которые может передать страница — функция от важности страницы, делённая на количество голосов/ссылок
Этим алгоритмом, конечно, являлся PageRank (PR) и это новшество изменило курс веб-поиска, имея большое влияние на ранние попытки Google предоставить качественные релевантные результаты. По мере распространения знаний о PageRank SEOшники нашли пути для получения нужной информации в пользу своих сайтов и страниц.
Но Google не стоял на месте в деятельности по аналитике ссылок. Они вносили новшества, добавляя сигналы вроде текста анкора, траста, узлов, моделирование темы и даже человеческую деятельность чтобы повлиять на вес, который может передать ссылка. Но, к сожалению, многие SEO-деятели всё ещё не в курсе этих изменений и их влиянии.
В этом посте изложены 10 принципов оценки ссылок, которые можно наблюдать, протестировать и, в некоторых случаях, запатентовать.
Эти 10 принципов не являются жесткими правилами. Хотя они и основаны на опыте, но как практически всё в SEO — являются мнением. Мы приглашаем читателей и приветствуем проводить проверки самим.
Нет способа изучения SEO лучше, чем пойти и экспериментировать самому "в полях".
Далее приведены сами принципы с комментариями.
По официальному сообщению Яндекса в своём блоге в течении июля 2010 все его роботы обретут более "человекопонятные" названия.
Этим убиваются два "зайца":
- Названия роботов становятся более информативными
- Представление имён роботов приводится к одному виду (унифицированы)
Список новых User-Agent:
Недавно подбирал счётчик для этого сайта.
Особенность в том, что в теории тут для каждого пользователя заводится отдельный субдомен, и сколько в итоге будет этих пользователей пока что точно неизвестно.
Рассмотрел несколько вариантов:
29 Апрель, 2010 - 16:26, teerex
Интересная ситуация сегодня получилась.
Стоило забыть запустить ICQ - и для некоторых клиентов я становлюсь "совершенно" невидим.
Люди, ну нельзя же так зависеть от заграничного сервиса без гарантии доставки сообщений!
Далее немного скучой старой аналитики:
Распределение рынка служб мгновенного обмена сообщениями (IM-messaging) по миру, июль 2008
28 Апрель, 2010 - 11:12, teerex
Что такое интернет, веб?
World Wide Web
Мировая паутина.
Всё переплетено, всё связано в единую сеть.
Гиперссылки - это основа веба. Без ссылок это был бы просто набор несвязанных документов.
НО что же наблюдается в последнее время всё больше и больше? Вебберы ударились в метания dofollow, nofollow, index, noindex... лишь бы быть занятыми в процессе, обрубая нити веба.
ЛЮДИ, АУ! Блогеры, вебмастеры, оптимизаторы, комментаторы и вся прочая интернет-братия!
Давайте делать веб СЕТЬЮ, делать интернет ЖИВЫМ и НАСТОЯЩИМ, а не чёрным рынком весов поисковых машин.
27 Апрель, 2010 - 18:05, teerex
Недавно мне надо было сделать скриншот сайта в полный размер.
Photoshop, Corel и всякие Paint-ы для этой цели не очень подходят, да и ощущения такие как будто роешь канаву скальпелем - каждую часть скринить, резать, сшивать...
После недолгих поисков в инете нашёл очень интересную и простую программу, которую и использую до сих пор.
WebShot - программа для создания скриншотов веб-страниц. Скрин в ней делается буквально в пару кликов:
- Результаты сохраняются в форматы JPG, PNG, GIF и BMP.
- По-минимуму нужно только ввести адрес страницы, которую скринить и указать папку для сохранения результата.
- Можно указать разрешение, на котором делать снимки (закладка Browser). Например, чтобы посмотреть как будет выглядеть страница на каком-нибудь 1024x768
- Можно делать пакетную обработку списка url (закладка Multiple).
+ ещё много вторичных настроек
Хотя интерфейс программы и на английском, но это даже практически незаметно, т.к. всё делается очень просто:
27 Апрель, 2010 - 17:23, teerex
Исходная статья годовалой давности, но всё равно весьма полезный приём, например
если апач жрёт много ресурсов, не хватает памяти на сервере, тормозит база данных и т.д.
Просто положить готовые страницы в виде файлов и всё.
Притом даже если будет сбой бэкенда (ошибки HTTP 500, 502, 503, 504) - всё равно nginx сможет вернуть рабочую страницу.
---
23 марта вышел nginx 0.7.44, в нем наконец то появилось обещенное кеширование в модуле проксирования. Что нам это дает?
Как правило nginx используют для проксирования на всевозможные тяжеловесные веб сервера, которые долго и тяжело обрабатывают запросы. Не даром среди модулей nginx присутствует замечательно выполненный модуль upstream, который позволяет гибко балансировать нагрузку при проксировании. Теперь же, при наличии большого дискового кеша, nginx сможет сам обрабатывать такие запросы, не беспокоя при этом бекэнды.
15 Декабрь, 2009 - 18:29, teerex
|
Комментарии