Запознаване с търсещите машини (част първа)
ВРЕМЕ ЗА ЧЕТЕНЕ: Минути
Търсачка или търсеща машина (на английски: Web Search Engine) е специализиран софтуер за извличане на информация, съхранена в компютърна система или мрежа. Това може да е персонален компютър, Интернет, корпоративна мрежа и т.н. Без допълнителни уточнения, най-често под търсачка се разбира уеб търсачка, която търси в Интернет.
История на търсещите машини
Първата търсачка e наречена Арчи (умалително на английското archive, архив). Тя е разработена през 1990 г. от Алън Емтидж, студент в университета МакГил в Монреал. Търсачката търси файлове на FTP сървъри (по това време FTP e основният протокол за пренос на файлове в Интернет). Докато Арчи индексирала компютърни файлове, търсачката Гофър индексирала прости документи. Гофър била създадена от Марк МакКахил през 1991 г. в университета на Минесота, и била кръстена на университетския талисман.
Първата истинска уеб търсачка e Уондекс, вече нефункциониращ справочник, съставен от уеб бот, направена от Матю Грей от МТИ през 1993.
Начало на търсещи машини
Системните администратори и доставчици на съдържание започват оптимизирането на сайтове за търсещите машини в средата на 90-те години, когато първите търсачки започват да каталогизират ранното уеб пространство. Първоначално всичко необходимо, което уеб администраторите е трябвало да направят, е да поставят адреса на страницата или URL-а в различни машини, които обхождат уеб сайта и извличат хипервръзките от него, които в последствие да бъдат индексирани.
Процесът включвал прилагането на програми, наречени „паяци“, които търсещите машини използват за изтеглянето на страници от Интернет. Те запазват тези страници на обособен за търсачката сървър, докато втора програма, наречена „индексатор“, извлича различна информация от изтеглената страница като думите, които съдържа, къде се намират те и значимостта на всяка от тях. Освен това биват запазени и хипервръзките, които се съдържат в страниците, за да могат да бъдат обходени на по-късен етап.
Притежателите на уеб сайтове започват да осъзнават важността на това сайтовете им да имат по-висок ранг и видимост в резултатите на търсещите машини, предопределяйки появата на SEO практикуващите. Според анализатора Дани Съливан се предполага, че фразата „оптимизация на уеб сайтове“ е навлязла в употреба през 1997 г. Първата употреба на термина „оптимизация за търсачки“ е от Джон Аудит, документирана на уеб страница в сайта на Multimedia Group Marketing от август 1997 г.
Търсещи машини и изработка на уеб сайт
Чрез включването на многото фактори, повечето от които в контрола на уеб администраторите (като плътността на ключовите думи), ранните търсачки страдат от насилствено (манипулирано) класиране на резултатите. Тъй като успехът и популярността на търсачките се предопределя от способността им да предоставят на потребителите си полезни резултати, налага се търсачките да се адаптират. Създават се по-сложни алгоритми, които взимат предвид допълнителни фактори, за да минимизират показването на несъстоятелни резултати.
Най-известните търсачки в света са 14 на брой – световни: Bing, DuckDuckGo, Ecosia, Exaled, Google, Munax, Qwant, Yahoo!, Yandex; английски: Gigablast; китайски: Sogou, Soso, Youdao; японски: Baidu;, а безспорен лидер е Google. Гигантът, кръстен на името на числото, което представлява 1 със сто нули, класира резултатите от търсенето, а името манипулирането на подредбата на резултатите, въпреки множеството алгоритми, които в момента го правят почти невъзможно, е крайната цел за успешния труд на копирайтъра.
Повече по темата
Етикети: GoogleSEOкопирайтингтърсещи машини