Тази статия е продължение на Запознаване с търсещите машини (част първа).

Копирайтърите трябва да създадат такова съдържание за клиента си, че неговият сайт да бъде възможно най-челен резултат. Това става, чрез редица фактори, като fresh content („свежо съдържание“), уникалност на текста, SEO meta tags („мета тагове за търсещите машини“), sitemap („карта на сайта“) и други (общият списък надхвърля 200 критерия):

  • Fresh content – „Свежо съдържание“ – Google преминава през сайтовете отново и отново в много кратък интервал от време. Търсачката обхожда сайтовете и анализира кои от тях имат свежо съдържание, т.е. публикуват ново текстово съдържание в сайта възможно най-често. По този начин сайтът е отчетен като активен, съответно качествен.
  • Unique content – „Уникално съдържание“ – В първите 10 години на XXI век в Интернет доминираше масовата copy-paste практика, в която един сайт публикуваше едно съдържание, а всички останали го препубликуваха, а кой е бил първоизточникът оставаше загадка поради две причини: – това не беше проследявано; – на никого не му пукаше; Това далеч не се случваше само в медийни сайтове, а във всякакви по тематика сайтове – от фен страници на различни анимационни герой, до такива за физика и космонавтика. Google обаче каза окончателен край на тази практика през 2011 г., когато въведе новия алгоритъм Google Panda, който анализира текстово съдържание и неговия първоизточник. Новият робот поощрява сайтовете, които редовно публикуват свежо и уникално съдържание, като ги повдига в търсените резултатит и съответно наказва „крадците“ като ги свлича надолу, а по-някога и изкарва от резултатите.
  • Search Engine Optimization Meta Tags – „Мета тагове за оптимизация в търсещите машини“ – Това е процесът на подобряване видимостта на уеб сайт в търсачките чрез натурални или неплатени резултати, който включва оптимизация на HTML-кода, структурата и текстовете на уеб сайт. Ролята на мета таговете е Google в ролята си на робот ясно да може да се ориентира, кои части от сайта са заглавие, кои описание, кои съдържание, кои ключови думи, кои снимки и т.н. По този начин алгоритъмът на Google изчита правилно подаденото му съдържание и сайтът започва да излиза по-напред.
  • Sitemap – „Карта на сайта“ – Това е специфичен вид файл, който е тип .xml или друг файлов тип. Най-обобщено казано sitemap съдържа информация за всички публични страници на сайта, както и указание с каква честота администраторът желае да бъдат препрочитани от Google. Sitemap се изпраща лично от администраторът до Гугъл, в противен случай търсещата машина индексира сайта спрямо своите автоматични желания, а те често не съвпадат с тези на автора.

Най-ефективната и честа техника е съчетаването на копирайт текстовете в секция на сайта блог, която постоянно се насища с нови и уникални текстове.

Когато говорим за списък с критерии, обаче, е важно да се знае, че той е въображаем и се допълва, чрез различни опити, практики, проби и грешки. Ръководството на Гугъл никога не биха показали истинския програмен начин, по който роботът Google класира резултатите, за това успешният копирайтър постоянно се опитва да създаде и добави нови пособия в арсенала си. Иначе казано настоящата работа на копирайтъра цели не да „манипулира“ резултатите по традиционния метод, а да пребори всички роботи, които пазят от манипулация и да „катализира“ нормалния процес.

Разгледайте нашите предложения за професионално изработване на копирайтинг съдържание.

Съдържанието на този сайт е запазено от силата на договора с Creative Commons 4.0.
Creative Commons License

В статиите си се опитваме да дадем отговори на най-често питаните въпроси, които се срещат в практиката.

Сподели