След два часа - Koray Tugberk Gübür, Teodora Petkova and Mary Stovall talk about semantic SEO and how to implement it.
https://register.gotowebinar.com/register/3800559114089482510 .
Дискусия https://www.facebook.com/groups/seopraktika/permalink/831793014428574/
След два часа - Koray Tugberk Gübür, Teodora Petkova and Mary Stovall talk about semantic SEO and how to implement it.
https://register.gotowebinar.com/register/3800559114089482510 .
Дискусия https://www.facebook.com/groups/seopraktika/permalink/831793014428574/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
Audio
Стефан Даскалов е направил аудио запис на разговора между Теодора, Корай и Мари за семантично SEO.
За тези, които не успяха да гледат уебинара с Корай днес - някои акценти от неговото участие:
🎯 Когато всеки ден прекарвате по 4-5 часа в SERP-a, започвате да забелязвате, че някои изречения или структурата на някои изречения помага повече. Аз вече съм си изградил рефлекс за това и когато чета или пиша - го правя със семантиката.
🎯Когато четете даден текст, трябва да усещате че извличате данни от него. Това е NLP термин, наречен "text to data" или "data to text".
Когато създавате текст, трябва да дефинирате неговата структура, като създадете т.нар. topical map - тематична карта. По всяка тема трябва да добавите т.нар content brief (кратко съдържание) и от него да добавите контекстуални вектори към заглавията. Трябва да създадете и контекстуалната йерархия. И според семантичните анотации да създадете вътрешни линкове.
За параграфите трябва да определите - атрибутите на кои ентитита ще покриват и за кои въпроси.
Ако не подберете правилните ентитита - няма да се получи. Например, оптимизирах статия за хладилnици, но според NLP API на Google - статията беше за хранa. Тъй като авторът беше говорил повече за хранa и според машината - статията е за храна, е не за технология или хладилници. В целия текст, във всички пасажи - на център бяха храните. Когато Гугъл чете статия - той се опитва да хване основните ентитита и интента за страницата. И според това - свързва статията с възможни queries "заявки". Не е лесно да обучите авторите да пишат по този начин.
🎯 Пълна автоматизация все още не е възможна, но частично - да. Използвам себе си, Python и NLP. Отворете SERP-a, извадете страниците, извадете всички ентитита, техните атрибути, таксономия и връзки между тях.
🎯 Как извличаш ентититата - използвам SpaCy или други NLP алгоритми или библиотеки. Но освен това е въпрос на рефлекс да можете да разберете кои концепции са използвани.
Прегледайте страниците, използваните анкори, заглавията, структурата на параграфите, people also aks, n-грамите на картинките, в техния source section ще видите тяхната категория с n-грами и т.н., за да извлечете информация и за атрибутите на ентититата.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/832007151073827/
За тези, които не успяха да гледат уебинара с Корай днес - някои акценти от неговото участие:
🎯 Когато всеки ден прекарвате по 4-5 часа в SERP-a, започвате да забелязвате, че някои изречения или структурата на някои изречения помага повече. Аз вече съм си изградил рефлекс за това и когато чета или пиша - го правя със семантиката.
🎯Когато четете даден текст, трябва да усещате че извличате данни от него. Това е NLP термин, наречен "text to data" или "data to text".
Когато създавате текст, трябва да дефинирате неговата структура, като създадете т.нар. topical map - тематична карта. По всяка тема трябва да добавите т.нар content brief (кратко съдържание) и от него да добавите контекстуални вектори към заглавията. Трябва да създадете и контекстуалната йерархия. И според семантичните анотации да създадете вътрешни линкове.
За параграфите трябва да определите - атрибутите на кои ентитита ще покриват и за кои въпроси.
Ако не подберете правилните ентитита - няма да се получи. Например, оптимизирах статия за хладилnици, но според NLP API на Google - статията беше за хранa. Тъй като авторът беше говорил повече за хранa и според машината - статията е за храна, е не за технология или хладилници. В целия текст, във всички пасажи - на център бяха храните. Когато Гугъл чете статия - той се опитва да хване основните ентитита и интента за страницата. И според това - свързва статията с възможни queries "заявки". Не е лесно да обучите авторите да пишат по този начин.
🎯 Пълна автоматизация все още не е възможна, но частично - да. Използвам себе си, Python и NLP. Отворете SERP-a, извадете страниците, извадете всички ентитита, техните атрибути, таксономия и връзки между тях.
🎯 Как извличаш ентититата - използвам SpaCy или други NLP алгоритми или библиотеки. Но освен това е въпрос на рефлекс да можете да разберете кои концепции са използвани.
Прегледайте страниците, използваните анкори, заглавията, структурата на параграфите, people also aks, n-грамите на картинките, в техния source section ще видите тяхната категория с n-грами и т.н., за да извлечете информация и за атрибутите на ентититата.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/832007151073827/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
Някои мои наблюдения от последните Google ъпдейти, които може да изкоментираме петъчно. Всяко от тях е отворено за дискусия и ако имате обратна тези, я споделете.
* Ролята на Core Web Vitals и да я има, е доста малка. Все още силните сайтове са непоклатими дори и бавни.
* Увеличи се ролята на онсайт семантиката. Всички текстове на страници, които падат при този ъпдейт, е добре да се преработят с отчитане на NLP алгоритмите.
* Връзките влияят вече чисто като брой. Дори и долнопробните си дават тяхното. Нещо този spam ъпдейт не ми прилича много на spam ъпдейт, освен ако не се има предвид, че насърчава спама.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/832504664357409/
Някои мои наблюдения от последните Google ъпдейти, които може да изкоментираме петъчно. Всяко от тях е отворено за дискусия и ако имате обратна тези, я споделете.
* Ролята на Core Web Vitals и да я има, е доста малка. Все още силните сайтове са непоклатими дори и бавни.
* Увеличи се ролята на онсайт семантиката. Всички текстове на страници, които падат при този ъпдейт, е добре да се преработят с отчитане на NLP алгоритмите.
* Връзките влияят вече чисто като брой. Дори и долнопробните си дават тяхното. Нещо този spam ъпдейт не ми прилича много на spam ъпдейт, освен ако не се има предвид, че насърчава спама.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/832504664357409/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
👉Може би ще е в полза на новостартиращите сайтове.🌐🖇
Дискусия https://www.facebook.com/groups/seopraktika/permalink/832524587688750/
👉Може би ще е в полза на новостартиращите сайтове.🌐🖇
Дискусия https://www.facebook.com/groups/seopraktika/permalink/832524587688750/
Здравейте знаещи! Имам следния въпрос. Как се контролират анкорни линкове и платен трафик към сайт? Има ли механизъм за това или се доверяваме на статистиката на донора, още повече, че има доста голяма разлика между Google Analytics и това, което те дават като посещения на сайта? Каква е вашата практика? На мен ми изглежда това като мобилните оператори - плащаш и не питаш :)
Благодаря предварително!
Дискусия https://www.facebook.com/groups/seopraktika/permalink/833046620969880/
Здравейте знаещи! Имам следния въпрос. Как се контролират анкорни линкове и платен трафик към сайт? Има ли механизъм за това или се доверяваме на статистиката на донора, още повече, че има доста голяма разлика между Google Analytics и това, което те дават като посещения на сайта? Каква е вашата практика? На мен ми изглежда това като мобилните оператори - плащаш и не питаш :)
Благодаря предварително!
Дискусия https://www.facebook.com/groups/seopraktika/permalink/833046620969880/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
В последно време виждам всички в SEO средите залитат към Python за обработки. Ще ви издам една малка тайна - повечето неща, за които четете някакви непонятни командни редове, можете да ги вършите удобно в Excel с помощта на SEO Tools for Excel.
Просто си го купете (не е скъп), разучете конекторите, които са ви нужни във вашата работа и ползвайте изчислителната мощ на Excel с тази SEO добавка.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/833671367574072/
В последно време виждам всички в SEO средите залитат към Python за обработки. Ще ви издам една малка тайна - повечето неща, за които четете някакви непонятни командни редове, можете да ги вършите удобно в Excel с помощта на SEO Tools for Excel.
Просто си го купете (не е скъп), разучете конекторите, които са ви нужни във вашата работа и ползвайте изчислителната мощ на Excel с тази SEO добавка.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/833671367574072/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
Който разбира тук се спира:
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834287177512491/
Който разбира тук се спира:
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834287177512491/
Свърши се с ъпдейта, да видим какви анализи ще излязат
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834577494150126/
Свърши се с ъпдейта, да видим какви анализи ще излязат
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834577494150126/
Много добре е обяснено. Препоръчвам на всеки, който има интерес към semantic SEO-то.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834665707474638/
Много добре е обяснено. Препоръчвам на всеки, който има интерес към semantic SEO-то.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834665707474638/
Днес заговорихме за SEO състезанието на Jump и една точка, на която не бяхме обърнали внимание:
> ТОП 2-5
> 4 Х 4 Х 1 000 ЛВ. ЗА CLOUD УСЛУГИ
> Топ 5 участници (от 2-ро до 5-то място) във всяка от трите класации за съдържание, видео и социални мрежи ще получи награда под формата на ваучер за Cloud услуги в Jump.BG на стойност 1 000 лв. + Грамота
Оказва се, че всеки участник, в която и да е от категориите, с класиране преди 6-то място, ще получи 1000лв. ваучер за VPS от Jump - https://www.jump.bg/ssdvps.html
Това, за най-евтината тарифа за виртуален сървър, са **близо 8 години безплатен VPS**.
Все още има време да се включите и да спечелите тази награда в някоя от категориите SEO или видео.
В състезанието може да се включите тук, като регистрациите са отворени до 20.09.21 - https://markethon.jump.bg/
Другият бонус, който получавате веднага след регистрирането на проект напълно безплатно, е споделен хостинг за 1 година.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834924014115474/
Днес заговорихме за SEO състезанието на Jump и една точка, на която не бяхме обърнали внимание:
> ТОП 2-5
> 4 Х 4 Х 1 000 ЛВ. ЗА CLOUD УСЛУГИ
> Топ 5 участници (от 2-ро до 5-то място) във всяка от трите класации за съдържание, видео и социални мрежи ще получи награда под формата на ваучер за Cloud услуги в Jump.BG на стойност 1 000 лв. + Грамота
Оказва се, че всеки участник, в която и да е от категориите, с класиране преди 6-то място, ще получи 1000лв. ваучер за VPS от Jump - https://www.jump.bg/ssdvps.html
Това, за най-евтината тарифа за виртуален сървър, са **близо 8 години безплатен VPS**.
Все още има време да се включите и да спечелите тази награда в някоя от категориите SEO или видео.
В състезанието може да се включите тук, като регистрациите са отворени до 20.09.21 - https://markethon.jump.bg/
Другият бонус, който получавате веднага след регистрирането на проект напълно безплатно, е споделен хостинг за 1 година.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/834924014115474/
Привет!
Препоръчайте ми тоол, чрез който да си Warm-up-вам имейлите (gmail-ски) преди да почна Outreach-a. Благодарско.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/835003154107560/
Привет!
Препоръчайте ми тоол, чрез който да си Warm-up-вам имейлите (gmail-ски) преди да почна Outreach-a. Благодарско.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/835003154107560/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
Драги съотечественици, модерно е да се говори за семантично SEO, как някои изречения се интерпретират по-добре от Google NLP и.т.н обаче от известно време ме мъчи една мисъл: Как аджеба да го приложим това за българския пазар?
Минах през целия процес на setup-ване на Google Cloud Services, Python скриптове, API интеграции и.т.н. докато не видях най-важното нещо, а именно че Entity analysis не се поддържа на български (реално нищо от Google NLP не поддържа български). Въпросът тогава е следния: До колкото семантичното SEO оказва влияние на български? Дали Google просто не са го пуснали в NLP API-то, защото нямат достатъчно volume да го обучат добре или в google.bg семантиката оказва по-малко влияние за ранкване? Какви са вашите наблюдения по въпроса и какво използвате за Entity analysis на езици, които не се поддържат от Google?
P.S. А дали би било адекватно да превеждаме от български на английски, да направим NLP анализа и после пак да се върнем на български да коригираме? Все пак езиците се различават от към синтаксис и формиране на изречения.
P.S. 2 Идеята на упражнението е да направя опростен web app, който да автоматизира максимално много от този процес по NLP анализ на български текст.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/835064697434739/
Драги съотечественици, модерно е да се говори за семантично SEO, как някои изречения се интерпретират по-добре от Google NLP и.т.н обаче от известно време ме мъчи една мисъл: Как аджеба да го приложим това за българския пазар?
Минах през целия процес на setup-ване на Google Cloud Services, Python скриптове, API интеграции и.т.н. докато не видях най-важното нещо, а именно че Entity analysis не се поддържа на български (реално нищо от Google NLP не поддържа български). Въпросът тогава е следния: До колкото семантичното SEO оказва влияние на български? Дали Google просто не са го пуснали в NLP API-то, защото нямат достатъчно volume да го обучат добре или в google.bg семантиката оказва по-малко влияние за ранкване? Какви са вашите наблюдения по въпроса и какво използвате за Entity analysis на езици, които не се поддържат от Google?
P.S. А дали би било адекватно да превеждаме от български на английски, да направим NLP анализа и после пак да се върнем на български да коригираме? Все пак езиците се различават от към синтаксис и формиране на изречения.
P.S. 2 Идеята на упражнението е да направя опростен web app, който да автоматизира максимално много от този процес по NLP анализ на български текст.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/835064697434739/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
Интересна статия описваща процеси протичащи в момента:
https://www.protocol.com/policy/w3c-privacy-war
Сега ще попитате - а как ще повлияе на SEO?
Отговора е прост - потребителски сигнали, AI и т.н. Обаче те опират до privacy и малко се получава Catch 22. От друга страна имаме GDPR, CCPA и още няколко подобни.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/835304604077415/
Интересна статия описваща процеси протичащи в момента:
https://www.protocol.com/policy/w3c-privacy-war
Сега ще попитате - а как ще повлияе на SEO?
Отговора е прост - потребителски сигнали, AI и т.н. Обаче те опират до privacy и малко се получава Catch 22. От друга страна имаме GDPR, CCPA и още няколко подобни.
Дискусия https://www.facebook.com/groups/seopraktika/permalink/835304604077415/