Nilalaman MarketingEcommerce at RetailMga Video sa Marketing at BentaPagsasanay sa Pagbebenta at MarketingPaghahanap sa MarketingSocial Media at Influencer Marketing

Paano Makahanap, Mag-crawl, at I-index ng Mga Search Engine ang Iyong Nilalaman?

Hindi ko madalas na inirerekomenda ang mga kliyente na bumuo ng kanilang sariling e-commerce o mga sistema ng pamamahala ng nilalaman dahil sa hindi nakikitang mga opsyon sa pagpapalawak na kailangan sa ngayon – pangunahing nakatuon sa paghahanap at pag-optimize sa lipunan. Sumulat ako ng isang artikulo sa pagpili ng CMS, at ipinapakita ko pa rin ito sa mga kumpanyang nagtatrabaho ako na natutukso na bumuo ng kanilang sistema ng pamamahala ng nilalaman.

Paano Gumagana ang Mga Search Engine?

Magsimula tayo sa kung paano gumagana ang mga search engine. Narito ang isang mahusay na pangkalahatang-ideya mula sa Google.

Gayunpaman, may mga ganap na sitwasyon kung saan ang isang pasadyang platform ay isang pangangailangan. Kapag iyon ang pinakamainam na solusyon, itinutulak ko pa rin ang aking mga kliyente na buuin ang mga kinakailangang feature para ma-optimize ang kanilang mga site para sa paghahanap at social media. Tatlong pangunahing tampok ay isang pangangailangan.

Ano ang isang Robots.txt File?

robots.txt file - ang robots.txt file ay isang plain text file sa root directory ng site at nagsasabi sa mga search engine kung ano ang dapat nilang isama at ibukod mula sa mga resulta ng paghahanap. Sa mga nakalipas na taon, hiniling din ng mga search engine na isama mo ang path sa isang XML sitemap sa loob ng file. Narito ang isang halimbawa ko, na nagpapahintulot sa lahat ng mga bot na i-crawl ang aking site at idirekta din sila sa aking XML sitemap:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Ano ang isang XML Sitemap?

XML Sitemap - Gaya ng HTML ay para sa pagtingin sa isang browser, ang XML ay isinulat upang ma-digest sa programmatically. An XML Ang sitemap ay isang talahanayan ng bawat pahina sa iyong site at kung kailan ito huling na-update. Ang mga XML sitemap ay maaari ding daisy-chained... ibig sabihin, ang isang XML Sitemap ay maaaring sumangguni sa isa pa. Mahusay iyon kung gusto mong ayusin at hatiin ang mga elemento ng iyong site nang lohikal (FAQs, mga pahina, produkto, atbp.) sa sarili nilang mga Sitemap.

Mahalaga ang mga sitemap upang epektibong ipaalam sa mga search engine kung anong nilalaman ang iyong nilikha at kung kailan ito huling na-edit. Ang proseso ng isang search engine kapag pumupunta sa iyong site ay hindi epektibo nang hindi nagpapatupad ng sitemap at mga snippet.

Nang walang isang XML Sitemap, ipagsapalaran mong hindi na matuklasan ang iyong mga pahina. Paano kung mayroon kang bagong landing page ng produkto na hindi naka-link sa loob o panlabas? Paano ito natuklasan ng Google? Buweno, hanggang sa makita ang isang link dito, hindi ka matutuklasan. Sa kabutihang palad, ang mga search engine ay nagbibigay-daan sa mga sistema ng pamamahala ng nilalaman at mga platform ng e-commerce na ilunsad ang isang pulang karpet para sa kanila, bagaman!

  1. Natuklasan ng Google ang isang panlabas o panloob na link sa iyong site.
  2. Ini-index ng Google ang pahina at niraranggo ito ayon sa nilalaman nito at ang nilalaman at kalidad ng site ng nagre-refer na link.

Gamit ang isang XML Sitemap, hindi mo pinababayaan ang pagtuklas o pag-update ng iyong nilalaman sa pagkakataon! Masyadong maraming developer ang sumusubok na gumawa ng mga shortcut na nakakasakit din sa kanila. Nag-publish sila ng parehong rich snippet sa buong site, na nagbibigay ng impormasyong hindi nauugnay sa impormasyon ng page. Nag-publish sila ng sitemap na may parehong mga petsa sa bawat page (o lahat ng mga ito ay na-update kapag nag-update ang isang page), na nagbibigay ng mga pila sa mga search engine na nilalaro nila ang system o hindi mapagkakatiwalaan. O hindi sila nagpi-ping sa mga search engine sa lahat... kaya hindi napagtanto ng search engine na ang bagong impormasyon ay nai-publish.

Ano ang Metadata? Microdata? Mayamang Snippet?

Maingat na naka-tag na microdata ang mga rich snippet nakatago sa viewer ngunit makikita sa page para magamit ng mga search engine o social media site. Ito ay kilala bilang metadata. Sumusunod ang Google sa Schema.org bilang pamantayan para sa pagsasama ng mga bagay tulad ng mga larawan, pamagat, paglalarawan, at napakaraming iba pang nagbibigay-kaalaman na mga snippet tulad ng presyo, dami, impormasyon ng lokasyon, mga rating, atbp.

Ginagamit ng Facebook ang OpenGraph protocol (siyempre, hindi sila maaaring maging pareho), X kahit na mayroong isang snippet upang tukuyin ang iyong X profile. Parami nang parami ang mga platform na gumagamit ng metadata na ito upang i-preview ang mga naka-embed na link at iba pang impormasyon kapag nag-publish ang mga ito.

Ang iyong mga web page ay may isang napapailalim na kahulugan na nauunawaan ng mga tao kapag binasa nila ang mga web page. Ngunit ang mga search engine ay may isang limitadong pag-unawa sa kung ano ang tinatalakay sa mga pahinang iyon. Sa pamamagitan ng pagdaragdag ng mga karagdagang tag sa HTML ng iyong mga web page — mga tag na nagsasabing, “Hoy search engine, inilalarawan ng impormasyong ito ang tukoy na pelikula, o lugar, o tao, o video” —Makatutulong ka sa mga search engine at iba pang mga application na mas maunawaan ang iyong nilalaman at ipakita ito sa isang kapaki-pakinabang, nauugnay na paraan. Ang Microdata ay isang hanay ng mga tag, ipinakilala kasama ng HTML5, na nagbibigay-daan sa iyo upang gawin ito.

Schema.org, Ano ang MicroData?

Siyempre, wala sa mga ito ang kinakailangan… ngunit lubos kong inirerekumenda ang mga ito. Kapag nagbahagi ka ng isang link sa Facebook, halimbawa, at walang imahe, pamagat, o paglalarawan ang lumalabas ... ilang tao ang magiging interesado at talagang mag-click. At kung ang iyong mga schema ng Schema ay wala sa bawat pahina, siyempre maaari ka pa ring lumitaw sa mga resulta ng paghahanap ... ngunit maaaring talunin ka ng mga kakumpitensya kapag mayroon silang ipinakita na karagdagang impormasyon.

Irehistro ang iyong Mga XML na Sitemap sa Search Console

Kung nakagawa ka ng sarili mong content o platform ng e-commerce, kinakailangan na mayroon kang subsystem na nagpi-ping sa mga search engine, nagpa-publish ng microdata, at pagkatapos ay nagbibigay ng wastong XML sitemap para sa nilalaman o impormasyon ng produkto na mahahanap!

Kapag ang iyong robots.txt file, XML sitemaps, at rich snippet ay na-customize at na-optimize sa buong site mo, huwag kalimutang magrehistro para sa bawat search engine Search Console (kilala rin bilang Webmaster tool) kung saan maaari mong subaybayan ang kalusugan at visibility ng iyong site sa mga search engine. Maaari mo ring tukuyin ang iyong path ng Sitemap kung walang nakalista at makita kung paano ito ginagamit ng search engine, kung mayroong anumang mga isyu dito o wala, at maging kung paano itama ang mga ito.

Ilunsad ang red carpet sa mga search engine at social media, at makikita mong mas mahusay ang ranking ng iyong site, mas na-click ang iyong mga entry sa mga page ng resulta ng search engine, at mas marami ang ibinahagi ng iyong mga page sa social media. Ang lahat ay nagdaragdag!

Paano Nagtutulungan ang Robots.txt, Mga Sitemap, at MetaData

Ang pagsasama-sama ng lahat ng elementong ito ay tulad ng paglulunsad ng pulang karpet para sa iyong site. Narito ang proseso ng pag-crawl na ginagawa ng bot kasama ng kung paano ini-index ng search engine ang iyong nilalaman.

  1. Ang iyong site ay may isang robots.txt file na tumutukoy din sa iyong lokasyon ng XML Sitemap.
  2. Ina-update ng iyong CMS o e-commerce system ang XML Sitemap sa anumang pahina at petsa ng pag-publish o impormasyon ng petsa ng pag-edit.
  3. Ang iyong CMS o e-commerce system ay nag-ping sa mga search engine upang ipaalam sa kanila na ang iyong site ay na-update. Maaari mong direktang i-ping ang mga ito o gamitin ang RPC at isang serbisyo tulad ng Ping-o-matic upang itulak sa lahat ng pangunahing search engine.
  4. Agad na bumabalik ang Search Engine, iginagalang ang Robots.txt file, naghahanap ng bago o na-update na mga pahina sa pamamagitan ng sitemap, at pagkatapos ay ini-index ang pahina.
  5. Kapag ini-index ang iyong pahina, ginagamit nito ang pamagat, paglalarawan ng meta, mga elemento ng HTML5, mga heading, mga larawan, mga alt tag, at iba pang impormasyon upang maayos na ma-index ang pahina para sa mga naaangkop na paghahanap.
  6. Kapag ini-index ang iyong pahina, ginagamit nito ang pamagat, paglalarawan ng meta, at rich snippet microdata upang mapahusay ang pahina ng mga resulta ng search engine.
  7. Tulad ng ibang mga nauugnay na mga site na naka-link sa iyong nilalaman, mas mahusay ang ranggo ng iyong nilalaman.
  8. Habang ibinabahagi ang iyong content sa social media, ang tinukoy na rich snippet na impormasyon ay makakatulong nang maayos na i-preview ang iyong content at idirekta ito sa iyong social profile.

Douglas Karr

Douglas Karr ay CMO ng OpenINSIGHTS at ang nagtatag ng Martech Zone. Nakatulong si Douglas sa dose-dosenang matagumpay na mga startup ng MarTech, tumulong sa angkop na pagsusumikap ng higit sa $5 bil sa mga pagkuha at pamumuhunan ng Martech, at patuloy na tinutulungan ang mga kumpanya sa pagpapatupad at pag-automate ng kanilang mga diskarte sa pagbebenta at marketing. Si Douglas ay isang kinikilalang internasyonal na digital na pagbabago at eksperto at tagapagsalita ng MarTech. Si Douglas ay isa ring nai-publish na may-akda ng isang Dummie's guide at isang business leadership book.

Kaugnay na Artikulo

Bumalik sa tuktok na pindutan
Pagsasara

Natukoy ang Adblock

Martech Zone ay kayang ibigay sa iyo ang nilalamang ito nang walang bayad dahil pinagkakakitaan namin ang aming site sa pamamagitan ng kita ng ad, mga link na kaakibat, at mga sponsorship. Ikinalulugod namin kung aalisin mo ang iyong ad blocker habang tinitingnan mo ang aming site.