Paano Makahanap, Mag-crawl, at I-index ng Mga Search Engine ang Iyong Nilalaman?

Search Engine Optimization

Hindi ko madalas na inirerekumenda na bumuo ang mga kliyente ng kanilang sariling ecommerce o mga sistema ng pamamahala ng nilalaman dahil sa lahat ng mga hindi nakikitang mga pagpipilian sa pagpapalawak na kinakailangan sa kasalukuyan - pangunahing nakatuon sa paligid ng paghahanap at pag-optimize sa panlipunan. Sumulat ako ng isang artikulo sa kung paano pumili ng isang CMS at ipinapakita ko pa rin ito sa mga kumpanyang pinagtatrabahuhan ko na natutukso lamang na bumuo ng kanilang sariling sistema ng pamamahala ng nilalaman.

Gayunpaman, may ganap na mga sitwasyon kung saan ang isang pasadyang platform ay isang pangangailangan. Kapag iyon ang pinakamainam na solusyon, pinipilit ko pa rin ang aking mga kliyente na buuin ang mga kinakailangang tampok upang ma-optimize ang kanilang mga site para sa paghahanap at social media. Karaniwan may tatlong pangunahing mga tampok na isang pangangailangan.

  • robots.txt
  • XML Sitemap
  • metadata

Ano ang isang Robots.txt File?

robots.txt file - ang robots.txt Ang file ay isang payak na file ng teksto na nasa root direktoryo ng site at sinasabi sa mga search engine kung ano ang dapat nilang isama at ibukod mula sa mga resulta ng paghahanap. Sa mga nagdaang taon, humiling din ang mga search engine na isama mo ang path sa isang XML na sitemap sa loob ng file. Narito ang isang halimbawa ng minahan, na nagpapahintulot sa lahat ng mga bot na mag-crawl sa aking site at ididirekta din ang mga ito sa aking XML sitemap:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Ano ang isang XML Sitemap?

XML Sitemap - Tulad ng HTML ay para sa pagtingin sa isang browser, ang XML ay nakasulat upang ma-digest ang program. Ang isang XML sitemap ay karaniwang isang talahanayan ng bawat pahina sa iyong site at kailan ito huling na-update. Ang mga XML na sitemap ay maaari ding ma-chisyen ... iyon ay isang XML na sitemap na maaaring mag-refer sa isa pa. Magaling iyan kung nais mong ayusin at basagin ang mga elemento ng iyong site nang lohikal (mga FAQ, pahina, produkto, atbp.) Sa kanilang sariling mga Sitemap.

Mahalaga ang mga sitemap upang mabisang ipaalam mo sa mga search engine kung anong nilalaman ang iyong nilikha at kailan ito huling na-edit. Ang proseso na ginagamit ng isang search engine kapag pupunta sa iyong site ay hindi epektibo nang hindi nagpapatupad ng isang sitemap at mga snippet.

Nang walang isang XML Sitemap, ipagsapalaran mo ang iyong mga pahina mula sa hindi matuklasan. Paano kung mayroon kang isang bagong landing page ng produkto na hindi naka-link sa loob o panlabas. Paano ito natutuklasan ng Google? Sa gayon, ilagay lamang ... hanggang sa matagpuan ang isang link dito, hindi ka matutuklasan. Sa kabutihang palad, pinapagana ng mga search engine ang mga system ng pamamahala ng nilalaman at mga platform ng ecommerce upang mag-roll ng isang pulang karpet para sa kanila, kahit na!

  1. Natuklasan ng Google ang isang panlabas o panloob na link sa iyong site.
  2. Ang index ng Google ang pahina at niraranggo ito ayon sa nilalaman nito at kung ano ang nilalaman at kalidad ng site ng nagre-refer na link.

Gamit ang isang XML Sitemap, hindi mo iniiwan ang pagtuklas ng iyong nilalaman o ang pag-update ng iyong nilalaman sa pagkakataon! Masyadong maraming mga developer ang sumusubok na kumuha ng mga mga shortcut na nasaktan din sila. Inilathala nila ang parehong mayaman na snippet sa buong site, na nagbibigay ng impormasyon na hindi nauugnay sa impormasyon ng pahina. Nag-publish ang mga ito ng isang sitemap na may parehong mga petsa sa bawat pahina (o lahat ng mga ito na-update kapag ang isang pahina ng mga pag-update), na nagbibigay ng mga pila sa mga search engine na nilalaro nila ang system o hindi maaasahan. O hindi nila na-ping ang mga search engine ... kaya't hindi napagtanto ng search engine na na-publish ang bagong impormasyon.

Ano ang Metadata? Microdata? Mayamang Snippet?

Maingat na naka-tag na microdata ang mga rich snippet na nakatago mula sa manonood ngunit nakikita sa pahina para magamit ng mga search engine o mga site ng social media. Kilala ito bilang metadata. Sumasang-ayon ang Google sa Schema.org bilang isang pamantayan para sa pagsasama ng mga bagay tulad ng mga imahe, pamagat, paglalarawan… pati na rin ang kalabisan ng iba pang mga mapag-alamang mga snippet tulad ng presyo, dami, impormasyon sa lokasyon, mga rating, atbp. Ang Schema ay makabuluhang mapahusay ang kakayahang makita ang iyong search engine at ang posibilidad na mag-click ang isang gumagamit sa pamamagitan ng.

Ginagamit ng Facebook ang OpenGraph protocol (syempre hindi sila maaaring magkapareho), ang Twitter ay mayroong kahit isang snippet upang tukuyin ang iyong profile sa Twitter. Parami nang parami ang mga platform na gumagamit ng metadata na ito upang i-preview ang mga naka-embed na link at iba pang impormasyon kapag na-publish ang mga ito.

Ang iyong mga web page ay may isang napapailalim na kahulugan na nauunawaan ng mga tao kapag binasa nila ang mga web page. Ngunit ang mga search engine ay may isang limitadong pag-unawa sa kung ano ang tinatalakay sa mga pahinang iyon. Sa pamamagitan ng pagdaragdag ng mga karagdagang tag sa HTML ng iyong mga web page — mga tag na nagsasabing, “Hoy search engine, inilalarawan ng impormasyong ito ang tukoy na pelikula, o lugar, o tao, o video” —Makatutulong ka sa mga search engine at iba pang mga application na mas maunawaan ang iyong nilalaman at ipakita ito sa isang kapaki-pakinabang, nauugnay na paraan. Ang Microdata ay isang hanay ng mga tag, ipinakilala kasama ng HTML5, na nagbibigay-daan sa iyo upang gawin ito.

Schema.org, Ano ang MicroData?

Siyempre, wala sa mga ito ang kinakailangan… ngunit lubos kong inirerekumenda ang mga ito. Kapag nagbahagi ka ng isang link sa Facebook, halimbawa, at walang imahe, pamagat, o paglalarawan ang lumalabas ... ilang tao ang magiging interesado at talagang mag-click. At kung ang iyong mga schema ng Schema ay wala sa bawat pahina, siyempre maaari ka pa ring lumitaw sa mga resulta ng paghahanap ... ngunit maaaring talunin ka ng mga kakumpitensya kapag mayroon silang ipinakita na karagdagang impormasyon.

Irehistro ang iyong Mga XML na Sitemap sa Search Console

Mahalagang na, kung nakabuo ka ng iyong sariling nilalaman o ecommerce platform, na mayroon kang isang subsystem na pings ang mga search engine, nai-publish ang microdata, at pagkatapos ay nagbibigay ng isang wastong sitemap ng XML para sa nilalaman o impormasyon ng produkto na matatagpuan!

Kapag ang iyong file ng robots.txt, mga sitemap ng XML, at mayamang mga snippet ay na-customize at na-optimize sa buong iyong site, huwag kalimutang magparehistro para sa bawat Search Engine Console ng search engine (kilala rin bilang tool ng Webmaster) kung saan masusubaybayan mo ang kalusugan at kakayahang makita ng iyong site sa mga search engine. Maaari mo ring tukuyin ang iyong landas sa Sitemap kung wala ang nakalista at makita kung paano ito naubos ng search engine, mayroon man o hindi may mga isyu dito, at kahit na kung paano maitama ang mga ito.

Igulong ang pulang karpet sa mga search engine at social media at masusumpungan mong mas mahusay ang pagraranggo ng iyong site, ang iyong mga entry sa mga pahina ng resulta ng search engine ay na-click sa higit pa, at ang iyong mga pahina ay higit na naibahagi sa social media. Ang lahat ng ito ay nagdaragdag!

Paano Nagtutulungan ang Robots.txt, Mga Sitemap, at MetaData

Ang pagsasama-sama ng lahat ng mga elementong ito ay katulad ng paglabas ng pulang karpet para sa iyong site. Narito ang proseso ng pag-crawl na kinukuha ng isang bot kasama ang kung paano nai-index ng search engine ang iyong nilalaman.

  1. Ang iyong site ay may isang robots.txt file na tumutukoy din sa iyong lokasyon ng XML Sitemap.
  2. Ina-update ng iyong CMS o ecommerce system ang XML Sitemap sa anumang pahina at na-publish ang petsa o na-edit ang impormasyon ng petsa.
  3. Ang iyong CMS o ecommerce system ay inilalagay sa mga search engine upang ipaalam sa kanila na na-update ang iyong site. Maaari mong i-ping ang mga ito nang direkta o gumamit ng RPC at isang serbisyo tulad Ping-o-matic upang itulak sa lahat ng mga pangunahing search engine.
  4. Agad na bumalik ang Search Engine, nirerespeto ang file ng Robots.txt, nakakahanap ng bago o na-update na mga pahina sa pamamagitan ng sitemap, at pagkatapos ay nai-index ang pahina.
  5. Kapag na-index ang iyong pahina, gumagamit ito ng rich snippet microdata upang mapahusay ang pahina ng mga resulta ng search engine.
  6. Tulad ng ibang mga nauugnay na mga site na naka-link sa iyong nilalaman, mas mahusay ang ranggo ng iyong nilalaman.
  7. Habang ibinabahagi ang iyong nilalaman sa social media, ang impormasyon ng rich na snippet na tinukoy ay makakatulong nang maayos na i-preview ang iyong nilalaman at idirekta ang mga ito sa iyong profile sa social.

2 Comments

  1. 1

    ang aking website ay hindi makapag-index ng bagong nilalaman, kumuha ako ng sitemap at mga url sa webmaster ngunit hindi ko pa rin ito napapabuti. Problema ba sa backend ng google?

Ano sa tingin ninyo?

Ang site na ito ay gumagamit ng Akismet upang mabawasan ang spam. Alamin kung paano naproseso ang data ng iyong komento.