1. Home
  2. keyboard_arrow_right
  3. zoekmachine algoritmes

Zoekmachine algoritmes - Hoe ze werken

24 maart 2022

Hoe zoekmachine-algoritmen werken: alles wat u moet weten

Een zoekalgoritme is een enorme verzameling andere algoritmen, elk met zijn eigen doel en taak.

Vaak merk ik dat ik me concentreer op specifieke strategieën om specifieke functies uit te voeren.

Hoe schrijf ik een boeiende tekst om te scoren bij gesproken zoekopdrachten?

Welke gestructureerde gegevens leveren gemakkelijke winsten op?

Dat soort dingen.

Deze belangrijke vragen worden hier in Search Engine Journal vaak behandeld in zeer nuttige artikelen.

Maar het is belangrijk om niet alleen te begrijpen welke tactieken kunnen werken om u te helpen rangschikken. U moet begrijpen hoe het werkt.

Het begrijpen van de structuur waarin de strategie functioneert, is van cruciaal belang om niet alleen te begrijpen waarom die strategie werkt, maar ook hoe en wat deze probeert te bereiken.

Eerder hebben we besproken hoe zoekmachines informatie crawlen en indexeren.

Dit hoofdstuk behandelt de basisprincipes van hoe zoekalgoritmen werken.

Wat is een algoritme? Een recept

Als u Google vraagt wat een algoritme is, zult u ontdekken dat de engine zelf (en vrijwel alle anderen) het definieert als 'een proces of een reeks regels die moeten worden gevolgd bij berekeningen of andere probleemoplossende bewerkingen, vooral door een computer."

How Search Engine Algorithms Work: Everything You Need to Know

Als je iets uit deze definitie haalt, is het van cruciaal belang om te begrijpen wat het hier niet in onze context is.

Een algoritme is geen formule.

Om het verschil te begrijpen, waarom het belangrijk is en wat elk doet, laten we eens kijken naar de maaltijd die ik vanavond op mijn bord kan zetten.

We gaan met een favoriet van mij:

  • rosbief
  • mierikswortel
  • Yorkshire pudding
  • Groene bonen
  • Aardappelpuree
  • Gravy

(dat klopt, we Canadezen eten meer dan poutine en ahornsiroop, hoewel beide zijn geweldig hoewel waarschijnlijk niet samen.)

Het rosbief behoeften te zijn gekruid en perfect gebakken.

De kruiden in combinatie met het gebraad zou een voorbeeld zijn van een formule: hoeveel van elk ding is nodig om een product te produceren.

Een tweede formule die wordt gebruikt, is de hoeveelheid tijd en op welke temperatuur het gebraad moet worden gekookt, gezien het gewicht. Hetzelfde zou gebeuren voor elk item op de lijst.

Op een heel basaal niveau zouden we 12 formules hebben (6 items x 2 - een voor metingen en de andere voor kooktijd en duur op basis van volume) die een algoritme maken met als doel een van Dave's favoriete maaltijden te maken.

We nemen niet eens de verschillende formules en algoritmen op die nodig zijn om de ingrediënten zelf te produceren, zoals het fokken van een koe of het telen van aardappelen.

Laten we echter nog een formule toevoegen: een formule om te overwegen hoeveel verschillende soorten voedsel ik op mijn bord zou willen hebben.

We hebben nu dus een algoritme om deze zeer belangrijke taak te volbrengen. Fantastisch!

Nu hoeven we alleen dat algoritme te personaliseren, zodat de rest van mijn gezin ook van hun maaltijd kan genieten.

We moeten bedenken dat elke persoon anders is en verschillende hoeveelheden van elk ingrediënt wil en misschien ook verschillende smaakmakers.

Daarom voegen we voor elke persoon een formule toe. Oké.

How Search Engine Algorithms Work: Everything You Need to Know

Een algoritme van algoritmen

Wat hebben een zoekalgoritme en een eettafel in vredesnaam gemeen?

Headline: C3: The SEO & Content Marketing Conference.

Bezoek ons op C3 Virtual op 20-21 april voor strategische workshops, leiderschapssessies en branchepanelen - waar u ook bent. Registreer nu.

Registreer nu

Veel meer dan u denkt.

Laten we ter vergelijking eens kijken naar enkele van de kernkenmerken van een website. ('Weinig' betekent lang niet alles. Alsof het zelfs niet in de buurt komt.)

  • URL's
  • Inhoud
  • Interne links
  • Externe links
  • Afbeeldingen
  • Snelheid

Zoals we hebben gezien met ons dineralgoritme, is elk van deze gebieden verder onderverdeeld met behulp van verschillende formules en in feite verschillende subalgoritmen .

Het is misschien beter als we het niet als een algoritme beschouwen, maar als algoritmen.

How Search Engine Algorithms Work: Everything You Need to Know

Het is ook belangrijk om in gedachten te houden dat, hoewel er veel algoritmen en talloze formules spelen, er nog steeds een algoritme is.

Het is zijn taak om te bepalen hoe deze anderen worden gewogen om de uiteindelijke resultaten te produceren die we op de SERP zien.

Het is dus volkomen legitiem om te erkennen dat er een soort algoritme bovenaan staat - het enige algoritme dat ze allemaal regeert, om zo te zeggen - maar altijd erkendat er talloze andere algoritmen zijn en over het algemeen zijn dit de algoritmen waar we aan denken. wanneer we nadenken over de invloed die ze hebben op zoekresultaten.

Nu, terug naar onze analogie.

We hebben een overvloed aan verschillende kenmerken van een website die wordt beoordeeld, net zoals we een aantal voedselelementen hebben om op ons bord te belanden.

Om het gewenste resultaat te produceren, hebben we een groot aantal formules en subalgoritmen nodig om elk element op de plaat te maken en een masteralgoritme om de hoeveelheid en plaatsing van elk element te bepalen.

Klinkt bekend?

Als we denken aan 'het algoritme van Google', bedoelen we eigenlijk een enorme verzameling algoritmen en formules, waarbij elke set een specifieke functie vervult en wordt verzameld door een lead of, ik durf te zeggen, 'kern'-algoritme om plaats de resultaten.

Dus we hebben:

  • algoritmen zoals Panda om Google te helpen bij het beoordelen, filteren, bestraffen en belonen van inhoud op basis van specifieke kenmerken, en dat algoritme bevatte waarschijnlijk een groot aantal andere algoritmen binnenin.
  • Het Penguin- algoritme om links te beoordelen en spam daar aan te pakken. Maar dit algoritme vereist zeker gegevens van andere reeds bestaande algoritmen die verantwoordelijk zijn voor het waarderen van links en waarschijnlijk enkele nieuwe algoritmen die zijn belast met het begrijpen van algemene kenmerken van linkspam, zodat het grotere Penguin-algoritme zijn werk zou kunnen doen.
  • Taakspecifieke algoritmen.
  • Algoritmen organiseren.
  • Algoritmen die verantwoordelijk zijn voor het verzamelen van alle gegevens en deze in een context plaatsen die het gewenste resultaat oplevert, een SERP die gebruikers nuttig zullen vinden.

Dus daar hebben we het. Dat is hoe zoekalgoritmen in de kern werken.

How Search Engine Algorithms Work: Everything You Need to Know

Waarom zoekalgoritmen entiteiten gebruiken

Een van de zoekgebieden die de laatste tijd behoorlijk wat aandacht krijgen, maar wat onderbelicht wordt, is het idee van entiteiten.

Voor context wordt een entiteit door Google gedefinieerd als:

"Een ding of concept dat uniek, uniek, goed gedefinieerd en onderscheidbaar is."

Dus, in onze analogie met het diner, daar ben ik. Ik ben een entiteit.

Elk lid van mijn familie is ook hun eigen entiteit. In feite is mijn gezinseenheid een entiteit op zich.

Door dat teken zijn het gebraad en elk ingrediënt dat erin gaat ook hun eigen entiteiten.

Dat geldt ook voor de Yorkshire pudding en dat geldt ook voor het meel dat ervoor is gebruikt.

Google ziet de wereld als een verzameling entiteiten. Dit is waarom:

Aan mijn eettafel heb ik vier individuele entiteiten die de staat "eten" hebben en een groot aantal entiteiten die worden geconsumeerd.

Als we ons allemaal op deze manier classificeren, heeft veel Googlevoordelen boven het simpelweg beoordelen van onze activiteiten als een reeks woorden.

Elke etende entiteit kan hen nu de entiteiten hebben toegewezen die op hun bord liggen (rosbief, mierikswortel, sperziebonen, aardappelpuree, Yorkshire pudding maar geen jus voor entiteit xyz1234567890).

Google gebruikt dit type classificatie om een website te beoordelen.

Beschouw elke entiteit die aan tafel zit als een pagina.

De globale entiteit die ons allemaal vertegenwoordigt (laten we deze entiteit "Davies" noemen) zou gaan over "rosbiefdiner", maar elke individuele entiteit die een individu vertegenwoordigt (of pagina in onze analogie) is anders.

Op deze manier kan Google gemakkelijk de onderlinge verbondenheid van websites en de wereld in het algemeen classificeren en beoordelen.

In feite zijn zoekmachines niet verantwoordelijk om slechts één website te beoordelen - ze moeten ze allemaal rangschikken.

Men ziet dat de entiteit 'Davies' gaat over 'rosbiefdiner', maar de entiteit ernaast (laten we deze entiteit 'Robinsons' noemen) gaat over 'roerbakken'.

Als een externe entiteit, bekend als "Moocher", wilde bepalen waar te eten, kunnen de opties worden gerangschikt naar Moocher op basis van hun voorkeuren of vraag.

Waar (naar mijn mening) de echte waarde in entiteiten ligt, is in wat er de dag erna gebeurt. We hebben wat restjes.

Door de entiteit "rosbief" te verwerken met een andere formule en de entiteiten brood, kaas en uien toe te voegen, hebben we:

How Search Engine Algorithms Work: Everything You Need to Know

Hoeentiteiten gebruiken

zoekalgoritmenOK, het lijkt misschien niet voor de hand liggend hoe belangrijk dit is voor het begrijpen van zoekalgoritmen en hoe entiteiten werken op deze manier.

Hoewel het voor de hand liggende waarde heeft om te begrijpen hoe Google ziet waar een website over gaat als geheel, vraagt u zich misschien af waarom het voor Google relevant is om te begrijpen dat mijn rosbief en rundvleesdip verwant zijn en in feite afkomstig zijn uit dezelfde kernentiteit.

Laten we in plaats daarvan eens kijken naar Google die begrijpt dat een webpagina over rosbief gaat. Laten we ook overwegen dat een andere pagina ernaar linkt en die pagina gaat over beef dip.

In dit scenario is het ongelooflijk belangrijk dat Google weet dat rosbief en rundvleesdip uit dezelfde kernentiteit komen.

Ze kunnen relevantie toekennen aan deze link op basis van de verbondenheid van deze entiteiten.

Voordat het idee van entiteiten in de zoekfunctie werd ingevoerd, moesten zoekmachines relevantie toewijzen op basis van woordnabijheid, dichtheid en andere gemakkelijk verkeerd te interpreteren en gemanipuleerde elementen.

Entiteiten zijn veel moeilijker te manipuleren.

Een pagina gaat over een entiteit of niet.

Door het web te doorzoeken en gemeenschappelijke manieren waarop entiteiten met elkaar in verband staan in kaart te brengen, kunnen zoekmachines voorspellen welke relaties het zwaarst moeten wegen.

Dus, hoe werken zoekalgoritmen?

Oké, we hebben veel terrein afgelegd en je krijgt waarschijnlijk honger. Je wilt wat afhaalrestaurants.

Context

is belangrijk Het is belangrijk om te begrijpen hoe algoritmen werken om context toe te passen op wat u ervaart / leest.

Wanneer u hoort van een algoritme-update, is het belangrijk om te weten dat wat wordt bijgewerkt waarschijnlijk een klein stukje van een zeer grote puzzel is.

Dit wetende helpt bij het interpreteren welke aspecten van een site of de wereld worden aangepast in een update en hoe die aanpassing past in de grote doelstelling van de motor.

Entiteiten zijn superbelangrijk

Verder is het van cruciaal belang om vooruit te gaan om te begrijpen dat entiteiten:

  • tegenwoordig een enorme rol spelen in zoekalgoritmen.
  • Hebben hun eigen algoritmen.
  • Zal in de loop van de tijd een steeds grotere rol spelen.

Als u dit weet, begrijpt u niet alleen welke inhoud waardevol is (hoe dichtbij zijn de entiteiten waarover u schrijft?), Maar ook welke links waarschijnlijk beter worden beoordeeld.

En dat zijn maar een paar voordelen te noemen.

Het draait allemaal om gebruikersintentie Zoekalgoritmen

werken als een grote verzameling andere algoritmen en formules, elk met hun eigen doel en taak, om resultaten te produceren waarmee een gebruiker tevreden zal zijn.

In feite zijn er algoritmen aanwezig om alleen dit aspect van de resultaten te bewaken en aanpassingen aan te brengen waar rangschikkingspagina's geacht worden niet te voldoen aan de intentie van de gebruiker op basis van hoe gebruikers ermee omgaan.

Hierin zijn algoritmen opgenomen die specifiek zijn ontworpen om entiteiten te begrijpen en hoe entiteiten zich tot elkaar verhouden om relevantie en context te bieden aan de andere algoritmen.

Wil je hoger in Google komen?

Linktopics laat zien hoe je je website eenvoudig hoger in Google krijgt en meer verkeer naar je website krijgt.