Topdog söker 3 SEO-konsulter som vill till nästa nivå Sök här!

hide

Sökmotoroptimering för stora varumärken!

nav-trigger

Av in February 22, 2017

Vad du behöver veta om SEO om du gör Content Marketing (podd)

Dela här

Under januari medverkade jag i Ktntn:s content marketing pod där vi pratade om SEO-aspekterna av content marketing och lite hur Googles ändringar påverkar hur man skapar content. Det är Pia Tegborg och Thomas Barregren som intervjuar mig
Topdog SEO-crew

Lyssna och lär dig mer om:

Här kan du lyssna på hela podden direkt:

För er som vill embedda podcasten på er sajt, finner ni koden nedan:

<iframe style=”border: none” src=”//html5-player.libsyn.com/embed/episode/id/5083839/height/360/width/640/theme/standard/autonext/no/thumbnail/yes/autoplay/no/preload/no/no_addthis/no/direction/backward/no-cache/true/” height=”360″ width=”640″ scrolling=”no”  allowfullscreen webkitallowfullscreen mozallowfullscreen oallowfullscreen msallowfullscreen></iframe>

 

Transkribering av podden om content marketing:

Kntnt: Vem är du och vad gör du?
CR:Jag heter Christian Rudolf och jag driver en sökbyrå som heter Topdog Jag har arbetat med SEO sedan 2005/2006. Då började jag då jobba för ett företag som heter Webguide Partner som då var störst på jorden inom leadgeneration och gambling. Idag är man ett vanligt konsultbolag.
Jag driver Topdog sedan tre år och fokuserar på lite större kunder och större projekt. Det blir mycket process och förändringsmanagement. Idag är det fem personer i företaget men det kan variera lite.
Kntnt: Du är en riktig pionjär inom området kan man säga.
CR:Ja, jag hörs och syns i alla fall

Kntnt: Du är aktiv, du har skrivit i Dagens Media flera gånger, du delar spännande innehåll på contentmarketinggruppen i Sverige så många av våra lyssnare har säkert stött på ditt namn. Du har även talat på webbdagarna.
Mycket har hänt inom ditt område som även påverkat våra lyssnares vardag. Kan du ge oss en uppdatering?

CR:Det är svårt att summera 500 algoritmuppdateringar per år på några snabba meningar. Om man tittar tillbaks några år så började Google genomföra en massa filter. Det första hette Florida, jag tror det var år 2007. Men den stora var Pandan som filtrerar content på olika sätt.
Det som Goole överlag har blivit lite bättre på är matchningen mellan de som levererar innehåll och svar på sökarnas frågor med de som söker. Man är lite duktigare idag på att få dem att stämma ihop.

Det som Goole överlag har blivit lite bättre på är matchningen mellan de som levererar innehåll och svar på sökarnas frågor med de som söker. Man är lite duktigare idag på att få dem att stämma ihop.
För några år sedan var det ganska vanligt att de som jobbade mycket med content hade 57 olika artiklar om hur man städade en brödrost. Idag behöver man bara en eller några stycken, beroende på vad det är för sökord. Google är duktiga på att förstå innehållet på urlen och man är duktiga på att förstå användarens syfte med sökning, även om användaren inte använder exakt rätt ord. Man förstår i större utsträckning vad användaren vill ha för svar.

Det är inte en perfekt mekanism idag men den är mycket bättre idag än för tre, fyra år sedan. Det tror jag är de större förändringarna.
Kntnt:Vad är det som drivit fram den här utvecklingen tror du ?
CR:Jag tror det är flera saker. Dels är det att Googles sökresultat är en av Googles produkter och man vill ha en bra produkt. Det andra är att Google själva säger, även om man sagt lite olika vid olika tidpunkter, att 15-25% av alla sökningar inte setts tidigare.

Hur leverarer man bra sökresultat på sökningar man aldrig sett innan? Man måste bli duktiga på att förstå syftet bakom sökningarna. Vad är det egentligen man vill ha? Det är inte alltid helt lätt då vi inte är 100% rationella individer, alla använder inte samma språk, samma ord osv.

Sen tror jag också att Google vid någon tidpunkt, i alla fall i USA för 10-12 år sedan, tyckte att det fanns för lite innehåll på internet. Så man började berätta säga ”producera mycket innehåll och stoppa väldigt mycket Adsense annonser på det innehållet så skeppar vi trafiken till er”.

Men vid någon tidpunkt, jag tror det var 2007/2008, så insåg man att problemet övergått till det motsatta. Vi har för mycket innehåll och vi har för mycket skit. Givet att det är så mycket skit blir det svårare för oss (Google) att genomföra den här matchningen. Då började man städa upp det vilket var Pandauppdateringen. Man tog bort många hundra sidor i USA från indexering. Sidor som hade tjänat väldigt mycket pengar innan bara genom att producera de här ”57 artiklarna om att städa en brödrost”

Man ville helt enkelt få upp kvalitén på sökresultatet på olika sätt. Det kan ses i flera fenomen. Det handlar inte bara om att man blir bättre på matchningen.

Ni har säkert sett att man ibland kan ranka på plats ”noll”. Om man som exempel söker på ”helikoptermoney” så finns det en liten ruta i sökresultatet högst upp som ligger ovanför ”ettan”. Här hämtas resultat från den artikel som diskuterar svaret på frågan. Det är också ett sätt att försöka lyfta fram innehåll som fortare ska besvara användarens fråga. Man ska inte ens behöva klicka utan man ska få, det korta svaret i alla fall, direkt där.

Kntnt::Det handlar också om at de vill ”prata” upp svaret. Jag ska ställa frågan till min telefon ”Vad är Helicopter Money?” och telefon ska ”prata” svaret för mig. Rent ljudmässigt?
CR: Ja, absolut. Men då behöver de förstå innehållet bättre så de kan förstå svaren bättre. Om det är dåligt svar eller ett bra svar. Så det finns många aspekter av vad som händer och säkert ännu fler än jag kommer på i just detta ögonblicket.
Kntnt: Varför bryr sig Google om detta? Ligger det i deras affärsintresse?
CR: De vill leverera så bra svar det går till dig som användare, generellt. Det finns undantag men desto bättre sökresultat de kan leverera desto mer hängivna kommer deras användare att bli. Levererar man bättre svar finns det även högre sannolikhet att folk använder produkten mer och använder man produkten mer får de (Google) mer användardata som de i sin tur kan sälja till annonsörer i form av en annons. Man säljer inte användardata direkt utan man går alltid omvägen via annonser. Det är ren och skär ”skapa bättre produkt så vi kan tjäna mer pengar”
Kntnt:Så i grund och botten är deras affärsidé att sälja sökordsannonser (Adwords). Jag tror jag läste en siffra att det var över 90% av deras inkomster som kommer därifrån.
CR:Det är inte helt rätt då de även äger världens största annonsnätverk på internet och det tror jag är 20% av inkomsterna. Men hela annonsverksamheten är nog 90%
Kntnt: Så det ligger i deras intresse att folk blir kvar på den öppna webben och tycker att den öppna webben ger tillräckligt mycket värde så att de inte försvinner in i alternativet som är stängda lösningar som Facebook till exempel.
CR:Nu vill jag hävda att Google är en ”stängd lösning” men dom länkar i alla fall ut till den öppna webben.
Det är därför som de försöker tvinga oss, som tillhandahåller innehållet på den öppna webben, att leverera snabbare innehåll, att använda https, att inte göra skräpinnehåll, att göra tillräckligt långa artiklar, osv
Det är helt korrekt. De är beroende av oss för att ha en bra produkt.
Kntnt: Så det är det som ligger bakom förändringarna i deras algoritmer?
CR:Ja, de vill helt enkelt bli bättre på att exportera vår kompetens. De vill ge bättre svar och de svaren bygger på dig och mig och dom som lyssnar på den här intervjun. Det ger mer pengar till Google och mer användare till dem.
Men det ger också en hel del trafik till oss (organiskt resultat) och det händer ju ibland att vi är i toppen och får mycket trafik. Så ibland ”vinner” vi också.
Kntnt:Ja, hade vi inte gjort det hade vi inte lagt ner tiden på att följa Googles spelregler. Men på något sätt känns det som att de dikterar spelreglerna ganska mycket.
CR:Google är internet. De som tror något annat gör sig själv en väldigt stor otjänst.
Kntnt:Ser du det som att de är helt ohotade?
CR:Ja,
Kntnt: Hur stor av del av den svenska marknaden har Google idag?
CR: Jag tror att Google passerar 20 % av alla mediaköp i Sverige typ…nu. Det skulle motsvara ungefär 7 miljarder svenska kronor.
Kntnt:När man kommer till ren sökvolym. Hur mycket äger Google kontra Bing och andra sökmotorer i Sverige?
CR:I Sverige finns det bara Google i princip.
Kntnt:Hur är det utomlands? Har Google konkurrens överhuvudtaget någonstans?
CR: Egentligen inte. Jag tror till och med att anledningen till att Bing har marknadsandelar i USA, där de har 10-15% av sökningarna, beror på att man vill slippa stämningar kring att Google skulle dominera marknaden. Då kan de hävda att det i alla fall finns någon typ av alternativ. För blir de för dominerande finns det ju en risk att amerikanska staten ger sig på företaget.
Kntnt:Genom att dela bolaget i mindre delar?
CR:Ja, precis. Då tvingar man ner dem på knä precis som man gjorde med Microsoft 1998. Man kanske inte vill bli större eftersom den långsiktiga konsekvensen vore förödande.
Kntnt:Amerikanarna har extremt mycket tuffare konkurrensregler än vad vi har i Europa.
CR:Ja, absolut. Sen tror jag att Google är snällt behandlad av dem, ännu. Men ny president – nya spelregler.
Kntnt:Man talar mycket om att Google förstår naturligt tal idag och även naturlig text. Varför lägger de tid och pengar på det? De är ju ganska stora när det kommer till forskning inom maskininlärning, artificiell intelligens och sådant. Varför läggs tid på annat?
CR:Att förstå internet är ett ganska omfattande problem och vi som människor är ganska komplexa i vår kommunikation. Det är ganska vanligt att vi som individer tycker att vi är tydliga men att mottagaren inte alls förstår vad vi säger. Det är tydligt i vår hjärna men när det passerar munnen så blir det otydligt av något skäl. Det beror ju både på avsändare och mottagare.
Vi är inte strukturerade som kod när vi kommunicerar. Så det är ett väldigt komplext problem att förstå människor. Det tycker ju till och med vi människor. Att förstå andra är inte lätt och vi har ändå förmågan till induktiv slutledningsförmåga dvs. att vi kan dra en slutsats från många små detaljer som inte verkar hänga ihop. Det har maskiner väldigt svårt för.
De (Google) behöver investera i detta för att bli bättre. Det handlar även om att det är möjligt, att teknologin går framåt. När Google startades var det en stor sak att de förstod internet med hjälp av länkar. De kunde leverera det bästa sökresultatet bara genom att folk hade ett naturligt användande av länkar. Därmed blev deras sökresultat mycket bättre än andras.
Men internet ändras och vi ändras. Investerar man inte framåt så kan ju faktiskt någon annan ta den positionen. Den algoritmen som de hade på 90-talet kan en tonårig indier på landsbygden hacka ihop idag. Att göra olika typer av machinelearning är däremot inte så lätt. De löser idag problemet genom att hitta bra svar på din fråga mycket bättre än enbart genom länkar.
Kntnt:Vi ser också en koppling till att man vill förstå talat språk
CR:Ja, absolut. Det är som Answer-boxen som vi talade om innan med ”Vad är Helicopter Money?”. Det handlar om att förstå texten och plocka rätt del av den. När jag ställer en fråga till Siri (eller motsvarande funktion) så kommer Siri att berätta upp texten.

Men jag tror inte vi ska överskatta Google. Många säger ”Det där kan Google räkna ut” men de har oftast inte rätt. Det är fortfarande en ”dum maskin”. De är självklart vassare än den genomsnittliga maskinerna. Men jämfört med det mänskliga intellektet är de inte ens på en treårings nivå.
Kntnt:Men det är väll inte deras konkurrenter heller?
CR: Nej, men min poäng är att folk tror att mycket bara löser sig av sig själv. Men när man prata med en treåring är det väldigt viktigt att man är tydlig. Man kan inte vara otydligt mot en treåring – det går åt skogen i 100% av fallen.
Kntnt:Det är där som SEO kommer in i bilden?
CR:Ja, eller att man bara är duktig på att skriva korrekt. Att man är tydlig i sitt språk, tydlig i sin hantering av språket, tydlig i sitt budskap, tydlig i sin struktur av innehållet. Man måste inte kunna mycket inom SEO för att göra en välstrukturerad artikel.
Många som är utbildade i språk och skrivande och jobbar med det på heltid har de färdigheterna, att strukturera en artikel. Så upplever jag det när jag möter yrkesmänniskor.
Kntnt: Hur ska jag som marknadsförare tänka när jag skriver innehåll till en webbplats?
CR:Det viktigaste tycker jag är att man börjar i ”pengaändan”. Alla som jobbar i ett bolag bör ha insikt i mål och affärsmål. Det man gör måste ta sin utgångspunkt i affärsmålen. Vet man inte om affärsmålen måste man börja där.
Om man utgår från att man har koll på affärsmålen, och vad man bör fokusera på kommande månad eller kvartal, så är det några saker som är viktiga när man skriver en text där målet delvis är att få med Google.
Jag tycker fortfarande att det sökord man är intresserad av ska finnas med i titeln. Både i Title-tagen och i själva titeln (rubriken) på artikeln. De brukar hänga ihop och är normalt i de flesta system.
Det handlar om tydligheten. Det är inte så att Google inte kan förstå om inte ordet finns där. Men om man tänker att Google är ett treårigt barn – varför vara mer otydlig än nödvändigt? Det skulle bara öka sannolikheten att man inte uppnår det man vill.
Kntnt: Kan du ge något exempel på det?
CR:Hade ett stort känt bolag, som jag tidigare mött, bara skrivit det viktigaste produktnamnet i deras produktlinje i Title hade de gått upp till förstaplatsen direkt på det ordet. Det är ett ord som folk använder i vardagligt tal för att beskriva deras produkt.
Kntnt:Varför gör man inte det då?
Ja, det kan man bara spekulera i. I deras fall försökte jag berätta för dem och uppenbarligen lyckades jag inte. Kanske var inte jag tillräckligt tydlig. Kommunikation har ju både en sändare och en mottagare och från mitt perspektiv var det lätt att förstå. Men uppenbarligen var det inte så.
Jag tror också att man inte har någon aning om vad konsekvenserna innebär. Google är inte heller en faktor för företaget. Det har ingen affärseffekt, utifrån hur de ser det. Det kan bero på att man inte mäter på det sättet. Man tittar inte åt det hållet utan tittar åt ett annat håll, som kan vara lika rätt. Men det säger en hel del om nivån ”där ute” för jag tror inte de är ensamma och att det finns flera tusen sådana svenska företag.
Kntnt:Upplever du generellt sätt att kompetensen är låg i svenska företag när det kommer till rena ”hygiensaker” som att ha nyckelordet i Title-tag och H1:an?
CR:Ja, det är mycket lågt.
Kntnt:Så vad mer ska man tänka på? Förutom Title-tag och H1:a?

CR:Det som jag tycker är viktigast, om man utgår från att Google blir allt duktigare på att identifiera om innehållet passar mig som sökare, är att besvara sökarens fråga på ett väldigt bra sätt. Det genom enkelt språk, tydlighet, bilder, instruktioner, punktlistor, video m.m. Att helt enkelt göra en användarupplevelse som är väldigt positiv utifrån sökarens perspektiv.
Det handlar också om att vinna sökaren (intresset) redan i sökresultatet. Man måste ha en Titel och Description, och lite annat runtomkring, som lockar till klicket. En anledning till att folk klickar på annonser är ju att de är ohyggligt välskrivna. Många Adwords-annonser har bra copy vilket lockar till att klicka på dem framför det organiska resultatet. Det är en del av problematiken. Vill man ha organisk trafik måste man skriva bättre Titlar än annonserna.
Kntnt:Så istället för att ha företagets namn, bindestreck, annan information, bindestreck osv. så ska man ha en klickvänlig rubrik?
CR:Ja, att kommunicera fördelar till sökaren. Man har lite mer än 165 tecken på sig. Har man många ”I” och ”L” kan man komma upp i 170 tror jag. Man ska sälja länken eller vinna klicket som jag brukar säga.
När besökaren är på sidan är det lättare att få dem att konsumera innehållet. Men även där måste det vara välstrukturerat. För det som användaren gör, medvetet eller omedvetet, är att utvärdera om man har kommit rätt genom att tänka ”Kommer jag få mitt svar här?”
Känner man att man kommit rätt, att svaret nog finns här, börjar de fördjupa sig. Det finns flera olika sätt att initialt göra den bedömningen. En del läser mycket på titeln, en del börjar scrolla och känner efter hur artikeln ”känns”. Det handlar då inte om kvalitén utan om mer ”är den välstrukturerad, har den rätt underrubriker, har den förklarande bilder och talar till mig? Är det ett språk som jag kan ta till mig utifrån min nivå osv.
Kntnt:Nu kom du in på copyrightbitarna, som vi förespråkar, där man tänker på att rubriken ska sälja in att du ska läsa första raden. Första raden ska sälja in att du ska läsa nästa rad. Men någonstans kommer människan att sluta läsa. Så fungerar det på webben och det är bara att acceptera. Man läser väldigt sällan från första till sista rad utan släpper blicken och scanner neråt. Där kommer underrubriker vars uppgift är att på nytt sälja in innehållet så att man börjar läsa första raden efter rubriken.
CR: Precis, du måste vinna dem hela vägen. Du måste hålla dem i handen och övertyga dem hela vägen tills ditt mål är uppfyllt.
Kntnt:Det är helheten som är så viktig. Det värsta är när det är väldigt klickvänliga rubriker men så blir man besviken på texten.
CR: Det är något som vi inte förordar. Om många användare kommer från Google och spenderar 3-4 sekunder på besöket, trots att det borde finnas innehåll som gör att de borde spendera mer tid givet deras sökning, betyder det att de backar från webbplatsen i väldigt stor utsträckning. Det är troligtvis något som är väldigt destruktivit för din SEO.
Kntnt:För Google mäter s.k. bounce rate?
CR:Nej, jag tror inte de mäter bounce rate. Jag tror de mäter ”back-button”. Men bounce rate kan vara en av de faktorer som du och jag kan använda för att analysera innehållet med. Men jag tror inte Google använder bounce rate. De har mer komplexa och holistiska synsätt.
Man har spekulerat i att Google tittar på ”hur lång tid är du på webbsidan innan du navigerar vidare?”. Ett problem idag, när man jobbar med content marketing, är att man kan få väldigt hög bounce-rate. Vi kan se exempel på 60-70% på innehållsrika sajter. Men jag brukar modifiera begreppet för våra kunder och säga att om man stannat kvar en viss tid, ex. 30 sekunder, så räknas det inte som en bounce. Då kommer man ner på en typisk nivå kring 20% på en bra sajt.
Det är troligtvis ett bättre mått. Men man behöver fler mått. En av de faktorerna som jag tror att Google använder sig av på lång sikt (om det händer på en vecka är det ”shit the same”) är en holistisk syn. De samlar väldigt mycket data kring en webbsajt. Om man exempelvis söker på ”antivirusprogram” och klickar på ett resultat och sen är där ett tag och därefter går tillbaka till Google så skapas en bounce. Men söker man sen på ”Resa Kroatien” är det ett tecken på att man fått sin fråga besvarad. Man har gått vidare till nästa frågeställning oavsett vad det är. Man har därmed lämnat ämnet. Det kan tolkas som ett tecken på att det faktiskt var ett bra svar som man fick.
Jag tror mer att det är sådana mer holistiska lösningar som Google använder. Men den vanliga skribenten/marknadschefen ska inte tänka på det. De ska inte tänka på om man använder ”back-button”. Om man tänker ”jag försöker skapa en riktigt bra upplevelse, givet att jag försöker besvara en fråga från någon” är det troligtvis så att det SEO-mässiga mål man har är lättare att uppfyllas. Det är ingen garanti men sannolikheten ökar. Det är ett produktivt sätt att tänka.
Kntnt:Det leder oss tillbaka till ”Vad är målet egentligen?” Som du beskrev tidigare så scannar folk ganska snabbt. Man läser några meningar, hoppar vidare, fastar på en bild och tittar på den, hoppar vidare osv. Det är väldigt få, några enstaka procent, som faktiskt läser allt. Målet är inte att bli läst – målet är att texten får den affärsnytta som den ska leda till. Så når man affärsnyttan utan att någon läst texten så gör det inget.
Om man nu fått sitt svar, efter att kanske bara scannat rubrikerna, och sedan klickar sig vidare och söker på något annat så vet Google att besökaren fått svar och att man nått sitt mål. Trots att artikeln inte blivit läst.
Men det finns ett annat problem här. Det är argumentet att man ska ”skriva korta texter för ingen läser långa texter”. Det handlar då om 200, 300 eller 400 ord och när Pandan kom så sa man att det behövdes överlag en viss mängd text för att inte bli dömd som skräpinnehåll.
Vad har du för rekommendationer där?
CR: Jag tror inte man ska ta avstamp i Google eller SEO. Då kan man ta helt fel beslut. Man ska ta avstamp i användaren. Om någon exempelvis söker på frågan ”Vilket datum är det?” så kommer svaret vara ohyggligt kort. Försök skriva 20 000 ord om det… Det går säkert om man är kreativ men du behöver inte det för att besvara frågan.
Men har jag frågan ”Hur får jag ett sexpack på min mage när jag är 43 år gammal och ganska ointresserad av att träna?” Det kräver ett lite mer utförligare svar. Så det handlar mycket om syftet bakom de sökningar och de frågor man vill besvara. Tar man avstamp i det tror jag svaret blir väldigt mycket bättre. Då blir det helt naturligt kort när det bara behöver vara kort och det blir helt naturligt långt när det vara långt. Det tror jag det är det mest produktiva sättet att se på det hela.
Det är klart att det kan bli lite subjektivt men det handlar inte om att i 100% av fallen göra rätt utan att göra rätt X antal gånger över tiden.
Skulle det vara sant att säga att många som jobbar med PR, Content och skrivande har en journalistisk bakgrund? Är det rimligt att säga det?
Kntnt:Ja, många av de byråer som jobbar med detta har en sådan bakgrund. Det finns även många kommunikatörer som jobbar på större företag som har kommunikatörsutbildning eller journalistisk utbildning.
CR: Man kan tänka på varifrån många journalister kommer ifrån. Man har jobbat på Metro, Aftonbladet, Expressen m.m. Syftet med deras content är enbart att under en microdel av en sekund ladda detta content mot en användare. För då blir det en annonsvisning, eller kanske 200 annonsvisningar, och måluppfyllelse. Det har då ingen betydelse om det är bra kvalité eller vad som skrivs. Det är antagligen mer effektiv att strypa ett gäng hundvalpar i direktsändning, utifrån ett affärsmässigt perspektiv, för ett mediabolag. Att ta den logiken och applicera på ett industribolag eller företag som jobbar med Content Marketing är helt knäppt.
Det handlar åter igen om att gå tillbaka till affärsmålen. Vilka är de användare vi vill prata med? Vilket beteende har dom och vad måste vi göra för att bemöta dem i den kanalen? Det kan ju vara Facebook och annat också.
Att generalisera kring hur medieindustrin fungerar in på andra marknader  är inte att skjuta sig själv i benet – det är att amputera hela benet.
Det är här jag tror att problematiken ligger. Man tittar inte på kanal, användare, affärsmål, osv och börjar istället prata om ”lång eller kort” även om det är en felaktig diskussion.
Det är som att säga ”Sossar är onda – Moderater goda” Så är det inte. Det blir en snuttifiering av verkligheten. Om vi ska snuttifiera lite så är jag lite mer inne på er linje dvs hellre långt än kort.
Kntnt: Om vi går tillbaka till ”hygienfaktorer”. Nyckelordet i Title och H1:a, vinna klicket, besvara frågan, anpassa textlängd utifrån vad du behöver, var inte rädd för att skriva långt. Sen då? Är man färdig då eller finns det mer att tänka på?
CR:Det finns en sak till som man kan göra men som tyvärr är lite komplex. Men man kan tänka på det och det faktum att man tänker på det gör att det blir lite lättare. Google kan ju inte läsa som vi kan läsa. De kan ta in ord och förklara ordet och säga om ordet har relation till andra ord. Det är exempelvis inte orimligt att ordet glasögon hänger ihop med ögonlinser. Eller att ordet New York hänger ihop med Brooklyn.
Det man då kan börja tänka på är att om jag exempel har en webbsida om New York så kommer jag inte framstå som duktig om jag inte diskuterar Brooklyn. För att det ska bli bra på sikt på både artikelnivå och större nivå så bör man tänka lite på att bli en auktoritet i ämnet genom att vara heltäckande på olika sätt.
Jag tror att Google kollar hur ord hänger ihop. Skriver jag om New York så måste jag också skriva om Brooklyn. Nu menar jag inte på detaljnivå för det är svårt att få ihop det på artikelnivå utan snarare ett tankesätt – ”Hur måste innehållet se ut för att jag ska ses som en auktoritet i detta?”.
Det finns en del verktyg för att göra det. Olika keywordverktyg är bra att använda eftersom de visar ”Related Searches”. Men jag tror att Googles algoritmer är lite smartare än så. De vet mer hur språket sitter ihop än ett billigt keywordverktyg. Så det sunda förnuftet är något som fortfarande måste användas.
Till exempel -Om du gör en produktlandsida om försäkringar och inte har med ordet försäkringsvillkor är det troligt att Google skulle tycka det är lite märkligt. Då kan man ganska fort kolla igenom 20 olika landsidor och kontrollera om ordet ”Försäkringsvillkor” finns där.
Nu säger jag inte att det löser deras problem men utifrån ett sunt-förnuft-perspektiv känns det som att det ska vara så. Börjar man sen att prata om produkter kan det bli jättesvårt. Om man skriver om jackor – vilka ord ska vara med då? Det är inte alls lätt. Men Google har någon slags förståelse för detta och gör olika slags kopplingar. Så bara genom att tänka på det löpande så blir det generellt sätt bättre. Därmed får man ett generellt signifikant bättre resultat. Kanske inte med en enstaka artikel men över tiden.
Kntnt:Så om man som exempel skulle vilja skriva om Jägarmästarutbildning så ska man inte bara skriva artiklar om hur man blir jägarmästare och vad det innebär utan också om artiklar om skogsvård, hundar, vapen osv.?
CR:Ja, det finns nog lite olika perspektiv även om jag inte kan så mycket om det ämnet själv. Jag inser att det är ett lite luddigt påstående och det upplevs som luddigt. Men om man tänker utifrån Google och hur de förstår en artikel så beror det troligtvis på hur orden används, vilka ord som används m.m. Sen hur exakt det fungerar har jag ingen aning om. Men det är åt det hållet jag lutar åt.
Om man har en webbsida där man utav något kommersiellt skäl vill prata om New York så finns det ju både trafik på New York och på Brooklyn. Det finns alltså rena trafikskäl att prata om bägge två. Det är inte så att man måste ta på sig ”SEO-glasögonen”. Om folk söker på Brooklyn och det har ett värde för mig så är det troligt att även New York-trafik har ett värde för mig. Det hänger ihop.
Kntnt:Så som svar på min fråga så framstår jag då som en trovärdig leverantör av ”Svar på din fråga” i besökarnas ögon och blir då också trovärdig i Googles ögon?
CR:Ja, det är det som Google försöker räkna ut. Hur levererar vi trovärdiga svar?
Kntnt:För några år sedan pratade man väldigt mycket om att nyckelordet som man hade i H1:an och i Title-tagen skulle användas i texten i den form som den hade samt i synonymer. Sen skulle den vara med i länktexter osv. Gäller det fortfarande?
CR:Jag tycker generellt att man kan använda de här orden, oavsett om det är ord som Antivirus eller Plastsmurfar. Om du har en artikel om plastsmurfar och du har 8st så kanske det är rimligt att fyra av dem har ordet plastsmurf i sig. Ibland kanske man pratar om Gammelsmurfen, Tjejsmurfen eller deras läsk Sarsaparill. Sen finns smurfbyn också. Det finns säkert fler aspekter på smurfar som jag är omedveten om men man ska få ihop helheten.
Att låta två procent av alla ord vara ”Plastsmurf” tror jag är direkt skadligt. Det är helt onaturligt och det är ett knäppt sätt att tänka givet att du vill prata med användaren och inte prata med Google. Jag vet att folk historiskt sett har försökt räkna ut det optimala antalet gånger man ska nämna ordet ”Plastsmurf” i en artikel men så tror jag inte man ska tänka längre. Man ska ha mer holistiska perspektiv.
Vi jobbar en del med kategorisidor inom E-handel. Då handlar det mycket om produkter och vilka ord som är relaterade till dessa produkter. Men det handlar också om ord som köpa, online och villkor som bra, eller bättre. Den typen av ord som är viktiga att veta i köpet. Återigen handlar det om att sätta sig i användarens situation och tänka efter vilka ord använder de och vilken information behöver de för att den handlingen som vi vill att de ska göra också genomförs. Är det en kategorisida inom en bred E-handelskategori så är ord som ”Köpa”, ”Online” och ”Leverans” viktigt.
Kntnt:Blir det samma sak med länkar? Är det fortfarande viktigt, som förr, att använda nyckelordet i länken även om det blir en väldigt onaturlig placering av länken? Eller ska man främst länka där det blir naturligt att länka, ex ”du kan läsa mer här”?
CR:Det där är en ohyggligt komplex fråga. Det finns inga rätta svar utan det handlar väldigt mycket om vilket segment du är i, vad du vill uppnå, vad destinationen är och vad avsändaren är.
Ett exempel är, som är en ytterlighet, om du är aktiv inom ett segment som är väldigt spammigt ex. Viagra, men du är inte spammig. Vilken ankartext du använder i det fallet har ingen som helst betydelse.
Det kan också vara en annan ytterlighet att det är en artikel i ett segment där det inte finns någon konkurrens. Konkurrenterna har inte några länkar till sig och då kvittar det vad det står i din ankartext. Du kommer ändå ha en fördel.
Det kan också vara att du länkar till en väldigt kommersiell sida som är viktig för Google. De kanske vaktar det manuellt. Det är inte så vanligt i Sverige men det finns.
Kntnt:Kan du ge exempel?
CR:Nej, helst inte. Då vill jag nog fakturera någon…

Det sker inte löpande över tid men jag har sett att det sker och jag tror det kommer att ske mer under de kommande åren, efterhand att deras marknadsandel stiger blir det allt viktigare.
Kntnt:Så de gamla sakerna att ”stuffa” ankartext med rätt keyword är inte lika lätt idag utan man ska mer utgå från vad som vettigt ur ett användarperspektiv.
CR:Vad som alltid är riskfritt är att länka med brand. Heter ditt företag Volvo så är ankartexten Volvo. Det är helt riskfritt.
Kntnt:Apropå ankartexter och länkar. Hur är det internt och externt? Finns det något där man ska tänka på?
CR:Ja, Interna länkar har fortfarande effekt. Har du en blogg med 200 ”Url-er” så gör det kanske inte så mycket. Men har du en stor sajt med många olika interna länkar så har det betydelse. Det vanligaste sättet att lösa det på, eftersom det är tekniskt enkelt, är att en kategorisida om golfskor får länk från breadcrumb i toppen (vet inte lyssnarna vad det är – så får ni Googla lite). Då är ankartexten Golfskor i brödsmulan och man får massa interna länkar med ordet golfskor. Om man gör lite mer avancerat script, och exempel har 10 000 interna länkar för golfskor, kan 3 000 vara singular ”Golfskor”och 1 000 vara ”Snygga Golfskor”. Då kommer man se effekt på de lite mer nischade orden. Så det har betydelse. Oftast bygger man något script som bygger detta.
Kntnt: Om vi nu tänker oss de här vanligt innehållsrika sajter som många av våra lyssnare är intresserade av att göra, där man inte har 10 000 artiklar om golfskor. Om man skriver en artikel om plastsmurfar och en annan artikel om tjejsmurfen så är det inte orimligt att tjejsmurfen länkar tillbaka till artikeln om plastsmurfen. Och vice versa?
CR:Ja, vice versa också. Då kan man ju variera ankartexterna lite med ex. ”Snygga plastsmurfar”. I en enda länk tror jag det kvittar men givet konkurrens, sajt m.m. så kan det ske löpande.
Kntnt: Ska man vara konsekvent så man länkar till samma artikel hela tiden? Vi skriver om Content Marketing och har väll ca 250 artiklar. Vi länkar kors och tvärs utifrån vilken artikel som är bäst utifrån vad vi pratar om.
CR:Det tycker jag i och för sig är den rimliga ansatsen. Men kanske har man en stark SEO-agenda. Det kan ju vara så att ni har en väldigt uttömmande artikel om content marketing som speglar hur duktiga, snygga, trevliga och kompetenta ni är, era processer, värdeerbjudanden och allt annat. Man kan i den artikeln, som ni vill att ska ranka på Content Marketing, länka ut till alla de andra artiklarna. Men man bör också tänka på att länka lite till den enbart.
Skriver man en lång artikel finns det oftast flera tillfällen att länka på olika sätt. Så det brukar inte vara ett problem. Men jag tycker det relevanta sättet är att länka där det är rimligt. Vill man hänvisa läsare att läsa mer om ett subämnet så har länkarna ett syfte för läsaren.

Kntnt:För att återgå till brödsmulor. Brödsmulor är, enkelt uttryckt, det som finns överst på vissa sidor där det står olika nivåer på menyn. Jag tycker man ser det mycket mindre av det idag än vad man gjorde för några år sedan. Men är det något som du tycker har en positiv SEO-effekt? Om man bara slänger in det så får man bonus på köpet.
CR:Nej, men det är oftast ett väldigt tekniskt effektivt sätt, av sådana som mig, att skapa relevanta länkar på olika sätt på sajten. Du behöver inte göra så mycket manuella. Oftast har man en katalogstruktur exempel Plastsmurf-Tjejsmurf-Minismurfen. På Minismurfen är det mycket färre sökningar än på Plastsmurfen och gör man en sådan här struktur så får Plastsmurfen per automatik många fler interna länkar. De som sitter och jobbar med sajten behöver inte sitta och tänka så mycket på att länka rätt då brödsmulan tar hand om detta åt dem. Man bygger bort en del manuell problematik.

Jag tror faktiskt att användarna uppskattar dem. För när man kommer in på Minismurfen, långt ner på sajten, behöver man ett sätt att förstå var man är på sajten. Man har ju ingen tredimensionell bild av sajten när man kommer in på en sida. Det är därför det heter brödsmulor, det är ett sätt för användaren att navigera var de är på sajten om de vill ta sig vidare. (Ordet kan komma från Hans och Greta som la brödsmulor på vägen för att hitta hem)
Kntnt:De här kategorisidorna som du pratar om, de har oftast en pufftext. Då kan man få upp till 10 artiklar på en sida med en varsin pufftext. Du kan också få ganska många kategorisidor med samma pufftext.
CR:Ja, absolut. Om du har en publiceringsplattform, ex Word Press som jag tror att många av er lyssnare använder eller har använt, så är det väldigt vanligt att man använder två funktioner som heter taggar och kategorier. Det är egentligen exakt samma funktion men med olika namn.
Har du en artikel som hamnar i en kategori och lägger till tre taggar så skapas det oftast interna länkar till de här tag- och kategorisidorna. Sen kategoriseras också artikeln men någon slags snippet på den här sidan. Gör man det en enda gång händer inte så mycket men om man som ni, har 250 artiklar, och inte är helt konsekventa i taggande och kategoriserande kan det bli problem.
Det kanske inte finns något tydligt mål eller restriktioner och det är fritt fram att göra vad som helst. Till och med felstavningar händer ibland – vi är ju bara människor. Då är det väldigt vanligt att man får en sida som expanderar våldsamt i mängder urler. Utifrån ett contentperspektiv är ju innehållet på dessa taggar och kategorier duplicerat och gaska tunt. Skulle en användare från Google komma till en sådan sida kan det upplevas lite rörigt. De måste fortsätta leta, så utifrån ett svarsperspektiv så är det en ganska dålig upplevelse.
Gör man detta konsekvent över tiden så skapas det väldigt många sådana sidor. Det kan leda till problem. För när Google skeppar trafik till den urlen så blir det ingen bra användarupplevelse.
Kntnt:Då får vi höra hur du betygsätter hur vi gjort. Vi har satt No-index, dvs att Google inte ska indexera, på Arkivsidorna, datumarkiv, tagarkiv, kategoriarkiv. Vi visar vilken kategori som artikeln hör till och taggar den. Men taggarna är max 1,2 eller 3 st. Är det en bra eller dålig strategi?
CR:Mellan A till Ö så är det kanske C. Ganska högt upp men inte optimalt. Jag tycker generellt sätt att man bestämmer sig, även om det kan variera lite beroende på ämne, för 4-10 olika kategorier eller taggar då de har samma funktion.
Kntnt:Men de har ju olika användningsområden kan man säga.
CR:Ja, men rent tekniskt är det samma funktion.
En artikel hör ju i regel till en kategori och du har ganska få kategorier, 5-6 st. Men det skiljer sig mot taggarna som skribenterna skriver själv. En del öser på med 20 taggar.
Min poäng är att jag tycker man ska styra upp det. Det ska finnas strukturerat 4-10 kategorier som man använder löpande över tiden och kommer man utanför dessa får man ha en kategori som heter Övrigt. Dessa kategorisidor blir inte tunna sidor utan tvärtom, det blir statiskt innehåll som beskriver nyttan av innehållet, varför det finns och varför man ska stanna och leta längre.
För det ändå så att om du väljer att ha No-index på dessa sidor så skyfflar du runt Pagerank på ett ostrukturerat sätt på din sajt. Pagerank är ju ett värde som man bör ta tillvara på och speciellt, om man som ni, attraherar länkar naturligt. Man ska inte slösa på det på en sida som ändå inte ska ranka på Google.
Sen kan man ju säga ”Vi har ingen Googleagenda”. Nej, då kan man göra exakt vad man vill. Då kan man använda miljarder av taggar, det har ingen betydelse.
Kategorierna är ganska viktiga, särskilt på WordPress-sajter, eftersom de skapar en slag struktur. Så på varje sådan kategorisida ska man ha ett rikt innehåll i toppen och så kommer arkivet efteråt. När det kommer till taggarna så kanske svaret blir att – skit i dem.
Ja. Det kanske, i vissa fall, finns lite användarmässigt negativa aspekter. Men finns det en god anledning att en Tag ska ranka så skriv en artikel. Då blir det en riktig artikel istället. Det tycker jag är en mycket bättre lösning. Då har man också, i alla fall ur ett Googleperspektiv, ett större existensberättigande i indexet. Sen är det så att vissa användare använder taggarna för att navigera och här får man göra en ”Trade-off” tycker jag. Om den användaren möter artikeln, som jag nyss pratade om, blir de troligtvis gladare än en Tag-sida. Det är vad jag tror i alla fall. Men jag har nog inte alltid rätt.
Mobil, vad säger du om det?
Ett måste. Jag lever ju i den här världen så mig är det inte något konstigt men jag inser också att det finns en del cms och annat som kan göra det till ett mer komplext problem än vad det borde vara. Alla webbsidor bär ju på ett arv men jag tror att i merparten av fallen är det bara att gilla läget och anpassa sidan till en bra upplevelse på olika sätt.
Google har gått ut med att de bygger något som de kallar för ett ”mobilt index”. Det ska ersätta det gamla index vilket innebär att de ser sidan som den ser ut som mobilsida och det innehåll som de ser är vad som hamnar i indexet. Är det korrekt?
Det var en väldigt bra fråga. När vi resonerar kring innehåll och mobilitet och desktop tycker vi att det ska vara lika. Vi är där idag och så jobbar vi. Men med det sagt så är det troligt att vi behöver ändra våra guidelines under åren efterhand som att vi lär oss mer. Vi har ännu inte funnit någon anledning att ändra på detta. Jag tror att det kommer anledningar förr eller senare. Vi testar exempelvis tabbar eftersom det är ganska vanligt och ett problem som vi stöter på inom projektimplementering är hur man ska visa olika innehåll på olika sätt. Men idag ser vi till att det ska ungefär lika ut. Det är så vi vill ha det. Det ska absolut vara perfekt på desktop.
Sen är det så i Sverige, gällande mobilitet och mobil upplevelse, att vi ligger ganska långt fram. Vi gjorde en undersökning 2015 där vi kollad mobilanpassning på många stora E-handlare och då var det bra upplevelse på +95%. Man kan säga att de har störst nytta av det direkt men jag är inte helt säker på att man skulle uppnå samma resultat om man gjorde motsvarande undersökning i Tyskland eller Polen.
Mängden fel som vi anmärker på hos våra kunder, när vi söker fel kring mobilitet , är inte så många. Det är en minoritet av felen. Det är sällan där de stora problemen ligger. Så webbyråer idag verkar hantera det rätt. Med det sagt så är det inte utskeppat ännu, som jag upplever det. Så det finns en anledning att utvärdera det under året. Det är kanske det tråkiga svaret jag ger er – att vi vet inte tillräckligt väl ännu.
Nu pratar du om att Google gått ut och talat om att de bygger upp ett mobilt index parallellt med desktop index och att mobilt index helt kommer att ersätta desktop index.
Personligen lyssnar jag mindre och mindre på Googles propagandaapparat. Vi försöker se på alla de kunder vi jobbar med, våra egna sajter, tester osv. Vi monitorerar kanske 500 sajter dagligen och har olika typer av filter och larm och när det börjar hända saker så kommer det automatmail från min server till mig.. Då kan man börja gräva i problematiken i större utsträckning. Men jag tycker inte kommunikatörer och marknadschefer behöver ligga sömnlös kring det här med mobilen. Man behöver hantera det på ett proaktivt och bra sätt och de flesta webbyråer verkar kunna det.
Vi har minst en kund vars sajt inte är mobilanpassad. Kan de även sova gott om natten?
Nej, då hade jag nog haft handsvett.
Kommer de bli straffad av Google eller vad händer?
Jag gillar inte att kalla det straff men man kanske har en nackdel. Straff tycker jag ger felaktiga associationer. Sättet att få mycket Googletrafik och bättre ranking är hur man tänker. Om jag nu vill ha en bättre ranking och mer trafik på de här orden – hur gör jag en bättre upplevelse utifrån de här fyra parametrarna, teknik (under dessa faller mobilitet), content, länkar och användarupplevelse. Utifrån de fyra parametrarna, hur blir jag bättre än de jag slåss mot.
Om jag blir bättre har jag högre sannolikhet att gå om dem och få mer trafik. Det är ingen garanti i det korta perspektivet men om jag löpande jobbar på att bli bättre inom de här fyra områdena så kommer det hända saker under tiden. Våra processer bygger helt på att vi ska förbättra för våra kunder på de här fyra parametrarna mot väldigt tydliga mål, keywords.
Hur är det med AMP?
Amplified Mobile Pages, Google anser att laddningstider hos framförallt publishers är ett problem. Alla med lite tekniska färdigheter, som har sett hur mycket som laddas på en publishersida i form av annonsscripten, vet varför det här är ett problem. Då har Google sagt att det är en dålig upplevelse med alla pop ups, annonser, overlays, och allt sådant som gör att folk föredrar att installera en annonsblockerare.
Man känner sig lite hotad av Facebook Instant Pages som kom för 1,5 år sedan. Då gick man ihop med Twitter och Pinterest och skapade en ”standard”. Vi vet ju alla vem som kontrollerar denna standard.
Det är AMP. Det handlar om att man ska bygga väldigt nedskalade html-sidor som laddar blixtfort och därmed kan man bjuda på en väldigt positiv användarupplevelse.
Problemet, utifrån publishers perspektiv, är att man inte kan ha overlays, pop-ups och många annonser så man tjänar väldigt mycket mindre pengar. Dessutom kommer Google inte skeppa trafik till publisherns url utan de har en egen url som användaren hamnar på. Så innehållet ligger i förlängningen inte hos publishern längre. Därmed kan de inte kontrollera upplevelsen fullt ut heller.
Du menar alltså att trafiken till din AMP-sida egentligen går till Googles cache av din sida?
Det fungerar inte riktigt så just nu tror jag. Men det kommer att fungera så inom väldigt kort.
Då tappar man ju även all statistik på egen trafik och sådana saker.
Ja, det kanske är så att Google kan släppa en liten ”slatt” med statistik till dig.
Så om man jobbar med content marketing och bygger upp ett webmagasin på sajten. Ska man göra den ”Ampifierad”?
Nej. Man ska skita i det och satsa resurser på en riktigt snabb, trevlig och bra upplevelse. Att bygga en sajt hos Google är som att bygga en sajt hos Facebook. Det skulle du aldrig få för dig. Däremot så tycker jag att man ska prioritera upp loadtime-investeringar jättemycket och mäta det över tiden. Det ska ladda sjukt fort.
Vad har man för riktvärden där?
Det beror lite på vilka verktyg man mäter med. Men med de vi använder vill se värden på under en sekund.
Fram till att den renderar eller till allt är laddat?
Bra fråga. Det behöver inte ladda allt. Google tittar inte på alla parametrar och det finns debatter kring vilka parametrar de kollar på Men för att slippa de här detaljdiskussionerna och komma till proaktiva genomföranden så säger vi ”Okej, så här mäter vi. Ni ska bygga en positiv trend ”
Sen hur långt man ska dra detta är en investeringsfråga. Man kan dra det väldigt långt och man kan investera väldigt mycket pengar. Det som vi ser hos kunderna är att de inte investerat någonting. Då säger vi till dem att de har en dålig loadtimekurva och att den måste få en positiv trend. Den ska vara i flera månader.
Vi är lite mer detaljerade än så men det är så vi mäter. Vi inser också att det inte är någon som kommer att investera så att man har en loadtime som Amazon. De har en väldigt bra loadtime. Men man behöver få dem att investera i detta och löpande mäta det. Man ska ha de som KPI fast det är ett ganska tråkigt KPI.
Från den 10:e januari i år kan man straffas för popups….
Ja, det är intressant. Jag tror inte det har hänt. I de här mobilförändringarna som de införde mot publishers handlade det om olika slags popups i mobilen. Hade man kvar sådana skulle man, för att använda ditt ord, straffas. Det var de ganska tydliga med redan i somras. Men med den data jag har sett så verkar de inte implementerat något. De har även varit ganska tysta om det kan jag tillägga. Det har inte varit något skrik eller ”tandagnisslande” om det. Hur man ska tolka det vet jag inte.
De kanske har skaffat sig ”rätten” att straffa enskilda aktörer som överträder det med argumentet ”vi har ju varnat om detta”.
Ibland så använder Google propaganda för att påverka ekosystemet. Det är ju som med https. Det är absolut så att det med https blir lite säkrare. Men givet kostnaden för alla inblandade så kanske det inte är en rimlig investering. Eftersom Google inte bär den kostnaden och de har andra ”benefits” än https och säkrare webbsidor så är det något man propagerar för utifrån att ekosystemet ska fungera. Både med morot och piska.
Man använder ord som straffas och massa sådant för att få folk att ändra beteende och implementera htts. I början sa man ”när du implementerar https så får du liten rankingförbättring”. Det är en morot. Nu har man övergått till piskfasen. Det kommer säkert ännu värre piskor under året som kommer. Men bara för att man vill tvinga hela ekosystemet i en viss riktning. Det blir säkrare men det största fördelen är ur Googles affärsmodell.
Vad är det för benefits som du ser att de får?
Det som händer i min webbrowser och server är svårt att lyssna på med https. I webbläsaren kan jag kan exempel genomföra en sökning via en sökmotor och använder jag då Internet Explorer, som tillhör deras konkurrenter, så kan ju konkurrenten (förutsatt att det är http) samla en del data som kan sparas och användas. Om det är https är det mycket svårare att genomföra det.
Https bygger på kryptering med en publik nyckel och en offentlig nyckel. Din privata nyckel ger dig också en unik identitet. Så med det blir det ett supersmidigt sätt att identifiera varje enskild browser.
Ja faktiskt. Det har jag inte ens tänkt på. Jag kan inte tekniken tillräckligt väl men jag tror det ligger något i det du säger.
Så det innebär att de trackar oss
Absolut. Men det visste vi ju redan. De har ju ändrat sina ”Terms of service”. Tidigare sa de att de ”trackar bara individer i allmänhet” men Terms of Service säger idag att de ”trackar individer i synnerhet” Att de kan tänka sig göra detta. Det betyder inte att de gör det men om man ändrar användarvillkoren så är det ju en förberedelse för något. Det är ju ingen på Google som sitter hemma en fredagkväll, är uttråkad och bestämmer sig för att ändra i användarvillkoren. Det finns alltid syften.
Hur som helst så är Google något vi måste förhålla oss till. Vi rundar av med det. Tusen tack !!

Christian Rudolf

Christian Rudolf

Ägare av Topdog!

Christian är Topdogs ägare och Senior Sökmotorkonsult med +10000 timmar av Sökmotoroptimering & Processutveckling för internetmarknadsföring för de allra svåraste segmenten i Google.

Ställ gärna en fråga angående artikeln

*