
Hvad får I ud af teknisk SEO?
Teknisk SEO er grundstenen til gode, organiske placeringer. Du kender måske udtrykket content er king, og UX er queen. Men for at give jeres velskrevne content muligheden for at rangere, er der nogle tekniske faktorer, der skal være på plads. Hvis du forestiller dig, at din hjemmeside er en bil, fungerer det ikke med Ferrari-udseende, hvis motoren er fra en Twingo.
Teknisk SEO kan på sin vis betragtes som teknisk UX. Målet for teknisk SEO er nemlig – ligesom for UX – at forbedre brugeroplevelsen både for dine kunder, men også for Google Bot, der skal crawle og indeksere jeres site.
Det er vigtigt, men hvad er det?
Nu ved du, hvorfor teknisk SEO er vigtigt. Men hvad er det så helt præcist, du skal gøre herfra?
Teknisk SEO dækker over de metoder og strategier, der anvendes til at optimere et websites tekniske infrastruktur for at forbedre dets synlighed og placering på Google og andre søgemaskiner. Det kan være jeres sitemap, robots.txt, sitets mobil-venlighed, website-performance m.m.
Google gav os for første gang nogle konkrete målepunkter i maj 2020; Core Web Vitals.
Core Web Vitals
Vi har tidligere skrevet om Core Web Vitals på SEO og UX, hvor du kan gå mere i dybden med emnet, så her får du blot de vigtigste pointer. De tre målepunkter hedder:
- Largest Contentful Paint - Måler, hvor lang tid, det tager at loade sidens største indholdselement.
Altså den indledende load-performance. - First Input Delay - Måler sidens interaktivitet. Altså ikke, hvor mange interaktiver elementer, siden har, men hvor hurtigt, siden reagerer, når brugere interagerer med dem.
- Cumulative Layout Shift - Måler visuel stabilitet. Google ønsker ikke, at indholdselementer skal hoppe op og ned på siden i takt med de forskellige elementer loader. Det er derfor vigtigt at have et godt skelet på siden, som sikrer, at det ikke sker.
Nogle nemme wins, som vi oplever kan implementeres hos de fleste med hjælp fra en dygtig udvikler:
- Komprimer filstørrelsen på billeder, videoer, gif’er og lignende. Her er typisk rigtig meget at hente. Den optimale løsning er at skifte til et next-gen billedformat som Web-P. Her bliver billederne komprimeret online, så de fylder mindst muligt, og dermed loader hurtigere.
- Lazy load og pre-load af elementer. Her kan det for mange være en rigtig god idé at lazy loade de indholdselementer, der først er synlige langt nede på siden. Det er ikke nødvendigt for brugeren at se disse elementer, før de begynder at scrolle nedad siden, og derfor bør de ikke have prioriteres lige så højt som de øverste elementer.
- Minimer brugen af scripts fra tredjeparter: Det kan f.eks. være tracking- og analytics-værktøjer, der kan sænke performance på websitet. Det er vigtigt kun at anvende de nødvendige værktøjer, og løbende sorterede ud i dem, man ikke længere anvender.
- Generel optimering af websitets kode. En velstruktureret kode er med til at forbedre load performance på jeres website, og det vil også øge dets generelle ydeevne. Det kan bl.a. gøres ved at minimere CSS- og JavaScript-filer gennem komprimering.
Website struktur og crawlability
Der er også mange point at vinde ved at fokusere på websitets struktur og navigation. Den gode struktur hjælper både Google Bot med at identificere det vigtigste, men gør det også nemt for brugerne at lokalisere de sider, de leder efter. Win-win.
Robots.txt
Robots.txt er det første sted på siden, som Google Bot besøger, når de skal crawle sitet. Det fortæller Google Bot, hvilke sider, den skal besøge, og – lige så vigtigt – hvilke sider, der ikke skal crawles. Der findes mange grunde til, at man ikke vil have alle sider på et site indekseret – måske vil man ikke spilde crawlbudget, måske skal nogle sider holdes skjult eller måske vil du sikre, at kun det korrekte indhold bliver indekseret. Det kunne fx være sider som nedenstående, du ikke ønsker indekseret:
- privatlivspolitik
- tak-siden på jeres webshop
- betalingssider
- duplicate versioner af jeres content
- Og mange flere eksempler
Sørg for robots.txt indeholder de ting og de ekskluderinger, du ønsker. Det kan f.eks. tilgås på https://www.jereshjemmeside.dk/robots.txt. I robots.txt skal du linke videre til jeres sitemap.
Sitemap
Sitemappet er en liste over alle de sider, du gerne vil have indekseret på jeres website. Sitemappet fortæller Google Bot, hvordan strukturen er på websitet, og hvad der er vigtigst. Når Google Bot besøger et website, for at finde ud af, hvilke sider der skal indekseres, kigger den derfor på sitemappet som noget af det første.
Så din opgave er at sikre, at sitemappet konstant er opdateret. Der kan hurtigt opstå fejl i sitemappet i takt med, at du lægger nyt indhold på sitet eller fjerner eksisterende indhold.
Sitemappet skal kun indeholde præcis de sider, som du ønsker at indeksere, der skal derfor ikke være links med:
- 3xx redirects
- 4xx fejl
- 5xx interne server fejl
Du kender det nok – det er frustrerende at lande på en død side, når man klikker rundt på et website. Sådan har Google Bot det også, når den skal crawle strukturen på et site. Døde sider ødelægger flowet, og worst case risikerer du, at crawleren tror, at der ikke er mere at komme efter, og forlader jeres site uden at have besøgt vigtigt indhold.
Det vigtigste du kan gøre for at rangere på Google, er at sikre, at Google kan indeksere jeres site. Hvis det ikke er crawlable, kan du have nok så godt content, men ingen vil kunne finde det.
Tilgængelighed – især på mobilen
I de senere år har mobilenheder stået for de fleste søgninger på Google, og derfor har Google et mobile-first fokus. Det betyder, at de prioriterer hjemmesider, der leverer en god brugeroplevelse på mobilen. Derfor skal den mobile load performance være i top, og det er faktisk også på mobilenheder, man tester i Core Web Vitals.
Og så bliver det endda snart et lovkrav, at tilgængeligheden er i orden. Ikke blot på mobil, men på websites generelt. Fra 2025 kan man nemlig risikere en bøde, hvis ens hjemmeside ikke lever op til kravene for tilgængelighed. Det er et EU-direktiv, der kaldes WCAG.
WCAG-kravene dækker i bred forstand over:
- Font/skriftstørrelser
- Klikbare elementer af en hvis størrelse
- Design/farvevalg
- Alt Tags og Alt Text - det kan du læse mere om i vores artikel om On-Page SEO
- Kontrastforhold
- Og mange flere ting.
Hvis Google er glad, er dine brugere også
Teknisk SEO er en kompleks størrelse, hvor mange forskellige elementer spiller ind. Men ved at tage højde for disse tekniske SEO-faktorer, er du godt på vej.
Google er en virksomhed, der lever af at give folk svar på deres spørgsmål. Deres vigtigste mål er at servere det rette svar for en bruger, så brugeren vender retur til Googles søgemaskine igen og igen. Hvis du kan gøre Google glad, er chancen for, at din målgruppe også er glad, faktisk enormt stor.
Og husk – det er muligvis ikke lysmesteren eller lydteknikeren, der modtager det første bifald efter endt forestilling. Men showet ville slet ikke køre uden dem. Så sørg for at iscenesætte dit SEO-content bedst muligt ved at have styr på teknikken bag. Også bare for at sikre, at der overhovedet er et publikum til dit show.
Nysgerrig på mere SEO? Så har vi en lang liste af artikler, som kan gøre dig klogere. Og har du brug for sparring til det tekniske - eller måske bare en gennemgang af jeres sides tekniske performance, så ræk ud.
- Hvad er SEO
- 13 gode råd til at skrive bedre SEO tekster
- Forskellen på SEO og SEM landingssider
- Start med en UX analyse, før du laver designoptimering