Veel voorkomende zoekmachine optimalisatie fouten seo fouten Verborgen inhoud, keyword stuffing en diefstal van inhoud zijn een absolute no-go in zoekmachine optimalisatie!

Typische zoekmachine optimalisatie fouten kunnen gevonden worden in zowel OffPage als OnPage optimalisatie. Er zijn echter grote meningsverschillen in beide gevallen. Enquêtes in de SEO-scene laten echter zien wat SEO-deskundigen als typische fouten beschouwen. Bij OnPage-optimalisatie gaat het om de juistheid, de logica, de snelheid en de overtuigingskracht van de webinhoud; het ontbreken daarvan kan problemen veroorzaken. Bij offpage-optimalisatie gaat het daarentegen om de kwaliteit van de links en de manier waarop links worden verkregen, waarbij het om fouten gaat.

Onjuiste of slecht bijgehouden meta-informatie op webpagina's wordt vaak genoemd als een bron van fouten. Wat wordt bedoeld is dat bepaalde meta-informatie (zoals titel en beschrijving) onvoldoende is afgestemd op de zoekwoorden die de desbetreffende website zouden moeten kenmerken.

Er worden ook veel SEO-fouten gemaakt bij de selectie van trefwoorden en de toewijzing van trefwoorden. In het algemeen moet de website representatief zijn voor een grote reeks relevante trefwoorden voor een bepaald onderwerp. De trefwoorden die op afzonderlijke webpagina's worden gebruikt, moeten daarentegen worden geselecteerd uit een vrij kleine reeks. Deze paar trefwoorden moeten worden gebruikt in alle onderdelen van de webpagina, maar elk in een dichtheid die de leesbaarheid niet belast.
duplicate-content
Er kan er maar één zijn! Duplicate content tast de kwaliteit van de website aan en moet worden vermeden.

Vooral in webwinkels zijn er nog steeds problemen met duplicate content. Google en Co. willen dat tekstinhoud zo uniek mogelijk is voor elke website. Slechts één enkele webpagina van een webaanwezigheid kan relevant zijn voor een bepaalde inhoud. Webmasters kunnen deze fout vermijden door een bepaalde extra meta-informatie (Canonical Tag) te gebruiken om zoekmachines erop te wijzen welke de eigenlijke webpagina is.

Hoge laadtijden van webpagina's worden ook beschouwd als een SEO-fout. Dat komt omdat snelle websites gebruiksvriendelijk zijn. Meestal houdt deze fout verband met het onjuiste gebruik van afbeeldingen en multimediatoepassingen. Te veel tekst kan ook een probleem worden, hoewel dit geen snelheidsprobleem is. Google en Co. willen voor elke webpagina net zoveel tekst als relevant is voor het presenteren van een compact feit. Daarom kan te weinig tekst ook een SEO-probleem worden.

Andere fouten kunnen in de structuur van de website zitten. Vanaf de homepage moet elke afzonderlijke webpagina toegankelijk zijn via zo weinig mogelijk interne links. De linkstructuur moet worden gemotiveerd door de inhoud, d.w.z. dat zij grotendeels moet overeenstemmen met zinvolle subsets van de relevante trefwoorden. Deze trefwoorden moeten ook voorkomen in de interne linkteksten. Het is ook slecht als de doorzoekbaarheid van de website selectief wordt beperkt. Een foutieve robots.txt is hier meestal de oorzaak van.
slechte backlinks
Backlinks van dubieuze bronnen, webdirectories en webcatalogi kunnen uw website meer kwaad dan goed doen.

Slechte linkkwaliteit staat bovenaan de lijst van off-page fouten. Als er links zijn van artikel directories, dan moet de bron gerenommeerd zijn. Linknetwerken die enkel als doel hebben te linken worden over het algemeen als spam geclassificeerd en leiden vaak zeer snel tot een penalty. Hetzelfde geldt als gemakkelijk herkenbaar is dat links zijn gekocht of gehuurd. Als externe links afkomstig zijn van websites die niet bij het thema passen en als er veel links op een website staan, dan is de verdenking van spam gemakkelijk te begrijpen.

De linkgeschiedenis kan ook een probleem worden. Als een website plotseling veel links verliest of wint, dan spreekt dit duidelijk tegen natuurlijk linken. Het is natuurlijk ook slecht als een website slechts via zeer weinig externe links kan worden bereikt. Dit spreekt voor de irrelevantie van de inhoud.



 

Er kan er maar één zijn! Duplicate content tast de kwaliteit van de website aan en moet worden vermeden.