Real-time Penguin officieel uitgerold


Google heeft vandaag officieel en wereldwijd zijn real-time Real-time Penguin update uitgerold. In Nederland heb ik er nog niks van gemerkt (Google maar eens naar “gietvloeren”), maar hier komt hopelijk snel verandering in.

Het Pinguin algoritme (op z’n Hollands)

Pinguin is één van de dieren uit de Google-algoritme dierentuin en heeft de taak om linkspam te bestrijden. Koop je regelmatig links, deel je regelmatig louche PR berichten of plaats je zogenaamde SEO Specialist links in zijn Private Blog Networks (PBN), dan is de kans groot dat je met deze Pinguin te maken krijgt. Het gevolg; grote dalingen in rankings en je suf zoeken naar de schadelijke links om deze vervolgens weer te verwijderen of af te wijzen.

Real-time is het grote verschil

Het grootste verschil met voorgaande Pinguin Updates is dat deze real-time gaat werken. Moest je voorheen wachten op een volgende update (laatste was 2 jaar geleden!) voor het herstel van je rankings, nu is het – in theorie – links verwijderen en/of afwijzen en wachten op een nieuwe webcrawl.

Wat kun je verwachten

Wat je kunt verwachten na deze update is meer onderhoud aan je linkprofiel. Je zal misschien tijdelijk werk hebben aan oude links (voldoen deze nog aan de huidige eisen?), maar zeker aan nieuwe links omdat er meer dynamiek zit in de linkwaarde. Kunnen deze vandaag nog een boost geven aan je ranking, morgen kunnen ze schade toebrengen, omdat er dan ook wordt gelinkt naar slechte concurrenten.

Of de update ook veel invloed zal hebben op Private Blog Networks (blog netwerken die het natuurlijk proces van het internet simuleren), dat vraag ik me nog af. Ik verwacht zeker dat ze sneller op de radar van Google verschijnen, maar als ze vervolgens handmatig moeten worden beoordeeld (deze kans is vrij groot met dit soort technieken) dan heb ik er niet veel vertrouwen in.

Google September update

Het is belangrijk om deze update niet te verwarren met de Google update die begin september 2016 is doorgevoerd. Deze had weliswaar veel invloed op de rankings van vele websites, maar deze staat los van de Pinguin update. Als we Google moeten geloven was dit een “gewone” update welke bijna dagelijks voorkomt.

Lees meer over Linkuitwisselingsprogramma’s.

SSL Mixed content probleem oplossen


Voor zowel zoekmachine optimalisatie (bron: Google) als voor conversie optimalisatie heeft een beveiligde verbinding toegevoegde waarde. Een migratie verloopt echter niet altijd zonder problemen en in dit artikel ga ik het “mixed content” probleem oplossen. Een probleem wat zorgt voor een waarschuwing in je adresbalk en vervolgens een enorme conversie-killer wordt.

Wanneer een HTTPS-pagina HTTP-inhoud bevat, noemen we die inhoud “gemengd”. De pagina die u bezoekt is slechts gedeeltelijk versleuteld en hoewel deze beveiligd lijkt te zijn, is dat niet het geval. – Bron: Mozilla Support

Kortom; Je hebt HTTP URL’s gebruikt in een HTTPS omgeving (bijvoorbeeld voor je Google fonts, CSS of afbeeldingen) en dat geeft de foutmelding “mixed content”. In mijn geval waren het hoofdzakelijk mijn afbeeldingen (http://flowmm.nl/afbeelding.jpg ipv https://flowmm.nl/afbeelding.jpg) door het gebruik van een WordPress Page Builder, maar de oplossing blijft hetzelfde; spoor de URL’s op die HTTP gebruiken en wijzig deze naar HTTPS.

Kortom; Je hebt HTTP URL’s gebruikt in een HTTPS omgeving (bijvoorbeeld voor je Google fonts, CSS of afbeeldingen) en dat geeft de foutmelding “mixed content”.

Een goede tip is om ook je externe bestanden zoals je Google Fonts en javascript te controleren. In Google Chrome krijg je namelijk ook een groen slotje als deze niet zijn meegenomen, maar aan de rechterzijde zit er dan een foutmelding voor het inladen van onbeveiligde inhoud. Vink je deze uit, dan word de situatie nog erger; je slotje word dan knalrood met een streep er doorheen!

Mixed content opsporen

Het eerste wat je moet doen bij een SSL foutmelding is de pagina door Why No Padlock halen. Deze tool geeft je een indicatie waar het probleem zich kan bevinden. Eenmaal de boosdoeners gevonden dan kan je ze in een bulk opsporen via de SEO Tool Screaming Frog.

Het eerste wat je moet doen bij een SSL foutmelding is de pagina door Why No Padlock halen.

Via Screaming Frog kan je op verschillende manieren op zoek gaan naar content binnen een website. In dit geval lossen we het probleem vrij simpel en gratis op via het zoekvenster, maar de tool biedt je veel meer mogelijkheden. Zo kan je bijvoorbeeld ook controleren of al je pagina’s een Google Analytics code hebben via de custom filters.

De oplossing voor Mixed content

In dit voorbeeld ga ik alleen mijn eigen URL’s (flowmm.nl) opzoeken die HTTP gebruiken ipv HTTPS. Dit kan heel simpel door http:// in te voeren in de zoekbalk van het tabblad “internal”. Wil je ook uitgaande URL’s opsporen met HTTP, dan kan je dezelfde handeling uitvoeren onder het tabje “external”. Mijn ervaring is dat dit complexer is dan Why No Padlock omdat je zeker in een blog veel uitgaande links gebruikt en het probleem zich hoogstwaarschijnlijk in de head (<head>) van je HTML begeeft.

Zodra je de HTTP URL’s hebt gevonden is het heel simpel; Klik op “In Links” in het onderste menu en je krijgt een overzicht van waar al je HTTP URL’s zich bevinden. Zijn het er heel veel of laat je iemand anders het probleem oplossen dan kan je een export maken in de betaalde versie van de tool (tip). Succes!

Prioriteit geven aan Zoekwoorden OBV Af- of Toename in zoekvolume


De meeste online marketeers geven op basis van het gemiddelde zoekvolume prioriteiten aan zoekwoorden. Handig voor bijvoorbeeld de advocaat of de notaris om de hoek, maar niet voor een AMS Advocaten of een DAS Rechtsbijstand. Zij hebben zodanig veel zoekwoorden, dat er goed nagedacht moet worden over de prioriteiten in hun Keyword Analyse/Content Strategie. Extra data zoals een af- of toename in het zoekvolume kan hierbij helpen.

In dit artikel leg ik je uit hoe je met de periode vergelijker van de Google Keyword Planner op een simpele en snelle manier prioriteiten kan geven aan zoekwoorden.

Voordat ik begin: Met Google Trends kan je van de meeste zoekwoorden wel goed achterhalen hoe mensen hierop hebben gezocht en kan je zelfs een voorspelling opvragen. Het geeft echter geen zoekvolumes terug en constant switchen tussen de schermen is niet heel efficient werken.

Periode invoeren en vergelijken

Periode vergelijken met Google Keyword Planner

Stap 1 en 2 spreken vrijwel voor zich. Mocht je niet starten vanaf de Keyword Planner homepage, dan kan je in de linker zijbalk “Periode” wijzigen.

Resultaat Periode vergelijken

In het bovenstaande voorbeeld zie je een resultaat met de periode vergelijker aan in de Google Adwords Keyword Planner. Mocht je niet dezelfde kolommen zien, dan kan je deze aanpassen onder “kolommen” door deze simpelweg aan of uit te vinken.

Vervolgstappen

De beste vervolgstap is om in je Keyword Analyse (Spreadsheet) een periode toe te voegen in je veld “zoekvolume” en extra kolommen aan te maken voor de statistische verschillen. Verder kan je voor je Keyword Analyse/Marktonderzoek en Content Strategie hoogstwaarschijnlijk dezelfde werkwijze aanhouden. Ikzelf werk vanuit een Spreadsheet in Google Drive en hanteer altijd;

  1. Goedkeuring keywords van de klant (groen, oranje, rood);
  2. Content Strategie opstellen (title’s, url’s, descriptions, etc.);
  3. Prioriteiten toewijzen op basis van datums;
  4. Na doorvoeren en controle een kolom groen markeren met een datum.

Extra tips

  • Bekijk in de maandelijkse grafiek (naast het zoekvolume) of het zoekwoord seizoensgebonden is.  Zo ja; splits je content agenda op met seizoenen.
  • Splits je Keyword Analyse goed op in mobiel en desktop en vergelijk deze. Het is niet vreemd dat er een daling is in zoekvolume op desktop, maar dat deze toeneemt op mobiel.
    • Vergeet je nulpunt ook niet op te splitsen in mobiel en desktop!
  • Breid je content uit op basis van rankings en bezoekersstatistieken. Hiermee voorkom je dat concurrenten je Content Strategie kopiëren en je vrij snel kunnen bijhouden of erger; inhalen.

Blokkeren van CSS en JS kan je Google rankings schaden


Google heeft officieel bevestigd dat het blokkeren van CSS en JS in je robots.txt je vindbaarheid in Google kan schaden. Iets wat al eerder was bevestigd door Yoast (op 19 juni 2014!) toen een client 2/3e van zijn rankings verloor in Google.

Disallowing crawling of Javascript or CSS files in your site’s robots.txt directly harms how well our algorithms render and index your content and can result in suboptimal rankings.

Een kleine wijziging als deze heeft (veel) invloed op webmasters die doelbewust (commerciële) elementen “verbergen” voor zoekrobots. Hierbij kan je denken aan het plaatsen van een reclamebanner bovenin je site voor bezoekers maar onderin voor een zoekrobot of bijvoorbeeld lappen SEO Teksten gebruiksvriendelijk wegwerken middels buttons en tabjes.

Voor een ervaren SEO Specialist komt deze verklaring niet als een verassing. Het is al jaren bekend dat Google de layout van sites bestudeerd en deze informatie meeneemt in zijn algoritme. Op deze manier zijn veel spam trucjes zoals onzichtbare teksten (bijvoorbeeld lappen tekst verkleinen naar een pixel groot of dezelfde kleur tekst gebruiken als de achtergond) vrijwel geëlimineerd en zijn dubieuze content sites lager gaan ranken. Het enige wat wel nieuw is, is het afdwingen van toegang inruil voor een goede vindbaarheid in Google. Bijna omgekeerde bewijslast (zo extreem zal het natuurlijk niet zijn), maar wel een fair deal lijkt mij.