Blokkeren van CSS en JS kan je Google rankings schaden


Google heeft officieel bevestigd dat het blokkeren van CSS en JS in je robots.txt je vindbaarheid in Google kan schaden. Iets wat al eerder was bevestigd door Yoast (op 19 juni 2014!) toen een client 2/3e van zijn rankings verloor in Google.

Disallowing crawling of Javascript or CSS files in your site’s robots.txt directly harms how well our algorithms render and index your content and can result in suboptimal rankings.

Een kleine wijziging als deze heeft (veel) invloed op webmasters die doelbewust (commerciële) elementen “verbergen” voor zoekrobots. Hierbij kan je denken aan het plaatsen van een reclamebanner bovenin je site voor bezoekers maar onderin voor een zoekrobot of bijvoorbeeld lappen SEO Teksten gebruiksvriendelijk wegwerken middels buttons en tabjes.

Voor een ervaren SEO Specialist komt deze verklaring niet als een verassing. Het is al jaren bekend dat Google de layout van sites bestudeerd en deze informatie meeneemt in zijn algoritme. Op deze manier zijn veel spam trucjes zoals onzichtbare teksten (bijvoorbeeld lappen tekst verkleinen naar een pixel groot of dezelfde kleur tekst gebruiken als de achtergond) vrijwel geëlimineerd en zijn dubieuze content sites lager gaan ranken. Het enige wat wel nieuw is, is het afdwingen van toegang inruil voor een goede vindbaarheid in Google. Bijna omgekeerde bewijslast (zo extreem zal het natuurlijk niet zijn), maar wel een fair deal lijkt mij.

Bekijk ook