donderdag 20 maart 2008

Gebruik en CMS


In de bibliotheek van het Vredespaleis zijn we onlangs gestart met het opbouwen en inrichten van een geheel nieuwe website. Één van de belangrijkste argumenten om dat te doen is een beheersmatige. Het zelf maken van html, xml, txt, php files en het 'met de hand' distribueren van dergelijke files over de webserver wordt op de lange duur een lastig te beheren geheel. Vooral ook als het omwille van de tijd niet altijd goed mogelijk is een actuele administratie bij te houden.

Maar er is nog een ander argument. Het gebruik. Nu mogen wij hier beslist niet klagen over het gebruik van onze website en de services aldaar aangeboden. Ter illustratie: in 2003 werd een totaal aantal hits gemeten op www.ppl.nl van 350.000 exclusief crawlergebruik. In 2007 was het aantal hits opgelopen tot 3.500.000 hits, een vertienvoudiging dus in 5 jaar tijd. Het zijn echter niet de aantallen, maar de duur van het verblijf op onze website die ons zorgen baart. Bezoekers verblijven vandaag de dag nog maar iets meer dan 2 minuten op onze website en bekijken dan bijna 2 en halve bladzijde. In 2006 was dat respectievelijk iets meer dan 3 minuten en bijna 3 en een halve bladzijde. In twee jaar tijd op dit punt een forse terugval dus.

Omdat wij hier vinden dat we toch wel iets meer te beiden hebben dan tweenen een halve bladzijde per bezoeker in korte tijd, besloten we dat een nieuwe website met meer dynamiek het middel is om meer gebruikers langer vast te houden. En dat een CMS die dynamiek moet kunnen bieden, omdat immers middels een dergelijke tool meer mensen kunnen bijdragen aan die dynamiek. Bovendien kan met een dergelijke manier van werken, dus met een CMS, een flink stuk beheer uit handen worden genomen. De tijdwinst kan worden gebruikt om al het 2.0 moois een plek te geven in de nieuwe opzet.

Blijft natuurlijk staan dat een bibliotheek wel gevonden moet worden en daarom is het artikel van Joan Smith en Michael Nelson, Site Design Impact on Robots erg interessant. In een experiment dat een jaar duurde onderzochten beiden het gedrag van de robotcrawlers van de drie grote partijen Google, Yahoo en MSN bij nieuwe websites. Er blijken verschillen te bestaan tussen websites die breed worden opgezet (zeg maar met directories in hooguit een paar 'lagen' op de webserver) en websites die diep zijn opgezet (zeg maar met directories die steeds dieper 'aftakken'.

De vraag is voor ons nu, hoe zit dat met een CMS, waarbij de directory structuur oppervlakkig zal zijn, maar waarbij ook de teksten feitelijk niet in die structuur zijn opgenomen? Opgeborgen als die teksten zitten in een database. Ik begrijp wel dat die teksten vroeg (Google) of laat (MSN, Yahoo) uiteindelijk meegenomen worden door de crawlers, maar hoe snel precies, weet ik niet. Daarover vind ik niks in het genoemde artikel van Smith en Nelson.

Geen opmerkingen: