Amazonificering

En metode til at lave en stofsammenhæng, der ikke er udtænkt af en redaktion, men skabt på basis af brugernes adfærd.

Mange kender det fra online-boghandlen Amazon: "de der købte denne bog, købte også...", eller "hvis du kunne lide denne cd vil du sikkert også kunne lide...". Jeg har lært mig at sådan en funktion også hedder recommendation engine — en anbefalingsmaskine. Dejligt ord!

Jeg kalder konceptet amazonificering af en hjemmeside, netop på grund af Amazons gennemførte måde at bruge det på. Jeg kender ikke mange andre sider, der bruger samme metoder — andre end nogle jeg selv har været med til at lave.
Søgemaskinen Google bruger dog en lignende teknologi til at koble brugernes adfærd på de mange andre faktorer, som afgør en sides placering og relevans.

En relevant sammenhæng <

Amazon anbefaler mig altså produkter baseret på mine tidligere køb og mine øvrige valg.
Ja, nu er det altså ikke Amazon — eller rettere medarbejdere hos Amazon — der har siddet og tastet interessante bøger ind for min skyld. Nej, det som Amazon har gjort, er at lade andre brugere vise mig hvad der kan være interessant.
Gennem at sammenstille andres valg af produkter, og derefter søge efter mine produkter i bunken, har Amazon kunnet lave nogle produkter, som efter al sandsynlighed stemmer overens med hvad jeg kunne tænke mig at købe.

Jeg er glad fordi det er nogle relevante og ikke nogle tilfældige eller bare generelt populære produkter, jeg ser på "min side", og Amazon bliver glade fordi de forøger sandsynligheden for at jeg rent faktisk køber noget.

Jeg er glad, de er glade. Er det ikke herligt?

Indholdsamazonificering <

Nu er det jo ganske nemt at se mulighederne når folk indikerer en så klar interesse for et produkt, som det er at købe det. Så er der vist ingen tvivl om, at de synes det er interessant.

Men hvad med redaktionelt indhold? Kan vi lave en lignende sammenhæng dér?

Ja, da. Den sammenhæng kan laves ud fra hvad folk klikker på. Hvis vi har et fornuftigt opbygget system, kan det også laves ud fra hvor længe de ser på en given side. Jo længere tid de bruger på siden - inden for rimelighedens grænser — desto mere interessant er den.

Det handler altså om at samle oplysninger om individuelle brugeres adfærd på hjemmesiden, og derefter bruge de opsamlede data til at skabe nogle relevante links.

Det er ikke ethvert CMS beskåret at kunne den slags. Jeg har faktisk aldrig set et der kunne. Men det kan lade sig gøre med en passende dataopsamling og lidt fornuftige algoritmer til at lave udtræk af de data.

God trafik <

Der er kun et krav, som skal opfyldes, før det giver mening at lave denne slags henvisninger, nemlig gode trafiktal. Man skal have et passende stort antal besøgende før det er fornuftigt at lade deres fælles adfærd afgøre hvordan indholdet hænger sammen.

Man skal med andre ord op på en kritisk masse.

Hvor mange besøgende skal der så til? Amazon har millioner af besøgende. Det giver et godt fundament, men mindre kan gøre det.
Mit eksempel er en engelsksproget side om fluefiskeri 🏛️, som jeg laver sammen med tre amerikanske venner. Denne side har omkring 2.000 daglige besøgende, og det danner et fornuftigt grundlag for en god amazonificering.

Under hver artikel er der to felter som det ses i illustrationerne ovenfor. Åt der viser videre til andre relevante artikler ved hjælp af de nøgleord, som den aktuelle artikel er opmærket med, og et, der rummer de fire-fem artikler, som andre mennesker, der har læst den aktuelle artikel, mest har set på.

Fordelene <

Fordelen for os, der skriver og redigerer siden er, at der udover de relevante links vi selv lægger ind, også dannes en række andre links, som giver mening, men som vi måske ikke selv havde tænkt på at tilføje.

Fordelen for læserne er, at der er tale om andre læseres dom, og ikke redaktørens. Måske virker det som et paradoks, og mange med en journalistisk baggrund vil sikkert protestere mod denne form for opportunistisk "redigering", men for folk som mig, med en mere pragmatisk indstilling til tingene, giver det mening.

Relevans er jo en løjerlig ting. De fleste redaktører vil finde, at relevans er når der er sammenfald i emner. Det viser sig dog at relevans for læserne skifter undervejs. Således er aktualitet - nye artikler - en relevansfaktor, når en artikel lige er publiceret. Folk, der læser en ny artikel, læser også andre nye artikler. Men efterhånden som artiklen modnes, så skifter relevansen til en klart indholdsbaseret relevans.

Ingen tilsanding <

For at henvisningerne ikke skal stivne og sande til, så holder vi kun på relevansdata i et par uger. Herefter slettes de. Det betyder at relevans for en gammel artikel kan skifte, hvis den for eksempel pludselig bliver aktuel igen.

Det betyder at der er en stor dynamik i systemet, og at henvisninger skifter med skiftende aktuelle emner og nytilkomne artikler. Med andre ord kan gamle artikler, der har en sammenhæng med nyudgivelser, automatisk få henvisninger til nyere artikler. Og dette sker såvel baseret på nøgleord som på læsernes adfærd på hjemmesiden.

Ulemper <

Er der da ingen ulemper ved dette system? Jeg er ikke stødt på nogen, men kan da tænke mig til mindst én. Eftersom henvisninger fra artikler skifter, kan det være et problem, hvis folk husker en given artikel, fordi de har fundet den gennem en henvisning fra en anden. Når de vender tilbage til denne anden artikler, findes den oprindelige henvisning måske ikke mere. Det kan selvfølgelig irritere.
På den anden side har de fleste moderne browsere en fortrinlig historik, der kan hjælpe med at huske den slags, og skulle folk ikke være klar over det, har vi på forsiden af Global FlyFisher lagt en lille "Sider du senest har besøgt" boks. Så vil brugerne kunne se deres seneste besøg, hver gang de navigerer til forsiden.

Behøver jeg at sige, at sådan en funktion har Amazon også?

Systemet <

Jeg skal ikke komme ind på den præcise teknik i dette system, men blot forklare at det er noget mere end blot at analysere en log.

Vi skaber faktisk vores egen lille "rullende" log, der holder styr på hvordan den enkelte læser bevæger sig rundt på siderne. Hver gang en ny side vises, analyseres denne log ved nogle små, hurtige opslag i databasen, og resultaterne danner grundlaget for, om der skal vises noget og i så fald hvad. Herefter laves der krydsopslag i CMS'ets database for at finde titler, manchetter, url'er og så videre.

Det er i og for sig ikke svært, men det er smart og kræver lidt matematik og lidt omtanke...

Aflyst! <

Tja, ligesom jeg annoncerer, at amazonificering er en elskelig ting, så skal jeg læse at Amazons egen (forhenværende) guru på området aflyser hele fænomenet. Han har selv været her og sige det på et arrangement hos FDIM 🏛️

Andreas Wiegand 🏛️ siger nemlig at historikken slet ikke er så interessant, og at Amazon heller ikke bruger den så meget som vi tror.

Vi skal se på "social technology" og "networking" foruden at vi skal lade situationen og ikke historien bestemme, hvad vi skal hjælpe brugerne med. Der skal stadig samles data om hvad brugerne gør, som skitseret i min artikel, men det er tilsyneladende bare nogle andre data.

Pokkers også! Nu troede jeg lige jeg havde forstået det hele og havde fat i noget...

Vi sælger skamløst viden og assistance vedrørende