INFORMATIE

WORDEN WE STRAKS BETAALD OM ADVERTENTIES TE KIJKEN? EN HOE?

Een jaar of tien geleden werd Formule 1 uitgezonden op het Open Net (RTL4, dacht ik). Een probleem was dat de uitzending zo nu en dan onderbroken werd voor reclame. De auto’s echter reden gewoon door. Geconfronteerd met de kritiek verweerden de zenderbazen zich met de dooddoener: ja zo houden we de uitzending gratis. Ongetwijfeld een argument dat je wel vaker gehoord hebt, als het om reclame gaat. Maar klopt dat wel? Die reclames worden namelijk betaald en daarna weer versleuteld in de prijs van de producten. Dus, tenzij je als Formule 1 fan structureel niets koopt van wat er tijdens de race geadverteerd wordt, betaal je twee keer. Eén keer met je geld in de prijs van de producten en één keer met je kostbare aandacht.

Vreemd, zou dat niet andersom moeten zijn? Moeten wij niet betaald worden om naar advertenties te kijken? In de markt van vraag en aanbod zit de schaarste in ieder geval bij de hoeveelheid attentie die wij kunnen geven. Die is, zoals Kevin Kelly in The Inevitable opmerkt, gelimiteerd tot 24 uur. En dan moet je dus niet slapen. En in een wereld waar informatie exponentieel groeit, wordt onze aandacht steeds waardevoller. Dat moet toch iets waard zijn? En op welke manier willen we dat betaald zien?

In deze long read gaan we op zoek naar een antwoord op de bovenstaande vragen.  We doen dat door te kijken naar de volgende onderwerpen:

  1. Hoe snel groeit informatie eigenlijk?
  2. Waarom zijn filters zo belangrijk? En wat zijn het? En wat is een Filter Bubbel?
  3. En hoe zouden filters moeten functioneren?
  4. En, uiteindelijk, hoe moeten wij betaald moeten worden voor onze aandacht?

Hoe snel groeit informatie eigenlijk?

Je had het waarschijnlijk al verwacht, maar het antwoord is natuurlijk het antwoord dat je altijd krijgt als het gaat om informatie technologie, namelijk: de groei is exponentieel. Om een indruk te krijgen, raad ik deze geweldige visual (hier) aan van de
hoeveelheid informatie die elke seconde op het internet wordt geplaatst. Eric Schmidt, van Google, stelde dat de hoeveelheid informatie die gecreëerd is vanaf het begin van de wereld tot 2003 evenveel is als er nu elke 2 dagen wordt gecreëerd. En, o ja, dat zei hij in 2011 (oeps!). Deze informatiestroom wordt enerzijds aangejaagd door de eenvoud van social media, camera’s, digitale boeken, muziek, films en alle dingen (auto’s, tandenborstels, weegschalen, fitbits, etc..) die nu en straks informatie verzamelen (het internet van alles). Anderzijds dalen de kosten van opslag explosief. Opschonen is echt niet meer van deze tijd, het opslaan van data is minder en minder een bottleneck.

Even een zijstapje: Er is ook nog een probleem met al die informatie en dat is het probleem van associatieve referentie. Dat klinkt ingewikkeld, dus ik leg het uit. Als je iemand de volgende vraag stelt:

Is de hoogste boom hoger of lager dan 150 meter?
Of:
Is de hoogste boom hoger of lager dan 75 meter?

Dan is het antwoord bij mensen die de eerste vraag krijgen een stuk hoger dan mensen die de tweede vraag krijgen. Dat zie je elke keer terug. Ook bij vraagprijzen van huizen, of prijzen van producten, of geld voor goede doelen of zelfs als het referentiegetal willekeurig is gekozen van een Rad van Fortuin. Daniel Kahneman, de beroemde psycholoog ontdekte dit. Maar als we verder denken, en kijken naar het huidige internet, dan zien we dat ons referentiekader ook verandert. Als er een vechtpartij is in Lemmer, zouden we dat in Brabant vroeger niet weten. Nu wel, misschien zelfs met een filmpje. Misdragingen van een man in Epe? Een duw tegen een tramchauffeur in Drente? Het komt allemaal bij ons binnen, en verandert ons referentiekader. En dat verklaart misschien ook wel de groei van het aantal mensen dat denkt dat de maatschappij verhard of dat terug wil naar de normen en waarden van vroeger. En dat terwijl die echte verharding misschien helemaal niet bestaat.

Ander voorbeeld. Er zijn nog nooit zo weinig mensen gestorven als gevolg van gewapende conflicten als in onze huidige tijd en toch beantwoorden de meeste mensen de vraag: is de wereld onveiliger geworden met een volmondig Ja.

Terug naar het verhaal.

Waarom zijn er filters nodig?

Je hebt ze misschien wel eens gezien, van die piramides in leerboeken. Onderstaan staat DATA en data leidt tot INFORMATIE en dat leidt tot KENNIS en uiteindelijk WIJSHEID. Maar wat als er zoveel data is, dat de stap naar informatie al niet meer gezet kan worden? En wat is dat eigenlijk informatie? Kunnen we daar ook teveel van hebben.

Informatie wordt vaak gedefinieerd als een voor de mens begrijpbaar bericht. Vanuit die definitie is iets al snel informatie alhoewel je natuurlijk lang kunt discussiëren over wat precies onder begrijpbaar wordt verstaan. Een fitbit die je vertelt hoeveel stappen je hebt gelopen, dat is dus informatie. Maar een (online) nieuwsbericht, een film, een lied, een bericht op social media is dat ook. Hoe meer informatie er is, hoe belangrijker het is dat jij de informatie die voor jou juist is, tot je kunt nemen. Immers, alles roept de hele dag om aandacht. Social media sites, je vrienden op de App, nieuwsberichten, pushberichten, je slimme auto, je energiemeter, je fitbit en ga zo maar door.

Ik zie tegenwoordig zelfs mensen op vakantie de energie opbrengst van hun zonnepanelen thuis checken op een App. Lekker zinnig.

Het is eigenlijk heel simpel. Het gat tussen de tijd die je hebt om ergens aandacht aan te geven (24 uur per dag, als je niet slaapt) en de hoeveelheid informatie die aangeboden wordt, wordt steeds groter. Dat betekent dat er filters nodig zijn, die je helpen om te zorgen dat je in je beperkte tijd de informatie die voor jou het meest waardevol is tot je kunt nemen. Filters zullen dus steeds belangrijker worden als een navigatiemiddel in de enorme brij van informatie. Máár dat betekent dus ook dat we GOEDE filters moeten hebben. Filters die onze belangen centraal zetten en niet de belangen van anderen. In 2011 al gaf Eli Pariser een Ted Talk waarin hij de Filter Bubble besprak.

Dat werkt ongeveer als volgt:

Tijdens het surfen wordt er een profiel van je gemaakt. Dat gebeurt o.a. op basis van je zoekgeschiedenis, e-mailverkeer, koopgedrag en berichten op sociale media. In dat profiel staat kortweg wie je bent en wat je voorkeuren en interesses zijn. Bij nieuwe zoekopdrachten of berichten in je timeline wordt vervolgens alles weggelaten wat niet past binnen jouw profiel. Zoekresultaten, maar ook aanbiedingen en reclame, wordt helemaal afgestemd op wat je al eerder zag. Een andere invalshoek, een andere mening, een kritisch artikel of een tegendraadse weerwoord wordt weggefilterd. Zo ontstaat om elk persoon heen een Filter Bubble.

Grootste Probleem: Je weet zelf niet op basis waarvan jouw informatie gefilterd wordt en je weet dus ook niet wat er buiten jouw filter bubbel aan informatie is. Het gaat niet om het nieuws of de advertenties die je ziet, het gaat juist om de dingen die je niet ziet.

Het probleem is dus niet dat er filters zijn. Die zijn noodzakelijk want hoe vind je anders je weg in al die informatie. Ze zullen alleen maar belangrijker worden. Het probleem is dat de filters (nog) niet GOED GENOEG zijn. De Ted Talk van Eli Pariser in 2011 maakte indruk, maar er zijn nog genoeg problemen met het filteren van informatie. Laten we kijken naar een actueel voorbeeld: de relatie tussen de verkiezing van Donald Trump en Facebook.

Er is al heel veel over geschreven. Heeft Facebook ervoor gezorgd (of bijgedragen aan het feit dat) Donald Trump tot President gekozen is? Het is in ieder geval zo dat meer en meer mensen (zeker in de VS) de newsfeed van Facebook gebruiken om nieuws tot zich te nemen. Ze maken gebruik van een filter. Immers, deze newsfeed wordt gepersonaliseerd op basis van je gedrag. Als je veel en snel klikt op berichten over Donald Trump, als je veel berichten over Donald Trump ‘liket’ dan krijg je meer positieve berichten over Donald Trump (of negatieve over Hillary!). In je timeline verschijnen posts van mensen die hetzelfde denken over Donald Trump. Je komt als het ware terecht in een echokamer waarin je steeds bevestigd wordt in je gelijk. Waarom doet Facebook dit? Simpel, omdat hun doel is dat je zoveel mogelijk tijd doorbrengt op hun App/Website. Immers, meer tijd is meer advertentie-inkomsten en meer data. En bij Facebook weten ze al lang dat bezoekers die bevestigd worden in hun gelijk brengen meer tijd doorbrengen op Facebook.

Maar er speelt misschien wel meer. Veel onderzoek wijst er op dat mensen van nature veel meer geïnteresseerd zijn in korte termijn opbrengsten, dan lange termijndoelen. Liever nu geld lenen, en dan later wel zien hoe we aflossen. Liever nu een sigaret en dan maar hopen dat je niet ziek wordt. Maar dus ook, liever nu een spectaculaire versimpeling in de vorm van een tweet lezen dan een langer artikel of een essay wat me aan het einde pas wat oplevert. Een kandidaat die excelleert in ‘simpele boodschappen’ zou dus wel eens meer aandacht kunnen krijgen van de filters. Daarnaast willen mensen vermaakt worden én merkt Jonah Berger op in zijn boek gaan vooral die dingen viral die inspelen op emoties als ontzag, angst en woede. Daarnaast heeft onderzoek aangetoond dat er heel veel mensen artikelen niet meer lezen (zie deze fantastische 1 april grap van NPR). De headlines worden gescand, er volgt een emotie, een like en – zonder te lezen – een share.

Weinig details, simpele boodschappen, angst, woede. Mmmm… komt bekend voor.

En het gaat nog verder. Er is namelijk ook nog zoiets als nep-nieuws. Nieuws dat lekker klinkt, inspeelt op alle zaken die in de alinea hierboven staan, maar niet waar is. het liefst zo extreem mogelijk. De paus steunt Trump. Een video van Bill Clinton die een minderjarige verkracht. De moord op de e-mailbeheerder van Hillary Clinton. Er zijn voldoende aanhangers van Trump of Clinton die er belang bij hebben om dit soort nep-nieuws de online wereld in te slingeren én er zijn nog meer handige jongens (zoals de befaamde Macedonische tieners) die snappen hoe het systeem werkt (en de advertentiegelden zien binnenstromen). Facebook keek tot voor kort namelijk alleen naar clicks en likes, typisch iets wat nep nieuws snel vergaart, en controleerde niet of het nieuws waar is. Facebook, zo stelde Mark Zuckerberg tot voor kort is immers slechts een technologie platform. Maar dan wel een technologie platform dat sneller dan het licht een tepel kan verwijderen. Zelfs als het om een World Press Photo gaat.

Inmiddels belooft Facebook beterschap op het gebied van nep – nieuws. Op het gebied van filter bubbels en echokamers zijn ze minder uitgesproken. Aan de andere kant is er ook onderzoek dat er op wijst dat we online juist meer mensen ontmoeten met afwijkende meningen dan in het ‘echte’ leven. En dat het dus best wel eens mee zou kunnen vallen met de filter bubbel online versus dezelfde bubbel in de offline wereld. Van mensen online die niet je ‘echte’ vrienden zijn, zou je wel eens meer kunnen leren omdat je minder overeenkomsten verlangt. De paradox is dan dat als Facebook nep-nieuws gaat weren, dat dat wel eens gezien zou kunnen worden als bevooroordeeld gedrag en dat mensen zich vervolgens terugtrekken op andere platformen met veel heftigere bubbels. En zo zijn er nog veel meer problemen en oplossingen te bedenken. Hoe maak je bijvoorbeeld onderscheid tussen Fake News en satire?

Er is nog veel meer te zeggen over bovenstaand Facebook – Trump voorbeeld, maar één ding staat als een paal boven water. De huidige filters hebben tekortkomingen. Dat kan veel beter en moet veel beter, zeker als de informatie blijft toenemen en de behoefte aan filters toeneemt.

Dezelfde soort problemen gelden met andere populaire websites:

Google laat na een zoekopdracht resultaten zien. Maar jou resultaten zijn anders dan die van iemand anders. Jouw resultaten worden toegespitst op eigenschappen die Google van jou kent (zoals je lokatie, computer, browser en 50+ meer en nog veel meer als je ingelogd bent). De resultaten van je zoekopdracht zijn dus verre van neutraal, maar een weergave van jouw Filter Bubble. Befaamd voorbeeld is dat één iemand zoekt op Egypte en bovenaan resultaten krijgt over de Arabische Lente en iemand anders over Duiken in de Rode Zee.

Sites als Amazon, Spotify, Netflix doen aanbevelingen aan jou op basis van wat ze van je weten en wat andere mensen ergens van vonden. People Who Like This Also Like This. Het is maar zeer de vraag of dat leidt tot geweldige suggesties, die ervoor zorgen dat allerlei klanten nieuwe dingen ontdekken die ze anders nooit gezien hadden of dat juist iedereen naar dezelfde series, boeken en muziek ‘wordt gesuggereerd’.

In Twitter heb je de Trending Topics. Dat is een filter want ze wijzen je op belangrijke informatie. Maar hoe wordt een ‘topic trending’? Dat wordt bepaald door een algoritme. Het is zeker niet simpelweg het onderwerp waarover het meest gepraat wordt. Dit algoritme echter is geheim, dus je weet niet hoe het filter werkt. Tegelijkertijd is dat begrijpelijk, want als het geheim bekend wordt, zullen kolonnes van actiegroepen, bedrijven en narcisten dat misbruiken om zelf trending te worden.

En het probleem zit diep. Vandaag hoorde ik bijvoorbeeld op radio 1 een interview met een huisarts die een emotioneel betoog geschreven had over ouders die hun kinderen niet inenten. Dat vond zij een slecht idee. Het artikel sloeg aan, constateerde de presentator, want het was al 4000 keer gedeeld. Maar, aan wie? Kregen ook de fanatieke niet-inenters het te zien, of alleen die mensen die inenten al belangrijk vonden? En trouwens, wat voor mensen komen op deze website…

Maar… er is ook goed nieuws.

Er zijn genoeg mogelijkheden om de filters te bevechten. Denk hierbij aan het wissen van je zoekgeschiedenis, anonimiteitsmodussen aan te zetten of te zoeken via andere zoekmachines die niet aan tracking doen. Dat zijn zeker oplossingen, maar geen permanente. Het is immers prettig om persoonlijke informatie te krijgen. Deze trend zal alleen maar doorzetten, zoals Google blijft herhalen. Dat is fijn, bij de plaatselijke kroeg wil je ook dat de barman je herkent. En filters zijn ook belangrijk want de hoeveelheid informatie neemt alleen maar toe. Het grootste probleem is echter, denk ik, dat de filters zelf niet persoonlijk zijn. Je ziet niet wat er gebeurt, op basis van welke algoritmes gefilterd wordt, wat er in jouw Filter Bubble zit en wat niet. Betere filters moeten daarom zelf te personaliseren zijn, zodat je kunt zien hoe er gefilterd wordt en dat zelf kunt instellen. Bijvoorbeeld:

Of je wel of geen Fake News wil zien (omdat je zelf wel uitmaakt wat echt is en niet?)
Of je soms verrast wil worden, en suggesties wil krijgen die NIET bij je lijken te passen;
Of je soms ongefilterde resultaten wil zien, zoals in zoekmachines als DuckDuckGo;
Als je op een informatiedieet gaat en je wil meer info wil krijgen met een andere rating;
Etc..

Kortom filters die je kunt leren om jouw persoonlijke filter te worden. Om jou te dienen in plaats van de belangen van de technologiebedrijven en hun adverteerders. En ik ben daar positief over. Maar er is ook een groot nadeel. Misschien moeten we nog meer data prijsgeven om een goed filter te krijgen en willen we dat wel? En van wie is die data dan? We moeten dus ook voorzichtig zijn, maar er liggen kans voor ons, de data-producten.

Immers, informatie groeit exponentieel, maar onze mogelijkheden tot aandacht zijn gelimiteerd tot 24 uur. Wij worden dus machtiger. Vraag en Aanbod. Onze aandacht steeds waardevoller. Dat betekent dat we in de toekomst betaald zouden kunnen worden door nieuwssites of sociale media sites of adverteerders voor onze aandacht. Dat kan natuurlijk in geld, maar zou het niet veel mooier zijn als we betaald worden met iets veel waardevollers.

Zoals echt persoonlijke filters. Zoals technologie die onze waarden centraal stelt.

cc

Laatste update: 1 september 2017. Tekst is Creative Commons, de links en afbeeldingen niet.

Wil je wat toevoegen, veranderen of anderszins opmerkingen plaatsen. Gebruik dan de reactiemogelijkheid hieronder.

Geef een reactie