KUNSTMATIGE INTELLIGENTIE – INSPIREREN

Op deze pagina staat een long read over kunstmatige intelligentie. De long read gaat over voordelen en nadelen. Over ethische vragen en over al die zaken waar je over na moet denken als je iets gaat doen met kunstmatige intelligentie of ermee te maken krijgt. In de long read staan verwijzingen naar artikelen, video’s e.d. De long read maar ook alle onderliggende pagina’s en eigenlijk dit hele platform valt onder Creative Commons, maar de afbeeldingen, verwijzingen, clips en video’s niet altijd. Het is dus belangrijk dat je je  daar zelf van op de hoogte stelt, als je materiaal wilt gebruiken. Bij twijfel, check de website van creative commons.

De volgende vragen gaan we proberen te beantwoorden:

  1. Wat is dat nu eigenlijk kunstmatige intelligentie ?
  2. Waarom ontwikkelt kunstmatige intelligentie zich zo snel ? En hoe snel gaat dat?
  3. En waarom kan die ontwikkeling ook wel eens tegenvallen ?
  4. Wat zijn voordelen & mogelijkheden van kunstmatige intelligentie ?
  5. Wat zijn problemen met kunstmatige intelligentie ?
  6. Moeten we ons zorgen om onze banen? En waarom wel/niet?
  7. Waarom is Ethiek zo belangrijk in een wereld vol AI?
  8. En hoe moeten we verder ? Wat is wijsheid ? Scenario – denken!

Wat is nu eigenlijk kunstmatige intelligentie?
Het is best ingewikkeld om deze vraag te beantwoorden. Maar het is wel belangrijk. Je zou maar in discussies terecht komen met andere mensen over kunstmatige intelligentie, maar allebei over volstrekt iets anders praten. Begrippen als kunstmatig, leven, intelligentie en bewustzijn kunnen veel misverstanden veroorzaken. Ik heb niet de illusie dat wij wél de wijsheid in pacht hebben. Echter, wat we wel kunnen doen, is een aantal definities geven welke we vervolgens consequent op deze site zullen hanteren. Daarvoor maken we dankbaar gebruik van het werk van Max Tegmark (link naar boek).

De eerste vraag is, wat is leven? Laten we zeggen dat een leven een proces is, dat zijn complexiteit kan handhaven en zich kan repliceren. Als je er zo naar kijkt, heb je 3 verschillende stadiums van leven. Life 1.0 is simpel. Zeg, een worm. Het kan overleven en het kan zich repliceren. Life 2.0 is complexer. Het kan hetzelfde als life 1.0 maar het kan ook zijn software ontwerpen. Bijvoorbeeld, iemand die iets leert of afleert verbetert zijn software. Life 3.0 is technologisch. Dit leven kan overleven, repliceren, zijn software ontwerpen en zijn hardware ontwerpen. Momenteel zitten we in de fase van life 2.0 met componenten van life 3.0. Wij mensen kunnen bijvoorbeeld steeds beter onze eigen hardware ontwerpen. Denk maar aan een bril, een prothese, een pace-maker en ga zo maar door. Je zou al fundamentele vragen kunnen stellen of een slim ontworpen computervirus volgens deze definitie leven is? Kan die overleven? Zich repliceren? Zich aanpassen? Binnen bepaalde kaders waarschijnlijk wel.

De tweede vraag die je eigenlijk moet beantwoorden is: wat is intelligentie? Dat is best wel een ingewikkelde vraag, waar veel debat over kan zijn. De beste manier om dat debat te omzeilen, is opnieuw om zelf te kiezen voor een definitie en die consequent te hanteren in het vervolg. Op technofilosofie.com hanteren we de definitie: intelligentie is het vermogen om complexe doelen te bereiken. Als je die definitie hanteert heb je verschillende verdere verfijningen van deze definitie. Je hebt bijvoorbeeld beperkte intelligentie. Dat is het vermogen om een beperkt aantal doelstellingen te bereiken. Dat is een calculator, een schaakcomputer, een zelfrijdende auto, een computerdokter. Het kunnen dus hele intelligente dingen zijn die er gebeuren, maar wel beperkt. Daarnaast heb je algemene intelligentie. Dat is het vermogen om nagenoeg iedere doelstelling te bereiken, waaronder het aanleren van nieuwe vermogens.

Kunstmatig laat zich dan het meest eenvoudig omschrijven door: niet biologisch. Als je die twee combineert krijg je kunstmatige intelligentie. In de literatuur wordt vaak gesproken over Algemene Kunstmatige Intelligentie (AKI). Dat is het vermogen om alle cognitieve taken (taken waar je bij na moet denken) net zo goed uit te voeren als de mens. Daarnaast heb je nog de term superintelligentie. Dat is AKI die ver uitstijgt boven het menselijk niveau. Zo’n superintelligentie is het gevolg van AKI die zich snel zelf verbeterd en dat leidt tot een intelligentie explosie. Een ander woord daarvoor is singulariteit.

Klinkt best goed toch? De wereld kan wel een beetje meer intelligentie gebruiken. Er is al genoeg domheid in de wereld! Of ligt het toch wat genuanceerder? Het begint in ieder geval met de vraag: hoe snel gaat dit allemaal? En wanneer hebben we dan zo’n AKI of superintelligentie?

Waarom ontwikkelt kunstmatige intelligentie zich zo snel en hoe snel gaat dat?
Als je bovenstaande leest, dan is kunstmatige intelligentie niet zo heel bijzonder. Dat hebben we namelijk al lang. Een rekenmachine is kunstmatige intelligentie. De schaakcomputer die Garry Kasparov versloeg in 1997 (Deep Blue) is kunstmatige intelligentie. Toch zal iemand niet snel zijn rekenmachine zien als kunstmatige intelligentie. Dat komt waarschijnlijk omdat een rekenmachine niet kan leren. De schaakcomputer uit 1997 voert slim volgende zetten uit, maar kan niet leren van zijn fouten. De belangrijke ontwikkeling is daarom dat we uitgevogeld hebben hoe we kunnen programmeren met behulp van neurale netwerken. Machines die leren, dat blijft heel fascinerend. Hoe dat precies werkt, is voor een technofilosoof niet heel belangrijk, maar het idee is dat de computers vooruit kunnen denken. Dat er een bepaalde output kan worden gedefinieerd en dat als er dan voldoende input is (trainingsdata) de computer begint te leren van zijn fouten en steeds beter wordt.

Om een indruk te krijgen van hoe indrukwekkend dit is, het volgende voorbeeld uit de schaakwereld. In 1997 won Deep Blue, de schaakcomputer van IBM van schaakgrootmeester Garry Kasparov. Maar dat was ook het enige wat Deep Blue kon. Je had er moeiteloos van kunnen winnen met boter-kaas-en-eieren. Daarna ontstond een korte periode waarin kunstmatige en intelligentie samenwerkten en tegen elkaar speelden. We noemden die teams Centaurs. Het wordt vaak als voorbeeld gebruikt van hoe robot en mens kunnen samenwerken. Iemand die zoiets verteld, gebruikt waarschijnlijk ook de term Cobot. Echter, wat er vaak niet bij verteld wordt, is dat inmiddels Centaurs bijna niet meer bestaan, omdat de computers veel te goed zijn en de mensen dus irrelevant. Dus speelden de schaakcomputers tegen elkaar en spelen mensen vrijwel geen rol meer (een beetje net als Formule 1). De beste schaakcomputer van allemaal was Stockfish 8. En die was nog klassiek geprogrammeerd door mensen. Maar onlangs speelde deze computer tegen een systeem dat neuraal geprogrammeerd was, namelijk AlphaZero. Dit systeem had nog nooit geschaakt, maar wist de output (winnen). Dus oefende het systeem door tegen zichzelf te spelen en binnen 4 uur wist het 100 van de 28 partijen te winnen.

Als je even Googlet (ook kunstmatige intelligentie) krijg je vele indrukwekkende voorbeelden van zelflerende systemen. Omdat computercapaciteit toeneemt, omdat data-opslag steeds goedkoper is én omdat er steeds meer data is, kunnen deze systemen steeds beter getraind worden en leren ze steeds sneller. Eén keer in de 2 jaar komt een groep kunstmatig intelligentie onderzoekers bij elkaar en dan wordt de vraag gesteld: wanneer denken jullie dat er de eerste universele kunstmatige intelligentie zal zijn. Dat getal wordt dan gemiddeld en de laatste keer was het gemiddelde 2047. Best snel.

En waarom kan die ontwikkeling ook wel eens tegenvallen?
In de geschiedenis hebben we een aantal periodes gehad van héél véél optimisme rond kunstmatige intelligentie. Alan Turing schreef al in 1950 het provocerende essay: Can Machines Think? en in de jaren daarna werd er zwaar geïnvesteerd in kunstmatige intelligentie, zeker op het gebied van vertalen. Uiteraard naar en van het Russisch. Koude oorlog, weet je nog? Echter, daarna volgde een periode van minder enthousiasme. Dat noemen we een AI – winter (link naar Artikel op Popsi). Ook nu, door doorbraken die we hierboven hebben beschreven, zoals meer computerkracht en nieuwe (neurale) manieren van programmeren zitten we midden in een hete zomer, maar in de verte zien steeds meer mensen een nieuwe winter komen.

Een mooi voorbeeld is de zelfrijdende auto (link naar artikel op The Verge). Die had er volgens Elon Musk al in 2018 moeten zijn. Helemaal autonoom, maar dat gaat niet gebeuren en het zou ook nog wel eens een generatie kunnen duren. Dat komt, voornamelijk door een proces genaamd, generalisatie. Simpel gezegd, door het miljoenen plaatjes te laten zien, kun je een computer perfect ‘trainen’ om een tijger te herkennen. Hetzelfde kun je doen voor een poes. We noemen dat interpolatie. Maar, als je dan vraagt, en nu een poema herkennen, die zit er ergens tussen in, daar snapt een computer niets van. Een kind van 4 wel. En de weg zit vol ‘poema’s’.

Hieronder een mooi voorbeeld dat laat zien hoe complex het nog is en hier nog een grondig artikel (van de piekniewski blog).

Wat zijn de voordelen en mogelijkheden van kunstmatige intelligentie?
De voorspelde winter betekent natuurlijk niet, dat er niet een hele hoop voordelen en mogelijkheden zijn die nu al bereikt worden met kunstmatige intelligentie of die binnen enkele jaren bereikt gaan worden. We hebben nu natuurlijk al allerlei vormen van geavanceerde kunstmatige intelligentie in ons dagelijks leven van Google (Maps), tot de newsfeed van Facebook, de trending topics op Twitter en de bewakingscamera’s op schiphol. Maar laten we eens wat toekomstscenario’s bekijken die er gedeeltelijk al zijn.

Dingen die ‘denken’
Volgens Kevin Kelly in zijn boek The Inevitable (link naar boek) kun je vergelijkingen trekken tussen de opkomst van electriteit en kunstmatige intelligentie. Je neemt een apparaat, en voegt er iets aan toe. Bijvoorbeeld, je had lang geleden een handboor, electriciteit erbij, hoppa, een electrische boormachine. Je had een tandenborstel, electriciteit erbij en hoppa een electrische tandenborstel. Nu voeg je weer wat toe: kunstmatige intelligentie. Dat leidt opnieuw tot een nieuw product. Bijvoorbeeld, de electrische tandenborstel, AI erbij, en hoppa, je hebt een mini-tandarts die elke dag ook even je gebit controleert en suggesties geeft. Eerst wassen met de hand, toen een een electrische wasmachine en straks een machine waarbij je per was betaalt afhankelijk van de beschikbare stroom op het slimme grid. Zo kan elk denkbaar product voorzien worden van kunstmatige intelligentie. Het gaat dan vooral om kunstmatige intelligentie die uit ‘een cloud’ komt en heel specifiek ‘iets’ kan. Er zal, zo voorspelt Kevin Kelly, juist geadverteerd worden met kunstmatige intelligentie die heel goed is in één ding. Je wil niet dat je zelfrijdende auto tijdens het rijden ook nog probeert een boekhoudkundig probleem op te lossen. Maar Kevin Kelly is dan ook een onverbeterlijke optimist.

Dingen die tot leven komen
In het meest extreme geval, las ik een verhaal in het NRC (link naar artikel) over een wereld waarin alle dingen weer tot leven komen. Zeg maar terug naar het animisme, het geloof dat alle dingen op aarde krachten bezitten. Denk aan bomen die praten tegen het gras, het gras dat dat doorverteld aan de bloemen, die jij plukt, maar niet voordat ze ‘au’ hebben gezegd. Wazig? Lezen dat stuk!

Ondersteunen bij besluitvorming
Kunstmatige intelligentie kan mensen ondersteunen in de besluitvorming. Je ziet dit heel vaak in de medische zorg. Kunstmatige intelligentie is veel beter en sneller in staat om röntgenfoto’s te bekijken, om databases met symptomen en behandelingen door te ploegen, om verbanden te leggen. Er zijn bijvoorbeeld veelbelovende doorbraken op het gebied van borstkanker waarbij kunstmatige intelligentie andere patronen ziet en zo de dokter kan helpen. De computer van IBM, genaamd Watson, wordt daar nu veelvuldig voor ingezet. Nu is het natuurlijk al zo dat een simpele Google Search (die onder de motorkap verre van simpel is) je kan helpen om tot een beter besluit te komen, mits je weet wat je doet. Dat zullen we bij steeds meer processen zien en op een steeds geavanceerde manier. Een semi-zelfrijdende auto combineert dingen die denken en tot leven komen met besluitvorming. Uiteraard draagt ondersteunen bij besluitvorming ook heel erg bij aan meer efficiency.

Efficiency
Als we het dan toch over efficiency hebben, dan kunnen we ook wat verder kijken dan alleen de toepassing in het bedrijfsleven. Denk ook eens aan een AI die jou leert kennen, die je patronen weet, die jou begrijpt en met die kennis doet de AI de boodschappen. De AI winkelt, zodat jij alle tijd hebt om je te storten op slow cooking. En zo zijn er veel voordelen te bedenken.

Je Persoonlijke Coach
Er komt steeds meer informatie, dus zijn er overal algoritmes die voor jou een voorselectie maken, zodat je niet door alle informatie heen moet. Daar is veel over te zeggen (zie verderop), maar in essentie is het handig. Een systeem dat alvast voorsorteert kan je tijd besparen en zorgen dat de tijd die je over hebt nuttig besteed wordt. Hetzelfde zien we op andere vlakken. Bijvoorbeeld kunstmatige intelligentie die bij houdt hoe je beweegt, slaapt, adem haalt, je hart slaat, etc… en met die informatie goedbedoelde adviezen geeft. Of kunstmatige intelligentie die met sensoriek je ochtend-ontlasting checkt en op basis daarvan adviezen geeft van ga naar de dokter tot iets meer drinken.

En zo zijn er nog véél en véél meer toepassingen te bedenken van kunstmatige intelligentie die helemaal niet zo vergezocht zijn. Het hoeft niet meteen te gaan over killerbots of AI die slimmer is dan mensen.

En dan zijn er ook nog leuke dingen, zoals de opstart No More Woof (link naar site) die beweerde 14 emoties in je hond te kunnen herkennen door met AI hersengolven te analyseren. Je hoeft dan niet meer te denken: wat ziet mijn tackle er treurig uit. Nee, je weet het zeker. De opstart kreeg ontzettend veel aandacht, haalde heel veel geld op middels crowdfunding. En daarna werd het stil. Een mooi voorbeeld van het geloof in AI, en het gegeven dat intelligentie weliswaar steeds vaker kunstmatig is, maar niet alom aanwezig!

Wat zijn problemen met / nadelen van kunstmatige intelligentie?
Allerlei discussies over nadelen van kunstmatige intelligentie worden vaak gekaapt door dystopische toekomstbeelden, vaak geïnspireerd door Hollywood. Bijvoorbeeld kwaardaardige kunstmatige intelligentie die de mens zal uitroeien. Denk Terminator of The Matrix. Echter, vrijwel alle specialisten stellen dat dat wel los zal lopen en ze verwachten niet dat machines kwaadaardig zullen worden.

Wel waarschuwen ze voor iets ergers, namelijk doelgerichte kunstmatige intelligentie. Een AI die niet van je houdt, die je ook niet haat, maar die weet dat je gemaakt bent van atomen die je kunt gebruiken voor iets anders. Bijvoorbeeld paperclips. De filosoof Nick Bostrom deed een gedachtenexperiment (link naar paper) waarbij een AI de opdracht krijgt om paperclips te maken, maar daar zo fanatiek in is (of verkeerd geïnstrueerd) dat hij de hele wereld omzet in paperclips en vervolgens begint met de verpaperclipisering (is dat een woord?) van het heelal. De parabel van Bostrom is zo populair dat er een game van is gemaakt (link naar artikel over game en game).

Maar voordat we allemaal paperclips zijn, hebben we al te maken met negatieve gevolgen van kunstmatige intelligentie die veel dichterbij staan. Enkele willekeurige voorbeelden:

Dingen die zich overal mee bemoeien
Je hebt ook natuurlijk dingen die denken, en zich vervolgens overal mee bemoeien. Mijn favoriete voorbeeld is de HapiFork (artikel op Bright). Dat is een vork die bijhoudt hoe snel je eet (want snel eten is slecht voor je!) en vervolgens gaat die vork trillen als je te snel eet, zodat het moeilijk wordt om je vlees aan te prikken. Zo krijg je wellicht ook stoelen die bijhouden of je rechtop zit, auto’s die in de gaten houden of je wel goed rijdt, boeken die weten of je snel genoeg en genoeg leest, koffie-automaten die je caffeïne inname controleren en ga zo maar door. Voor mensen die al een hekel hebben aan het pingende lichtje in de auto, breken slechte tijden aan.

Processen die worden geoptimaliseerd
Je hebt steeds meer bedrijven die werken onder de eufemistische naam People Analytics of Workforce Analytics. Het idee is dat er data verzameld wordt over hoe mensen werken. Dat kan zijn hoe mensen typen of hoe mensen werken in een magazijn (bijvoorbeeld door ze armbanden te laten dragen) en die data vervolgens te analyseren met AI. Daarna kun je die data weer gebruiken om processen te optimaliseren. Er is best iets voor te zeggen als je baas bijvoorbeeld kijkt naar de geanonimiseerde of metadata van alle mailverkeer en daar een analyse van maakt. Het wordt een stuk enger wanneer je baas kijkt naar jouw mailgedrag. Of kijkt of jij wel fanatiek genoeg typt. Of genoeg stappen zet in het magazijn. In dat laatste geval hoef je niet bang zijn dat je vervangen wordt door een robot, maar wel dat je behandeld wordt als een robot. Het verschil met vroeger is dat de techniek er rijp voor is, en dat betekent dat de discussie over wat je ermee doet nu echt belangrijk wordt.

En dit doembeeld kan nog veel verder gaan. Wat dacht je namelijk van zogenaamde algoritmes van vlees (meat algorithms). Lees er hier meer over.

Duisternis / ondoorzichtigheid
Een stukje eerder in deze long read hebben we gesproken over de schaakcomputer AlphaZero van Google/Alphabet. Deze computer heeft een broertje genaamd AlphaGo. In 2015 versloeg AlphaGo één van de beste GO – spelers in de wereld. Dat was knap want Go is een spel dat vele malen complexer is dan schaak en vooral gespeeld wordt met creativiteit en intuïtie (op gevoel). En toch won AlphaGo. Opvallend was dat in één wedstrijd AlphaGo een zet deed die nog nooit vertoond was. Een zet die geen mens zou maken. Iedereen vond het prachtig. Creatief. Intuïtief. Maar het was ook vreemd. Want waarom deed AlphaGo die ze? De uitleg van de engineer was beperkt. Snappen wij waarom neurologisch geprogrammeerde systemen tot bepaalde conclusies komen? En als we dat niet snappen, hoe zit het dan als ze geen spelletjes spelen maar besluiten over onze banen, leningen, behandelingen of straf? Isaac Asimov beschreef de drie wetten van robotica. De vraag is of daar geen vierde aan toegevoegd moet worden: Leg uit!. Een robot moet uit kunnen leggen waarom hij tot een bepaalde conclusie komt.

Gezichts,- en emotieherkenning

Een ander voorbeeld waar mensen zich op dit moment serieus zorgen om maken is gezichts,- en emotieherkenning. De apparatuur om gezichten te herkennen, met behulp van AI, wordt steeds beter en daarmee wordt het ook steeds beter mogelijk om emoties te herkennen. Zo kun je zien of je wel oplet in de klas. Of, op een callcenter, zien de callcenter-medewerkers op een scherm de emoties van de beller. Er worden zelfs weer eigenschappen gekoppeld aan gezichtsuitdrukkingen en aan emoties. Lees ook dit artikel op Intercept dat verwijst naar de lessen uit het verleden én pleit voor regels.

En zo zijn er heel veel andere voorbeelden. Telkens doemt dezelfde discussie op. Dankzij AI is er steeds meer mogelijk, maar omdat er steeds meer mogelijk is, is er ook steeds meer behoefte aan een goede discussie. Aan wetgeving. Aan regelgeving. Aan nieuwe normen en waarden. En dat blijft achter.

Moeten we ons zorgen maken om onze banen?
Een discussie die vaak gevoerd wordt, is of we onze zorgen moeten maken om onze banen als gevolg van AI. We hebben daar een aparte pagina aan gewijd waarin we deze discussie bijhouden. Die vind je hier

Waarom is Ethiek zo belangrijk in een wereld vol AI?

Allereerst is het van belang om te weten wat ethiek nu eigenlijk is. Een goede manier is om gebruik te maken van deze website (link naar website) van het Markulla Center waarin heel veel wordt uitgelegd rond ethiek. Of lees de samenvatting op deze PDF. In het AI NOW Report van 2018 (link naar PDF) wordt ingegaan op de ethische aspecten van AI en worden allerlei aanbevelingen gedaan. Samengevat zijn de volgende zaken van belang:

Ten eerste is het van belang om te weten, zoals hierboven al een paar keer aangestipt, dat kunstmatige intelligentie allerlei aspecten van ons leven gaat veranderen. Je kunt je misschien prima voorstellen (of misschien hoop je er zelfs op) dat straks een ‘bot’ de vergadering gaat leiden. Kun je je ook voorstellen dat een bot straks het gesprek gaat leiden aan de eettafel? Of dat de ‘bot’ het gesprek met je kinderen zelfs overneemt? Nog wat losse opmerkingen die het belang van ethiek onderstrepen:

  • AI kan fantastisch zijn om je te helpen, bijvoorbeeld met je gezondheid of de juiste keuze voor wat je wil zien op je streaming kanaal. Maar als je beter geholpen wilt worden, moet je meer van je zelf blootgeven en daar liggen privacy – issues op de loer;
  • Kunstmatige intelligentie maakt bullshitjobs – (zie bij banen) misschien overbodig;
  • Kunstmatige intelligentie wordt voornamelijk gebouwd door de grote technologiebedrijven. Zij beschikken over de kennis, de trainingsdata, de infrastructuur en het geld. Leidt AI dan ook tot een verdere concentratie van macht?
  • 2018 was een dramatisch jaar voor de ethiek van kunstmatige intelligentie. Denk aan de schandalen rondom Facebook. Denk aan het defensie – drone project van Google in het project Maven. Denk aan de keren dat Watson, de kunstmatige intelligentie dokter van IBM het mis had. Denk aan al die lokale overheden zoals de NYPD die projecten starten met gezichtsherkenning en discriminatie. Denk aan China met zijn Sociale Creditscore. En nog veel meer.

Belangrijk aandachtspunt 1. Gezichts,- en emotieherkenning
Kunstmatige intelligentie zorgt ervoor dat er veel meer mogelijkheden zijn in surveillance. Kunstmatige intelligentie kan ‘kijken’ naar audio, video, social media en kan steeds beter gezichten herkennen. Kunstmatige intelligentie kan dat automatisch, op enorme schaal en er kunnen voorspellingen aan gekoppeld worden. En het kan verder gaan. Er wordt zelfs steeds vaker gebruik gemaakt van physiognomie (link naar de Wiki). Physiognomy is de pseudo – wetenschap die stelt dat karaktereigenschappen kunnen worden gekoppeld aan uiterlijke kenmerken. Ondanks dat hier geen bewijs voor is. Ook wordt steeds vaker gesproken of gebruik gemaakt van emotieherkenning, ondanks dat dit geen betrouwbare technologie is. Ook gezichtsherkenning is niet betrouwbaar. Zwarte mensen zijn moeilijker te lezen dan witte mensen, bijvoorbeeld. Daarnaast zijn voice-assistenten als Siri en Alexa druk bezig met emotieherkenning, net als sommige callcenters. Ook experimenteerde Stanford met de Gaydar (link naar kritisch artikel) om met AI te bepalen of iemand homo,- of heteroseksueel was. Bijkomend probleem is dat deze technologie vaak niet goed werkt, dat de technologie wordt aangeboden door commerciële partijen, die weigeren om de code transparant te maken (want bedrijfsgeheim) en dat ze gebruikt worden door (lokale) overheden.

AI Now stelt dat overheden gezichts,- en emotieherkenning ver van zich moeten werpen én dat er strenge regelgeving moet komen. Een bijkomend idee is dat een overheid van nature vaak stelt dat mensen niet te vertrouwen zijn. Immers, onbetrouwbare medemensen vragen om een sterke overheid. Met gezichtsherkenning, die goed werkt, is de kans groot dat de balans tussen overheid en burgers doorslaat in het voordeel van de overheid.

Belangrijk aandachtspunt 2. Automatic Decision Systems (ADS)
(Lokale) overheden maken steeds vaker gebruik van een ADS. Dit is een systeem, met kunstmatige intelligentie, dat automatisch een besluit kan nemen. Bijvoorbeeld of je wel of geen uitkering krijgt, of een gevangenisstraf of een huurwoning. Er zijn een aantal problemen met dit soort systemen. Ten eerste is de kans groot dat er vooroordelen in het ADS zitten. Immers, de trainingsdata zit ook vol met vooroordelen. Een manier die je vaak hoort is om dit voorkomen met AI-principes (deze hebben verschillende namen zoals Fairness of Fate). Sommige bedrijven, zoals IBM, hebben dat zelfs geautomatiseerd (link naar site). Het idee is dat je AI bouwt die ongewenste vooroordelen uit de beslissing haalt, die transparant is en verantwoordelijkheid neemt.

Hier een PDF over issues met ADS en mogelijke oplossingen.

Makkelijk is dat niet want:

  • Hoe train je een AI met data als data bevooroordeeld is?
  • Welke vooroordelen zijn gewenst en welke niet? Bijvoorbeeld vrouwen zijn veel minder vaak recidivist, moet je die er dan uithalen of juist niet?

En zelfs als je het ADS eerlijk hebt gemaakt (als dat al kan), dan betekent nog niet dat de sociale impact gewenst is. Stel bijvoorbeeld dat de ADS onderdeel is van een systeem dat niet of niet eerlijk functioneert, houdt de efficiency van de ADS dan niet juist het systeem in leven? Daarnaast kijken de AI – principes vaak naar de ADS, maar ze zouden moeten kijken naar een bredere impact. Bijvoorbeeld in Boston werden allerlei van vooroordelen ontdane data ingevoerd in een ADS. Dat ADS probeerde op basis van leeftijd, daglicht, bustijden en schoolspreiding een ideaal schema te maken met flexibele starttijden voor schoolkinderen. Dit lukte nog ook. Het schema zorgde dat het minder druk was in de bussen en dat schooltijden meer aangepast waren op het ritme van de kinderen. Het ADS vergat echter dat ouders met minder inkomen vaak veel minder flexibele roosters hebben en minder geld voor kinderopvang. Daarmee was het ADS, hoe eerlijk ook, erg oneerlijk in zijn impact.

Een manier om naar de hele impact te kijken en de juiste stakeholders te betrekken is om gebruik te maken van het AIA – FrameWork van AI NOW. (link naar PDF).

Aandachtspunt 3. Ethische codes van de technologiebedrijven zelf
Steeds meer grote technologiebedrijven (Google, Facebook, IBM, Microsoft, etc…) hebben zelf ethische codes. Ze lijken daarmee te zeggen, vertrouw ons, we zijn goed bezig. Het is de vraag of dat voldoende is. Zoals de Hofman Groep zegt, vertrouwen is goed, controle is beter. Immers:

  • Technologische bedrijven zien technologische vooruitgang als onvermijdelijk. Ze zullen dus niet gauw tot de conclusie komen dat het beter is om geen AI in te zetten;
  • Ethische principes conflicteren vaak met andere principes die gelden voor beursgenoteerde bedrijven (zoals winstmaximalisatie);
  • Technologische bedrijven zijn technisch, en hebben dus vaak een beperkte blik. Problemen definieer je zo, dat je ze kunt oplossen met techniek;
  • En we hebben al gezien dat ondanks ethische uitgangspunten er toch anders gehandeld wordt. Google houdt zich bijvoorbeeld aan de rechten van de mensen en werkte (of werkt… dat is onduidelijk) aan een gecensureerde zoekmachine voor de Chinese markt (Dragonfly).

En hoe moeten we verder ? Wat is wijsheid ? Scenario – denken!

In zijn boek Life 3.0 schetst Max Tegmark verschillende toekomstscenario’s die hij met zijn groep van kunstmatige intelligentie specialisten heeft geschetst. We gaan even kort door deze scenario’s heen, en dan kijken we naar de stappen die we nu kunnen zetten. In de afbeelding hieronder, zie je de mogelijke scenario’s. We beginnen met het meest waarschijnlijke scenario (volgens de KI – onderzoekers, maar misschien doen die ook aan wensdenken). Vergeet niet, ze voorzien dit soort scenario’s vanaf 2047. Het klinkt soms allemaal een beetje vergezocht, maar dat is voor de KI-onderzoekers (en mensen als Stephen Hawking) zeker niet het geval.

Het Egalitaire Utopia. Dit is een toekomst waarin superintelligentie, mensen, uploads en cyborgs vreedzaam samenleven in een systeem met een basisinkomen.

Het Libertijnse Utopia. In dit systeem wonen superintelligentie, upload, mens en cyborg vreedzaam samen in een systeem gebaseerd op eigendomsrechten.

En als u nu denkt, klinkt goed, vergeet dan niet dat Utopie een filosofische term is die men kan omschrijven als onmogelijke werkelijkheid. Dat valt dan weer tegen.

De Beschermende God
Een kunstmatige intelligentie die menselijk geluk najaagt, zonder op de voorgrond te te treden. Er zijn zelfs mensen die twijfelen aan het bestaan van de KI.

Sterker  nog, bij Fontys hielden we onlangs een workshop met de vraag of deze KI er wellicht al is, en zo ja, kunnen we dat bewijzen?

De Slaafgemaakte God
In dit scenario controleren wij de KI en wij zorgen ervoor dat er welvaart en nieuwe technologiën worden geschapen. Die gebruiken we dan goed of slecht.

De Afstammelingen
Wij zijn de ouders. Wij hebben de KI geschapen, dus wij kunnen een trotse aftocht organiseren van het wereldtoneel.

De Vriendelijke Dictator
De KI is de baas, maar voor de meeste mensen is dat een goede zaak.

De Poortwachter
We hebben één poortwachter KI die ervoor zorgt dat andere KI’s geen ruimte krijgen.

Zelfvernietiging
Helaas, helaas, er zal nooit een KI komen. Nog voor we technologisch toe zijn aan een KI, hebben we de aarde al vernietigd middels een kernoorlog, klimaatrampen, een eng virus of een andere creatieve manier.

De Totale Vernietiging door de KI
Heb je wel eens geprobeerd om het concept van Agile Projectontwikkeling uit te leggen aan uw hond? Valt niet mee, toch? De hond is niet zo goed in abstracte concepten. Op die manier kun je je ook voorstellen dat een superintelligentie op manieren kan denken, die wij op geen enkele manier kunnen bevatten én ons dus kan vernietigen op manieren die wij ook niet kunnen bevatten.

Regressie
Ken je de Handmaids Tale? Goede serie, gebaseerd op een boek van Margaret Atwood, waarin we terug gaan naar een tijd met minder technologie. Denk een beetje aan het voorbeeld van de Amish. In dit scenario zijn we klaar met technologie en kiezen we voor een eenvoudiger leven!

1984
In dit scenario, genoemd naar het boek van Orwell, hebben we een controlestaat en in die controlestaat is het gebruik van KI verboden. Dit scenario is licht ironisch aangezien we nu juist KI gebruiken om mensen te controleren.

De Menselijke Dierentuin
In dit laatste scenario is er een KI die mensen tentoonstelt voor entertainment – doelstellingen. Een beetje zoals wij nu omgaan met onze exotische dieren.

En dan zijn er nog mensen die geen idee hebben welk scenario er gaat komen én er zijn mensen die alle scenario’s niet verwelkomen. En natuurlijk zijn er ook onderzoekers die helemaal niet geloven in een universele kunstmatige intelligentie, dus voor wie deze scenario’s complete luchtfietserij zijn. Je zorgen maken over een universele kunstmatige intelligentie staat gelijk aan je zorgen maken over overbevolking op Mars, stellen zij.

Hoe dan ook, de zorgen over KI zijn er wel degelijk en steeds meer mensen pleiten voor een ethische gedragscode. Daarbij laten ze zich inspireren door voorbeelden uit de nucleaire geschiedenis (nucleaire kennis is goed afgeschermd) of gifgas – afspraken (gifgas is makkelijk te maken, maar wordt door de internationale gemeenschap streng verworpen). Zij hebben op de Asilomar – conferentie 23 principes geformuleerd (link naar principes). De kern van de principes is, zoals altijd, dat de mens, en onze menselijke waarden, centraal staan in het denken.

Lijkt mij een goed idee.

Laatste update: 06-02-2018

Deze teksten zijn gemaakt onder Creative Commons de links en afbeeldingen zijn dat niet altijd.

Wil je wat toevoegen, veranderen of anderszins opmerkingen plaatsen. Gebruik dan de reactiemogelijkheid hieronder.