Hoe zetten we AI optimaal in om mens en machine samen te laten werken in het belang van de mens, dat is de centrale vraag aan de vooravond van de vierde Industriële Revolutie.
Artificiële intelligentie (AI) is vandaag aanwezig in elk aspect van ons leven, zonder dat we ons daar per se van bewust zijn: van de app die ons de snelste route aangeeft, tot wat we te zien krijgen op sociale media, Netflix en het internet, over toepassingen in de gezondheidszorg, hoe we ons bewegen in de stad, onze geldzaken, … noem het op. AI is overal.
AI is een uiterst krachtige technologie die tot doel heeft om machines problemen te laten oplossen die intelligentie vereisen, die deze machines 'slimmer' maken, ze tot cognitieve prestaties in staat stelt die de mogelijkheden van de mens op vele terreinen ver overstijgen. Er bestaan twee soorten kunstmatige intelligentie: de ene is gebaseerd op kennis en is deductief, maakt gebruik van logische en mathematische modellen; de andere is gebaseerd op data, is inductief, en maakt gebruik van neutrale netwerken die leiden tot machine learning, automatisch lerende machines. Vooral de datagebaseerde benadering neemt vandaag een hoge vlucht, vooral omdat steeds meer data vergaard worden en beschikbaar gemaakt.
Samen met robots, big data, het Internet of Things en aanverwante technologieën, biedt AI ons ongekende mogelijkheden en kansen, maar brengt ook grote uitdagingen met zich mee. Hiermee omgaan is van essentieel belang om het beste uit AI te halen, om ons als mens en ons leven, onze samenleving te verbeteren. Hoe we daarmee omgaan vergt een grondig en sereen debat. Echter, het debat omtrent AI vervalt vandaag nog al te zeer in ofwel hoeraberichten als in doemdenken. Aan de ene kant horen we dat AI alle onzekerheden gaat oplossen, ons leven veiliger, simpeler, voorspelbaar zal maken. Zo zullen zelfrijdende wagens doden in het verkeer vermijden en kan AI helpen om risicogroepen te detecteren in het geval van een pandemie of medische hulp efficiënt en snel te brengen naar patiënten die deze het hardste nodig hebben. Tegelijk bestaat de vrees dat de machine het zal overnemen van de mens, dat robots zelfs in staat zullen zijn de mensheid te elimineren.
DE CORONATRACINGAPP
De (politieke) discussies die de voorbije maanden werden gehouden over de invoering van een 'coronatracingapp' hebben pijnlijk aangetoond dat het dringend tijd wordt dat we dit debat ten gronde en zo breed mogelijk voeren. We hebben in ons land vooralsnog geen dergelijke coronatracingapp, ook al was er lang sprake van de ontwikkeling van – beeld je in – niet één, maar drie apps, één voor elk deel van ons land. Een dergelijke app zou het overbodig maken om zoals we vandaag doen, bij restaurant- en cafébezoek naam en telefoon op een papiertje achter te laten, maar zou toelaten om hypersnel en accuraat te kunnen nagaan met welke mensen precies een besmet iemand wanneer en waar in contact kwam.
Die app hebben we vooralsnog niet. Omdat er veel verzet tegen is. Omdat die botst tegen onze privacywetgeving. Het verzet ertegen is begrijpelijk en gegrond. Als een dergelijke app al effectief zou werken (wat pas het geval zou zijn als minstens 70% hem installeren, een percentage dat lang niet gehaald wordt in de landen waar een tracingapp gebruikt wordt), dan dient het gebruik van de gegevens die de app zou mogen verzamelen, absoluut onderworpen worden aan strikte voorwaarden die een sine qua non vormen. Een dergelijke app kan enkel worden ingezet in het kader van de volksgezondheid en onder strikte condities: tijdelijkheid van bewaren van de gegevens, niet doorverkopen ervan, transparantie, garantie van privacy en ook stilstaan bij mogelijke problemen als bv. de betrouwbaarheid van de gebruikte leeralgoritmen.
Die restricties zijn nodig. We hebben de voorbije maanden in volle COVID-19-crisis immers gezien dat verschillende Europese lidstaten de privacyregels aan de kant hebben geschoven. Dat kan alleen in heel uitzonderlijke omstandigheden. Daarom is het nodig dat Europa het gebruik van AI bij een medische noodtoestand strikt reglementeert. Vandaag kan elke lidstaat in het wilde weg en vaak zonder parlementaire controle aan de slag gaan met privégegevens van burgers. Europa moet lessen trekken uit het massale gebruik van privédata en een strikt kader opleggen waarbinnen, in uitzonderlijke omstandigheden én louter om de volksgezondheid te beschermen, onze data kunnen worden gebruikt. Dergelijke maatregelen moeten ook strikt beperkt worden in de tijd en voorafgegaan worden door risico-analyses. Het bezweren van een crisis als degene die we doormaken, mag immers niet automatisch de deur openen naar een surveillance samenleving zoals die in China bestaat.
CORONAPANDEMIE IS GEMISTE KANS
Wat er vandaag in de verschillende europese landen gebeurt is in feite een grootschalig AI-experiment dat helaas in het wilde weg wordt gevoerd. En dat is een gemiste kans, voor Europa en ook voor ons land. Meer au fond hebben we immers (nog) geen coronatracingapp omdat we het debat over AI en onze privacy tot op heden niet zijn aangegaan, laat staan omgezet in wetgeving. En dat is zeer te betreuren. Want, in deze coronatijd blijkt dat AI alsnog het virus niet heeft verslagen, maar zeker en vast belangrijke potentieel bezit voor screening, tracing en voorspellen van COVID. Maar dan hebben we een degelijk kader nodig om deze technologie hiervoor efficiënt in te zetten vanuit een waardengedreven ethische reflectie. Dat kader hebben we vooralsnog niet.
Deze pandemie had het moment kunnen zijn om voorsprong te nemen in de ontwikkeling van beleid rond AI. Die voorsprong hebben we niet genomen, maar het is niet te laat om dit momentum te grijpen om écht debat te starten en beleid te ontwikkelen rond wat AI voor ons als mens, als samenleving kan en mag betekenen. Tot op heden beweegt er beleidsmatig en politiek zeer weinig rond AI. In de Senaat maakten we in 2019 een – volgens mij – degelijk informatierapport, helaas blijft het bij de verschillende regeringen van de verschillende deelstaten in de schuif liggen. België heeft haar AI4Belgium-strategie en Vlaanderen heeft een AI-actieplan, maar uitvoering stokt en de plannen missen ambitie en scope. En vooral, voor de basis en de essentie van deze plannen, namelijk het ontwikkelen van een ethisch kader, wordt nauwelijks geld uitgetrokken, op de oprichting van het Kenniscentrum Data en Samenleving in Vlaanderen na. We moeten dringend structurele langetermijnfinanciering voorzien voor fundamenteel onderzoek naar AI, waaronder het ethische kader.
ETHISCH KADER ONTWIKKELEN
Dat ethische kader hebben we nodig als basis om de systemen te bouwen. Dat kader moet de leidraad zijn voor en tijdens het ontwerp. Een ethisch kader is veel te belangrijk om er eens naar te kijken achteraf, wanneer dat de systemen al gebouwd zijn. Immers, wanneer expliciet aandacht besteed wordt aan de ethische dimensies bij het ontwerp van AI systemen en tools, worden mogelijke blinde vlekken die ontstaan wanneer ontwerpers onbewust hun eigen geslacht, overtuigingen, leefwereld, … laten meespelen bij het maken van hun keuzes tijdens het ontwerpen, zoveel mogelijk vermeden en aldus ook mogelijke discriminatie en andere onbedoelde effecten uit de weg gegaan. Maar ook om te vermijden dat we onrealistische verwachtingen koesteren en dat gebruik van AI zou leiden tot menselijk lijden. Dat kader ontwerpen, vergt een zeer grondig maatschappelijk debat. Niet alleen gevoerd door diverse panels van experten uit verschillende disciplines, maar door zo ruim mogelijke groepen in de samenleving. Dat kader moet maatschappelijk gedragen zijn.
Dit debat moeten we met open vizier voeren, wars van moral panics. Die zijn van alle tijden en ten overstaan van AI is dit niet anders. Tegelijk mogen we de uitdagingen niet minimaliseren. De opkomst van AI wordt gezien als vierde industriële revolutie. Die betekent een nieuwe transitie voor onze samenleving. Waakzaamheid is dus nodig, reflectie essentieel, zelfs over de allerkleinste aspecten. We mogen niets aan het detail overlaten. We moeten over alle aspecten, groot en klein, alle mogelijkheden, valkuilen en gevaren grondig en breed nadenken. Ten gronde vergt AI dat we ons vragen stellen en ze beantwoorden over hoe we ons als mens willen verhouden tot de machine.
Hoe zetten we AI optimaal in om mens en machine samen te laten werken in het belang van de mens, is de centrale vraag. AI verbetert potentieel ons menszijn, kan ons handelen en beslissen ondersteunen, meer zelfs, onze eigen leemten en blinde vlekken aanvullen, zelfs verbeteren. Op welke terreinen we willen dat AI ons ondersteunt, dan wel het overneemt van ons, is aan ons mensen om te beslissen. In een steeds complexer wordende wereld, lijkt het alsof we als mens de controle verliezen over de complexiteit die we zelf hebben gecreëerd.
Dat verlies aan controle hoeft echter geen fataliteit te zijn. AI is niet iets dat ons overkomt. Wij zijn de architecten van AI. Wij maken de keuzes van wat AI voor ons kan en mag betekenen. Wij nemen de beslissingen en dragen de eindverantwoordelijkheid van wat wij willen dat de machine (dat wil zeggen de software die op een algoritme gebaseerd is) al dan niet voor ons doet. Naarmate AI een integraal deel van onze samenleving en ons individuele leven is geworden, is het vitaal dat we de ethische principes en sociale waarden die ons eigen zijn en die onze samenleving kenmerken, steeds voorop blijven stellen. Hoe we AI bouwen moet het resultaat zijn van een grondige en brede reflectie waarbij de universele waarden van gelijkheid, menselijke waardigheid, solidariteit en vrijheid centraal staan.
Net zoals we dit ontwikkelden voor bio-ethiek, hebben we een kader nodig voor AI-ethiek. Een belangrijke aanzet vormt de 'Barcelona Declaration for the proper use and development of AI in Europe' die werd gelanceerd tijdens het B-Debate van het International Centre for Scientific Debate Barcelona in 2017. Deze verklaring heeft tot doel het debat op te starten onder beleidsmakers, bedrijfsleiders, academia en ontwerpers van toepassingen van AI.
Centraal moet in dit kader de mens staan. Dat betekent dat bij de ontwikkeling van robuuste AI-systemen moet vertrokken worden vanuit de volgende leidende principes, zoals ook bepaald in het unaniem aangenomen informatierapport van de Senaat: menselijkheid, menselijke integriteit, transparantie, eerlijkheid, betrouwbaarheid, zekerheid, veiligheid voorzichtigheid, waakzaamheid, verantwoordelijkheid, verklaarbaarheid, controle, begrensde autonomie en afweging tussen het individuele en het collectieve belang. 'De grondrechten, inzonderheid de menselijke waardigheid, vrijheid, en de persoonlijke levenssfeer moeten aan de basis liggen en het uitgangpunt zijn van alle acties en wetgeving met betrekking tot artificiële intelligentie'.
Een ethisch kader en richtsnoeren voor een ethisch gebruik van AI zijn niet alleen voor ons land trouwens zeer urgent. Deze uitdagingen staan wereldwijd hoog op de agenda. De AI-World Index van Stanford University toont dat het debat over AI wereldwijd vooral gaat over een ethisch kader, over data privacy, het gebruik van gezichtsherkenning, bias van de algoritmes en de rol van de big tech. Inzake een ethisch kader worden vandaag vooral eerlijkheid, interpreteerbaarheid en uitlegbaarheid wereldwijd als meest vernoemde ethische uitdagingen gezien.
HOE VERTALEN IN REGELS EN WETGEVING?
Op welke manier en hoe precies deze leidende principes concreet vertaald moeten worden in regels en wetgeving, moet eveneens voorwerp van debat vormen. Opdat het debat en de resultaten gedragen worden binnen onze samenleving, is het essentieel dat het zo breed en grondig mogelijk gevoerd wordt. Dat betekent dat overleg en debat vertrekt vanuit een 'multistakeholders' benadering en structureel wordt georganiseerd, opdat diversiteit en pluriformiteit van de deelnemers gegarandeerd wordt. Zoals ook het Europees parlement aanbeveelt, is burgerparticipatie hierin belangrijk, omdat zelfbeschikking en empowerment centraal dienen te staan en een maatschappelijk draagvlak essentieel zijn.
Daartoe lijkt de oprichting – zoals ook aanbevolen in het informatieverslag van de Senaat – van een 'Interfederale Raad inzake artificiële intelligentie' die de impact en de mogelijkheden van AI voor samenleving en economie analyseert en stimuleert een goede piste. Hierin zouden de federale overheid, de deelstaten, het bedrijfsleven, sociale partners, de ontwikkelaars, de academische wereld én wat mij betreft, ook burgers, via loting aangewezen, vertegenwoordigd zijn. Deze Raad zou nauw aansluiten bij de strategie van de bestaande AI4Belgium-coalitie, maar zou een permanent orgaan vormen.
De oprichting binnen deze Raad van een Ethisch Comité, eveneens pluriform en divers samengesteld, is daarbij vitaal. Niet alleen zou een dergelijk ethisch comité de industrie, de overheden en de maatschappij adviseren en begeleiden in ethische en regelgevende kwesties, maar ook de ethische richtlijnen inzake AI uitwerken - ethische richtlijnen die maximaal op Europees niveau moeten worden vastgesteld.
ONDERWIJSSYSTEEM AANPASSEN
Behalve de ontwikkeling van een robuust ethisch kader, vertaald in regels en wetgeving, moeten we vandaag zo snel mogelijk ons onderwijssysteem aanpassen en onze arbeidsmarkt voorbereiden op de disruptieve transitie die we doormaken. Er zullen een pak jobs en beroepen verdwijnen de komende decennia, maar er zullen er nieuwe bijkomen. Het nettoresultaat zal positief zijn. Wetende dat er voor de jobs van morgen vandaag nog geen opleidingen bestaan, moeten we die transitie vandaag stevig voorbereiden. Dat betekent dat we niet alleen nog meer nood hebben aan meer STEAM (STEM + the arts) in ons onderwijs, dat we allicht zullen moeten afstappen van diploma's die studenten toegang geven tot een beroep dat misschien binnen 30 jaar niet meer bestaat, maar eerder gaan naar competentiegericht onderwijs én dat we zeker en vast veel meer inzetten op levenslang leren, wat al decennialang een hot topic is, maar in de praktijk in ons land een holle slogan blijft. Bovendien moeten we dit alles ook monitoren, meten, zoals o.a. de OESO vraagt, om vooruitgang te kunnen vaststellen én bijstellen indien nodig.
(GROND)RECHTEN UITBREIDEN
Maar met deze maatregelen op korte en middellange termijn zullen we er niet komen. We moeten nog een stap verder durven zetten in ons nadenken over hoe we ons als mens tot AI verhouden op lange termijn. En daar moeten we vandaag mee beginnen. Zo geloof ik sterk dat we nadenken over onze bestaande (grond-)rechten. Misschien gaan we die moeten uitbreiden met nieuwe rechten, eventueel zelfs van grondrechten om ons als mens te beschermen. Ik denk daarbij aan het invoeren van collectieve rechten op gegevens, het recht om niet te worden geëvalueerd en misschien zelfs het recht op 'significant menselijk contact' in een context waarbij gezondheid, welzijn, zorg en ja, zelfs seksualiteit steeds meer gebeurt via gebruik van AI. We gaan niet alleen moeten nadenken over onze (grond-)rechten als mens, maar ons ook moeten beraden over de rechten en plichten van de machines die ons bijstaan. Bijvoorbeeld over de draagwijdte van het handelen van autonome robots: heeft de robot de mogelijkheid om een opdracht niet uit te voeren, indien de robot oordeelt dat die opdracht een gevaar vormt voor de gebruiker, is maar één vraag die rijst en die al aan de orde is in het debat over de zelfrijdende auto.
DE PROBLEMATIEK VAN DE AANDACHTSECONOMIE
Als uitsmijter wil ik de problematiek van de aandachtseconomie, veroorzaakt door artificiële intelligentie, onder de aandacht brengen. Er gaat al te weinig aandacht uit naar het overtuigingspotentieel van slimme toestellen die alsmaar 'menselijker' lijken en de basis vormen van een economie gebaseerd op het trekken van onze aandacht. Onze slimme apparaten, gaande van onze fitbit, smartphone tot onze slimme huistoestellen, ons slim huis en onze slimme stad worden steeds meer gepersonaliseerd. Ze brengen ons niet alleen bepaalde vaardigheden bij, maar geven ons tegelijk een waardensysteem mee om dingen te doen via nudging (de manier waarop ons gedrag licht wordt bijgestuurd, zonder dat we ons ervan bewust zijn) en brengen ons aldus naar bepaalde overtuigingen, handelen, ja zelfs plekken waar we niet per se wilden belanden. Daar moeten we ons niet alleen van bewust zijn, maar vooral het heft in de hand nemen. Het kan niet de bedoeling zijn om ons leven en onze verantwoordelijkheid op termijn af te wentelen op slimme toestellen en onze samenleving te laten wegglijden naar een staat waarin we niet langer baas zijn van onze gedachten, gevoelens, overtuigingen en handelingen.
Deze bijdrage verscheen in de Zomerreeks 2020: #BeterNaCorona van Samenleving & Politiek.
BIBLIOGRAFIE
- Gabriëls, K. (2019) Regels voor robots. Ethiek in tijden van AI. ASP/VUBPRESS.
- Grosz, B. (2016) Artificial Intelligence and Life in 2030. One Hundred Year Study on Artificial Intelligence. Report of the of the 2015 study panel. Stanford University. September 2016.
- OECD (2019) Artificial Intelligence in Society. OECD Publishing, Paris, https://www.oecd-ilibrary.org/sites/eedfee77-en/index.html?itemId=/content/publication/eedfee77-en
- Lacroix, C., Segers, K. et al (2019) Informatieverslag betreffende de noodzakelijke samenwerking tussen de Federale Staat en de deelstaten inzake de impact, de kansen en mogelijkheden en de risico's van de digitale 'slimme samenleving'. Belgische Senaat, https://www.senate.be/www/?MIval=/dossier&LEG=6&NR=413&LANG=nl
- Steels, L. et.al. (2017) Artificiële intelligentie. Naar een vierde industriële revolutie? Brussel, Koninklijke Vlaamse Academie van België voor Wetenschappen en Kunsten.
- Steels, L. en Lopez de Mantaras, L. (2018) The Barcelona declaration for the proper development and usage of artificial intelligence in Europe, AI Communications, IOS Press.
- HAI (2019) Artificial Intelligence Index. 2019 annual report https://hai.stanford.edu/sites/default/files/ai_index_2019_report.pdf
Abonneer je op Samenleving & Politiek
Het magazine verschijnt 10 keer per jaar; niet in juli en augustus.
Proefnummer? Factuur? Contacteer ons via
info@sampol.be
of op 09 267 35 31.
Het abonnementsgeld gaat jaarlijks automatisch van je rekening. Het abonnement kan je op elk moment opzeggen. Lees de
Algemene voorwaarden.
Je betaalt liever via overschrijving?
Abonneren kan ook uit het buitenland.
*Ontdek onze SamPol draagtas.