Blog: Vergissen moet wel menselijk blijven

woensdag 29 november 2017
timer 5 min
Technisch kan de zelfrijdende auto er al over enkele jaren zijn, schrijft Herbert Korbee. Dan breekt eindelijk het tijdperk aan dat de menselijke fout uit het wegverkeer verdwijnt. En omdat meer dan 90 procent van alle ongevallen door een menselijke fout wordt veroorzaakt, mag je verwachten dat de verkeersveiligheidscijfers steeds beter worden.

Verschillende overheden zijn al druk bezig de komst van de zelfrijdende auto te faciliteren via aangepaste regelgeving en het aanbieden van pilots en testruimten. Autofabrikanten maken daar graag gebruik van om te laten zien hoe ver ze al zijn. 

Nooit meer ongelukken

Er heerst dan ook een groot gevoel van urgentie. Elk ernstig ongeluk is een extra aansporing om de menselijke factor nog verder uit te sluiten. Immers: hoe autonomer de zelfrijdende auto is, hoe kleiner de kans dat menselijk gedrag ongelukken veroorzaakt. Dat is de kern van wat sommigen ‘vooruitgangsgeloof’ noemen: verkeersongevallen zijn in de nabije toekomst onacceptabel omdat die immers onnodig zijn. Toch moeten we realistisch zijn en er rekening mee houden dat ook automatische auto’s betrokken kunnen raken bij ongevallen.

 

Zoals ruimtevaartdeskundige Edward W. Murphy al opmerkte zal een fout die alleen in theorie mogelijk lijkt, uiteindelijk altijd een keer in de praktijk optreden: ‘anything that can go wrong, will go wrong’. Terugkijkend naar de afgelopen eeuw aan technische ontwikkelingen blijkt dat ook wel te kloppen en is het naïef om te denken dat de zelfrijdende auto onfeilbaar wordt. Er komt dus een moment dat verkeersongevallen niet meer alleen aan menselijk falen moeten worden toegeschreven maar ook aan de techniek.

Auto’s mogen geen fouten maken

Er zijn allerlei voorbeelden denkbaar van situaties waarin het haast onontkoombaar is dat zelfrijdende auto’s schade oplopen of juist veroorzaken in een poging schade aan zichzelf en zijn inzittenden te voorkomen. Denk maar aan overstekende kinderen en dieren, of vallende takken in een novemberstorm. Ook is denkbaar dat een zelfrijdende auto een snelle manoeuvre uitvoert om een ongeval te voorkomen of om zijn inzittenden een noodstop te besparen, maar dat zelfrijdende auto’s in de buurt door die manoeuvre verrast worden omdat zij nu eenmaal niet dezelfde triggers kregen. Dan kan een zelfrijdende auto nog onvoorspelbaarder zijn dan een menselijke bestuurder.

 

Maar vergissen is menselijk, niet technisch. Van een mens accepteer je een vergissing omdat het je zelf ook zou kunnen overkomen. Een machine is niet menselijk en mag daarom niet falen. Ik kan me dan ook niet voorstellen dat iemand er ooit in zal berusten dat een auto (eind)verantwoordelijk is voor een ongeluk en zegt: ‘Het is een auto, kan gebeuren’. Vergissen moet wel menselijk blijven.

De mens bepaalt de keuzes van een auto

En laten we eerlijk zijn: uiteindelijk is elke fout wel terug te voeren op menselijk handelen. Neem bijvoorbeeld het onderhoud van al die gevoelige sensoren van een automatische auto. Die zullen op z’n minst goed schoon gehouden moeten worden om hun werk naar behoren te kunnen doen, als de auto dat tenminste niet zelf doet. De vraag is natuurlijk wel hoeveel onderhoud je van de gemiddelde autobezitter mag verwachten. Het op peil houden van de bandenspanning blijkt al een hele opgave te zijn.

 

Een ander voorbeeld van de invloed van menselijk handelen op het gedrag van een zelfrijdende auto, is de software die essentiële gedragskeuzes van de auto bevat. Een zelfrijdende auto moet altijd een actie kiezen. Zelfs niet-kiezen (bijvoorbeeld stoppen) is uiteindelijk ook een gedragskeuze. Bij elke situatie bepaalt de software voor welke actie de auto moet kiezen, ook als elke keuze (remmen, doorrijden, gas geven of uitwijken) onherroepelijk leidt tot schade. En dat kan ook persoonlijke schade zijn. Die software is door iemand geschreven die ongetwijfeld handig is in programmeren, maar niet is opgeleid voor het maken van keuzes over wie welke schade krijgt, laat staan voor het maken van keuzes tussen leven en dood.

 

Een auto die via zijn software zelf bepaalt wie gespaard moet worden en wie niet, dat levert interessante dilemma’s op. Is de programmeur bijvoorbeeld aansprakelijk te stellen voor de gevolgen van de door hem geprogrammeerde keuzes? Bepaalt de autofabrikant straks wie of wat bij cruciale keuzes het meest waard is, zodat bijvoorbeeld een Tesla bij dergelijke keuzes ‘aardiger’ is voor de ene categorie weggebruikers en een BMW juist voor andere? In Duitsland durft men deze ethische kwesties niet aan de markt over te laten en is een verplichte ethische code voor zelfrijdende auto’s ontwikkeld, die bestaat uit twintig basisregels.

Meer dan alleen techniek

Dat de zelfrijdende auto er komt lijkt wel zeker en dat die ontwikkeling goed is voor de verkeersveiligheid lijkt evident. Maar de weinige ongevallen die dan nog plaatsvinden zullen zo mogelijk nog minder geaccepteerd worden dan nu. Vooral in de periode voorafgaand aan een werkelijk autonoom verkeersbeeld, voorzie ik een ethische discussie over de vraag wie bepaalt welke keuzes een auto mag of moet maken. Het lijkt me daarom goed daar nu al goed na te denken en ons niet alleen te concentreren op de techniek.