blog

    De zelfrijdende auto: ongelukken en ethische discussies (III)

    Tom van der Ven
    Tom van der VenPublicatiedatum: 7 juli 2017
    De zelfrijdende auto: ongelukken en ethische discussies (III)

    In mijn voorgaande blogs over de zelfrijdende auto heb ik uitgelegd wat mijn definitie is van een zelfrijdende auto en hoe deze zelfstandig kan rijden. In deze blog leg ik uit hoe het kan dat een zelfrijdende auto toch betrokken kan raken bij ongelukken en welke interessante ethische discussies hierbij spelen.

    Geen ongelukken meer?

    Zoals ik in mijn vorige blog schreef, maakt een zelfrijdende auto (simpel gezegd) gebruik van laserstralen, camera’s, sonar en een zeer krachtige computer om zich bewust te worden van zijn omgeving. Hij neemt hierdoor meer en sneller waar dan een menselijke bestuurder, waardoor bij veel mensen de verwachting bestaat dat auto-ongelukken volledig tot het verleden zullen gaan behoren. Recent ging dan ook dit filmpje viraal van een Tesla waarbij een zelfrijdende functie was ingeschakeld. Volgens nieuwsberichten zou deze Tesla een ongeluk hebben zien aankomen ‘voordat deze plaatsvond’. Ontzettend mooi natuurlijk, maar is dit wel zo?

    Nee, helaas voor ons niet. Als je het filmpje goed bekijkt, zie je dat de Tesla de snelheidsverminderingen (hoe miniem ook) van zijn voorganger waarneemt of de bijna stilstaande auto vóór zijn voorganger. Hierdoor besluit hij af te remmen. De Tesla anticipeert dus weliswaar sneller dan een menselijke bestuurder dit had kunnen doen, maar hij voorziet het daarop volgende ongeluk niet.

    Ongelukken zullen blijven bestaan

    Stel jezelf nu eens de situatie voor dat een fietser achter een geparkeerde vrachtwagen vandaan komt en er net op dat moment een zelfrijdende auto langsrijdt. De zelfrijdende auto kan deze fietser niet waarnemen zolang deze zich achter de vrachtwagen bevindt, waardoor hij mogelijk niet tijdig kan remmen.
    Onder andere doordat zulke situaties blijven bestaan, is de kans altijd aanwezig dat een zelfrijdende auto met een situatie wordt geconfronteerd waarin een ongeluk onvermijdelijk is.

    Ethische discussies

    Wat nu als de zelfrijdende auto wordt geconfronteerd met een onvermijdelijk ongeluk, maar hij hierbij bijvoorbeeld enkel kan kiezen tussen het aanrijden van een bejaarde voetganger of een kind? Het is de verwachting dat de zelfrijdende auto zodanig geprogrammeerd kan worden dat hij voor de bejaarde voetganger kiest en niet voor het kind of vice versa. Deze mogelijkheid brengt natuurlijk een ontzettend interessante ethische discussie met zich mee. De programmeur moet immers de vraag beantwoorden wiens leven hij belangrijker acht. Een verhelderend filmpje over zulke dilemma’s vind je hier.

    Een onderdeel van deze ethische discussie is of een zelfrijdende auto dusdanig geprogrammeerd moet worden dat hij altijd voor de oplossing met het minste aantal slachtoffers kiest. Hoewel dit op het eerste gezicht een simpel te beantwoorden vraag lijkt, is dit allerminst het geval. Wanneer de zelfrijdende auto’s dusdanig worden geprogrammeerd, kan dit tot gevolg hebben dat de auto ervoor kiest om zichzelf in de vangrail te rijden – met alle gevolgen voor zijn inzittenden van dien – omdat de andere opties meer slachtoffers zouden opleveren. Dit zal voor veel mensen toch een drempel vormen om in een zelfrijdende auto plaats te nemen.

    Daarnaast bestaat ook de angst dat alleen welvarende mensen straks een zelfrijdende auto kunnen kopen die zodanig is geprogrammeerd om zijn inzittenden te beschermen, terwijl minder welvarende mensen het met een zelfrijdende auto moeten doen die kiest voor een ongeluk met het minste aantal slachtoffers. Dit lijkt mij niet wenselijk en ik verwacht ook dat wetgeving noodzakelijk zal zijn.

    Wordt vervolgd!

    Heb ik jouw interesse gewekt? Abonneer je dan op mijn blogs door aan de rechterkant je e-mailadres in te vullen! Bij vragen of behoefte aan meer informatie kun je uiteraard contact met mij opnemen.