Aangemaakte reacties
-
AuteurBerichten
-
Arnoud Engelfriet (ICTRecht)Moderator
Uitlegbaarheid gaat wat mij betreft over beide aspecten. Allereerst uitlegbaar sec, kunnen we reconstrueren op basis waarvan de AI tot een conclusie kwam. Ten tweede hoe die basis, die factoren te vertalen naar iets waar mensen wat mee kunnen.
Voorbeelden bij een AI die leningen beoordeelt en in deze gevallen afwijst:
a) Uw leenbedrag was meer dan 12.000 euro, uw BKR notering is zeer negatief, uw bankrekening staat elke maand zwaar rood
b) Uw leenbedrag zat tussen 8.568 en 12.535, u pint begin van de maand bij Albert Heijn, uw autoverzekering werd drie maal dit jaar niet geïncasseerd door roodstaan, u koopt vaak bij coffeeshop Koos Koets
c) Node 4541230 en 32986812 wogen zeer zwaar en drukten nodes 1289 en 24756732 weg, de overige nodes droegen slechts 0.234% van de uitkomst.Bij a en b hebben we de relevante factoren, bij c is er werkelijk geen uitleg behalve dat in dat neural net bepaalde nodes actief waren.
Bij a kunnen we de factoren vertalen naar een menselijke motivatie, dit zijn typische negatieve signalen bij een leningaanvraag. Maar hoe verklaarbaar is de afwijzing in b?
Arnoud Engelfriet (ICTRecht)ModeratorDe vraag gaat eigenlijk vooral over je positie en visie. Er is namelijk geen eenduidige definitie van wat AI is. De boetebase bijvoorbeeld is eigenlijk niet meer dan een beslisboom. Bij deze overtreding in deze omstandigheden en minus deze verzachtende omstandigheden wordt een boete van 500 euro opgelegd. Tien vergelijkbare cases komen alle tien bij dezelfde uitkomst uit. Voor veel mensen is een puur regelgebaseerd systeem geen AI, daar zit geen slimheid in, het ontstijgt niet wat we erin gestopt hebben.
Er is een Engelse chatbot die je helpt parkeerboetes aan te vechten. Deze doet niet veel méér dan de boetebase, maar vraagt om veel meer omstandigheden zoals ook het bijzondere geval dat je met een diplomatiek kenteken parkeert. De presentatie als chatbot en de variëteit aan vragen maakt dat mensen het toch AI zijn gaan noemen. Ik heb geen functioneel criterium dat het onderscheid kan maken.
Het automatisch samenvatten is eigenlijk ook regelgebaseerd, het algoritme is geheel als stappenplan gepubliceerd. De grap is dat de regels zo zijn dat de uitkomst griezelig goed is, waardoor het kan overkomen als intelligent gedrag.
ELIZA is al wat ouder, het is een chatbot die als psycholoog/therapeut je helpt je gevoel te exploreren. Toen de bot ooit werd gelanceerd, werden mensen echt boos toen men de bot stopzette. Eindelijk iemand om mee te praten.
Recent heeft de EU een concept-Verordening gepubliceerd waarin men eigenlijk al deze gevallen als AI aanmerkt. Dat is heel breed, en daar kwam ook veel kritiek op, maar de Vo hanteert een risico-gebaseerde indeling. De boetebase geeft nul risico’s, want een agent zal nooit enkel op basis van de base de boete opschrijven, laat staan dat de rechter op basis daarvan een bezwaar afwijst. Dus wel AI (volgens de Vo) maar geen enkel probleem.
De parking ticket bot zou iets gevaarlijker zijn, omdat het mogelijk een ineffectief (of frivool) bezwaarschrift produceert en daarmee de gebruiker risico’s of nadeel geeft. Daar zou dus meer inhoudelijke waarborgen in moeten zitten.
ELIZA kan mensen wellicht indirect in gevaar brengen, door verkeerde ideeën te suggereren. Dat ging bij deze chatbot bijvoorbeeld mis: https://boingboing.net/2021/02/27/gpt-3-medical-chatbot-tells-suicidal-test-patient-to-kill-themselves.html
Helpt dit?
Arnoud Engelfriet (ICTRecht)ModeratorDag Nina, welke vraag bedoel je precies? De vraag over de boetebase, het automatisch samenvatten of ELIZA?
Arnoud Engelfriet (ICTRecht)ModeratorAnonimiseren is een goede, maar wel een hele lastige. AI kan patronen zoeken in andersoortige data, bijvoorbeeld je geslacht afleiden uit je hobby’s of je leeftijd uit je tijdstippen van online zijn.
Het idee van de uitkomsten toetsen op bias is een hele simpele en effectieve. Het kan echter pas na geruime tijd, want je moet een serie uitkomsten hebben om te kijken of deze bijvoorbeeld structureel vrouwen afwijst. Maar vaak is zo’n historische set uitkomsten er wel tegen de tijd dat er klachten komen, dus het kan goed!
Arnoud Engelfriet (ICTRecht)Moderator@Maaike de video op https://www.youtube.com/watch?v=1rvSJ3OQl-g doet het bij mij gewoon?
Juinen is niet in alles een volledig compliant gemeente, hoewel ik me wel zou afvragen of die professor zo duur zou zijn dat de opdracht aanbestedingsplichtig zou zijn. Maar dat antwoord was zeker niet het modelantwoord.
Arnoud Engelfriet (ICTRecht)ModeratorExcuses, dit was een foutje in onze database. We hebben het aangepast en hij zou het weer moeten doen.
Arnoud Engelfriet (ICTRecht)ModeratorDank je wel Maaike, deze warmloper was inderdaad mede bedoeld om te kijken wat B&W allemaal verwacht. Overigens telt altijd de eerste score, dus de eindtoets opnieuw doen is prima maar krijgt Juinen niet hoger of lager.
-
AuteurBerichten