Juinen wordt de AI Wereldstad! › Forums › APCG forum februari 2022 › AI of niet?
- Dit onderwerp bevat 3 reacties, 2 deelnemers, en is laatst bijgewerkt op 2 jaren, 9 maanden geleden door Arnoud Engelfriet (ICTRecht).
-
AuteurBerichten
-
februari 16, 2022 om 10:14 #750NinaboermanBijdrager
Dag!
Ik heb een vraag over vraag 2 (AI of niet) van de stof van vorige week. Ik heb deze vraag niet zo goed gemaakt. Uiteindelijk zie je wat het goede antwoord moet zijn, maar een uitleg daarbij ontbreekt. Ik weet dus nog niet goed waarom er bij het ene voorbeeld wel sprake is van AI en bij de anderen niet. Wat is daarbij de beslissende factor?
Misschien een tip om de antwoorden iets te verduidelijken?
Vriendelijke groet,
Ninafebruari 17, 2022 om 09:48 #751Arnoud Engelfriet (ICTRecht)ModeratorDag Nina, welke vraag bedoel je precies? De vraag over de boetebase, het automatisch samenvatten of ELIZA?
februari 17, 2022 om 14:17 #754NinaboermanBijdragerDag Arnoud,
Eigenlijk bedoel ik alle vragen bij die vraag, dus boetebase, automatisch samenvatten, eliza. Wat is bij deze voorbeelden de beslissende factor of het AI is of niet?
Vriendelijke groet,
Nina- Deze reactie is gewijzigd 2 jaren, 9 maanden geleden door Ninaboerman.
februari 18, 2022 om 16:00 #756Arnoud Engelfriet (ICTRecht)ModeratorDe vraag gaat eigenlijk vooral over je positie en visie. Er is namelijk geen eenduidige definitie van wat AI is. De boetebase bijvoorbeeld is eigenlijk niet meer dan een beslisboom. Bij deze overtreding in deze omstandigheden en minus deze verzachtende omstandigheden wordt een boete van 500 euro opgelegd. Tien vergelijkbare cases komen alle tien bij dezelfde uitkomst uit. Voor veel mensen is een puur regelgebaseerd systeem geen AI, daar zit geen slimheid in, het ontstijgt niet wat we erin gestopt hebben.
Er is een Engelse chatbot die je helpt parkeerboetes aan te vechten. Deze doet niet veel méér dan de boetebase, maar vraagt om veel meer omstandigheden zoals ook het bijzondere geval dat je met een diplomatiek kenteken parkeert. De presentatie als chatbot en de variëteit aan vragen maakt dat mensen het toch AI zijn gaan noemen. Ik heb geen functioneel criterium dat het onderscheid kan maken.
Het automatisch samenvatten is eigenlijk ook regelgebaseerd, het algoritme is geheel als stappenplan gepubliceerd. De grap is dat de regels zo zijn dat de uitkomst griezelig goed is, waardoor het kan overkomen als intelligent gedrag.
ELIZA is al wat ouder, het is een chatbot die als psycholoog/therapeut je helpt je gevoel te exploreren. Toen de bot ooit werd gelanceerd, werden mensen echt boos toen men de bot stopzette. Eindelijk iemand om mee te praten.
Recent heeft de EU een concept-Verordening gepubliceerd waarin men eigenlijk al deze gevallen als AI aanmerkt. Dat is heel breed, en daar kwam ook veel kritiek op, maar de Vo hanteert een risico-gebaseerde indeling. De boetebase geeft nul risico’s, want een agent zal nooit enkel op basis van de base de boete opschrijven, laat staan dat de rechter op basis daarvan een bezwaar afwijst. Dus wel AI (volgens de Vo) maar geen enkel probleem.
De parking ticket bot zou iets gevaarlijker zijn, omdat het mogelijk een ineffectief (of frivool) bezwaarschrift produceert en daarmee de gebruiker risico’s of nadeel geeft. Daar zou dus meer inhoudelijke waarborgen in moeten zitten.
ELIZA kan mensen wellicht indirect in gevaar brengen, door verkeerde ideeën te suggereren. Dat ging bij deze chatbot bijvoorbeeld mis: https://boingboing.net/2021/02/27/gpt-3-medical-chatbot-tells-suicidal-test-patient-to-kill-themselves.html
Helpt dit?
-
AuteurBerichten
- Je moet ingelogd zijn om een reactie op dit onderwerp te kunnen geven.