Trendsz

Afgelopen oktober bezocht collega Marit het event Join the AI Revolution: A Young Professional’s guide. Een inspirerend event voor young professionals over de kansen van AI voor de verzekeringssector. De verschillende sprekers vertelden hoe verzekeraars AI kunnen inzetten om hun processen te optimaliseren en klanten op een kostenefficiënte manier te bedienen. Het event werd georganiseerd door Nationale Nederlanden, waar Marit nu bijna twee jaar werkzaam is als agile software tester. In deze blogpost vertelt ze over de belangrijkste key take aways van het event. Bovendien deelt ze haar visie op AI en testen.

De populariteit van AI sinds de komst van ChatGPT

Onder andere vanwege mijn studieachtergrond in AI ben ik zeer geïnteresseerd in de toepassing van AI. En sta ik altijd open om te ontdekken hoe AI kan bijdragen aan het opleveren van kwalitatief goede software. Deze interesse is alleen maar sterker geworden sinds de lancering van ChatGPT. Sindsdien hoor ik namelijk niets anders dan gesprekken om mij heen over de voor – en nadelen van de inzet van AI. Ook binnen mijn afdeling wordt er veel gesproken over de slimmigheidjes van de toepassing van ChatGPT. Zo is ChatGPT uitstekend in staat mij te helpen met het brainstormen over testgevallen, het maken van een gestructureerde planning of agenda op basis van wat punten die ik toestuur en het interpreteren en visualiseren van resultaten. Naast de vele voordelen die de inzet van AI – zoals ChatGPT – met zich meebrengt, moeten we uiteraard ook nadenken over de eventuele risico’s.

Take aways

Onderstaand de belangrijkste take aways die ik heb opgedaan tijdens het event en waar jij mogelijk ook iets aan hebt:

  • Het belang van ethiek binnen AI

Artificial intelligence is een relatief nieuwe technologie, waardoor het nog niet altijd duidelijk is welke risico’s er zijn. Voor de risico’s die we als maatschappij wel al zijn tegengekomen, zijn vervolgens nog niet altijd wetten, regels of richtlijnen opgesteld. Daarom is het belangrijk om bij het inzetten van AI je bewust te zijn van de (ethische) risico’s en hoe je daarmee omgaat. Tijdens het event werd gesproken over de invloed van de ontwikkelaar van de AI-modellen op het ethisch juist neerzetten van de software. En de ondersteuning daarbij van bedrijven door middel van beleid, richtlijnen en trainingen. Zo wordt er binnen Nationale Nederlanden – waar ik werkzaam ben als testconsultant –gewerkt met een verplicht AI ethisch framework en een AI-assessment voor een veilige AI-implementatie. Bovendien werd op het event aangestipt dat AI-modellen alleen ethisch juist neergezet kunnen worden als er vanuit meerdere perspectieven naar de data gekeken wordt.

  • Gebruik diverse én de juiste data

Zoals hierboven genoemd is het van belang om vanuit meerdere perspectieven naar de AI-data te kijken. Bijvoorbeeld door het betrekken van de eindgebruiker of experts die kennis en ervaring hebben over het toepassingsgebied waar de AI wordt ingezet. Dit werd tijdens het event belicht door middel van een voorbeeld over het verstevigen van gevechtsvliegtuigen. Om gevechtsvliegtuigen te verstevigen werd in eerste instantie de schade in kaart gebracht van de vliegtuigen die terugkeerde van hun missie. Echter zou juist de schade van de vliegtuigen die verloren zijn gegaan tijdens de missie in kaart gebracht moeten worden. Op basis van deze informatie werd de conclusie getrokken dat er juist versteviging moet worden aangebracht op de plekken waar geen schade is bij de teruggekeerde vliegtuigen aangezien de kans daarmee vergroot wordt dat gevechtsvliegtuigen terug kunnen keren na hun missie.

  • Voorkom hallucinatie door regelmatig de interpretaties van het AI-model te controleren

Niet alleen het vooraf juist interpreteren van de data door een goede samenwerking tussen ontwikkelaars, eindgebruikers en experts is belangrijk. Juist ook tussentijdse controle op de interpretaties van het AI-model zelf is van belang. Dit heeft te maken met het fenomeen hallucinatie. Hallucinatie is een van de grootste zorgen bij zelflerende modellen en treedt op wanneer het model verkeerde interpretaties maakt en daardoor incorrecte resultaten genereert. Een voorbeeld hiervan is een chatbot die de vraag van zijn gesprekspartner niet begrijpt, maar vervolgens wel een antwoord geeft op basis van deze interpretatie waardoor het antwoord verkeerd is. Als de chatbot niet gecorrigeerd wordt, dan zal de chatbot telkens als deze vraag terugkomt een verkeerd antwoord geven. Sterker nog, de kans bestaat ook dat de chatbot de informatie gebruikt voor de interpretatie van andere vragen. Dit laat zien dat de context die wordt meegegeven aan het AI-model belangrijk is. Als de data die gebruikt wordt feitelijk niet juist is, dan kan het AI-model ook geen correcte resultaten teruggeven en gaat de betrouwbaarheid van het AI-model omlaag.

"Hallucinatie is een van de grootste zorgen bij zelflerende modellen en treedt op wanneer het model verkeerde interpretaties maakt en daardoor incorrecte resultaten genereert."

AI en het waarborgen van kwaliteit

Vanuit mijn achtergrond en sterke interesse in AI, denk ik regelmatig na over de vraag of AI een verrijking of verarming is voor de mensen in onze maatschappij. Een AI-model is complexe software omdat het dynamisch is en er zelflerend vermogen om de hoek komt kijken. Het is daarom wat mij betreft ook erg belangrijk dat we toepassingen bedenken waar we als mens bij betrokken blijven. Met als doel te waarborgen dat wat we ontwikkeld hebben, ook daadwerkelijk doet wat we hadden verwacht. Dit stukje waarborgen van de kwaliteit is iets waar wij software testers ons werk van hebben gemaakt. Als tester ben je continu bezig om vanuit meerdere invalshoeken naar de te realiseren softwareoplossing te kijken om de risico’s zo laag mogelijk te houden. Een software tester kijkt vanuit business perspectief: wat de beoogde softwareoplossing is, of de beoogde productvoorwaarden bereikt worden en of de oplossing voldoet aan wet- en regelgeving.

Daarnaast kijkt de software tester vanuit het oogpunt van de ontwikkelaar: hoe de ontwikkelaar de softwareoplossing gebouwd heeft en of de ontwikkelaar geen zaken vergeten is in zijn gedachtegoed. En een software tester kijkt vanuit het perspectief van de klant: of de softwareoplossing ook makkelijk in gebruik te nemen is voor de eindgebruiker.

Toch denk ik dat voor het testen van zelflerende software, wat AI is, de waarborging van kwaliteit een stukje complexer is dan voor software waarvan van tevoren bekend is welke opties er mogelijk zijn. Dit maakt het voor ons vakgebied dan ook uitdagend. Want hoe kunnen we ervoor zorgen dat we een goed beeld kunnen vormen over hoeveel risico’s we afgedekt hebben met het testen van softwareoplossingen waarbij AI om de hoek komt kijken?

Wil jij van gedachten wisselen over de voor- en nadelen van AI in relatie tot software testen? Of wil je in gesprek over software testen in het algemeen en het waarborgen van kwaliteit en het afdekken van risico’s met het testen van softwareoplossingen? Neem dan contact met me op.

Poll

Is AI volgens jou een verrijking of verarming voor onze maatschappij?

Bekijk resultaten

Wil je ons nieuwste Paarsz magazine per post ontvangen? Laat dan je gegevens achter.

Ontwerp zonder titel (19)

Werken bij Bartosz?

Vincent Verhelst

Geïnteresseerd in Bartosz? Dan ga ik graag met jou in gesprek. We kunnen elkaar ontmoeten met een kop koffie bij ons op kantoor. Of tijdens ontbijt, lunch, borrel of diner op een plek die jou het beste uitkomt. Jij mag het zeggen.

Bijtanken bij Bartosz

Data & Testen

Mei14

Bij onze klanten komen we op verschillende manieren in contact met data. Hoe ga je als tester om met de (technische) uitdagingen die hierbij komen kijken? En wat voor impact heeft deze dataficatie op onze fysieke leefomgeving?

 

Mijn Paarsz