Ga verder naar de inhoud

Transparante beslissingen van AI-systemen

Hogeschool PXL

AI PXL

Waar gaat dit over?

Kan je als bedrijf zomaar vertrouwen op beslissingen van AI-systemen? Soms is het een overbodige vraag, niemand wacht bijvoorbeeld op verklaringen waarom Netflix je een film aanraadt, maar in verschillende contexten is het wél relevant.

Denk maar aan een algoritme dat voor je beslist of je al dan niet een lening krijgt van de bank, of een algoritme dat een productierobot aanstuurt om een product toch van de band af te gooien zonder dat er iets mis mee was.

In de literatuur is er veel beweging rond verklaarbaarheid en transparantie van AI-systemen. In ons TETRA project tackelen we real-life AI-cases, komende van Vlaamse bedrijven en onderzoeken we op welke manier we hun modellen en voorspellingen beter interpreteerbaar kunnen maken. Dit voor zowel beslissingnemers, ontwikkelaars als eindgebruikers.

Zo zijn er 3 inspiratie-cases uitgewerkt van verschillende types data en voor verschillende doelgroepen waarmee bedrijven straks generiek kennis kunnen vergaren en toepassen in hun eigen projecten en producten. Bovendien tackelden we in een Summer School ook samen met Vlaamse bedrijven een AI-scenario waar Explainable AI meer inzichten biedt in de beslissingen van AI modellen.


ROBIN SCHRIJVERS

Interesse in dit project?

Neem contact op met Robin Schrijvers.



PUBLICATIE COVERS IMPACT

Onderzoek, dat mag gezien worden!

Met het digitaal magazine "Uitpakken met impact" willen de Vlaamse hogescholen exact dat doen wat de titel beoogt: laten zien (en ook een beetje 'stoefen') van hoe ze ondernemingen en organisaties helpen te professionaliseren en welke impact ze daarmee precies realiseren op de werkvloer.

Wil je precies weten wat er de afgelopen 3 jaar zoal gebeurde op gebied van onderzoek, innovatie en de kennisdeling van al deze opgebouwde expertise? Dan geeft dit digitaal magazine antwoord op deze vragen.