Please use this identifier to cite or link to this item: http://hdl.handle.net/1942/44155
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorLUYTEN, Kris
dc.contributor.advisorLIESENBORGS, Jori
dc.contributor.advisorROVELO RUIZ, Gustavo Alberto
dc.contributor.authorEERLINGS, Gilles-
dc.date.accessioned2024-09-13T07:54:36Z-
dc.date.available2024-09-13T07:54:36Z-
dc.date.issued2024
dc.identifier.urihttp://hdl.handle.net/1942/44155-
dc.description.abstractDeze thesis onderzoekt de uitlegbaarheid van deep neural networks (DNNs) door veranderingen in data en architectuur te vergelijken. De studie richt zich op neurale netwerken die zijn getraind op de MNIST dataset van handgeschreven cijfers. Het onderzoek traint talloze modellen om verschillen in voorspellingen te koppelen aan interne logica. Het concept van model multiplicity, waarbij meerdere modellen dezelfde nauwkeurigheid bereiken maar intern verschillen, wordt onderzocht. Het eerste hoofdstuk definieert model multiplicity en bespreekt de implicaties voor model evaluatie. Het benadrukt dat nauwkeurigheid niet voldoende is voor modelselectie; eigenschappen zoals uitlegbaarheid, eerlijkheid en robuustheid moeten ook worden overwogen. Een softwarearchitectuur genereert automatisch diverse modellen door variaties in trainingsdata en hyperparameters toe te passen. Dit systeem vermijdt handmatige modelcreatie en bevordert reproduceerbaarheid. De gegenereerde modellen worden geëvalueerd op prestaties en gegroepeerd, waarbij frequent itemsets worden gebruikt om vergelijkbare modellen te identificeren. Het laatste hoofdstuk richt zich op het uitleggen van model multiplicity. Door multiplicitous modellen te introduceren, kunnen gebruikers in plaats van één enkel model een set van modellen raadplegen, wat de besluitvorming in kritieke systemen kan verbeteren. Verschillen in data-augmentaties en hyperparameters worden geanalyseerd om voorspellend gedrag te verklaren, wat het vertrouwen en begrip van gebruikers vergroot.
dc.format.mimetypeApplication/pdf
dc.languagenl
dc.publishertUL
dc.titleMany Minds, One Decision: Leveraging Multiple AI Models for Informed Decision-Making
dc.typeTheses and Dissertations
local.bibliographicCitation.jcatT2
dc.description.notesmaster in de informatica
local.type.specifiedMaster thesis
item.fulltextWith Fulltext-
item.contributorEERLINGS, Gilles-
item.fullcitationEERLINGS, Gilles (2024) Many Minds, One Decision: Leveraging Multiple AI Models for Informed Decision-Making.-
item.accessRightsOpen Access-
Appears in Collections:Master theses
Files in This Item:
File Description SizeFormat 
3167e975-6ac4-4afb-adde-862b8e59e0b8.pdf2.51 MBAdobe PDFView/Open
Show simple item record

Google ScholarTM

Check


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.