Critici beweren echter dat HITL vaak genoeg is opgezet om te falen en wordt gebruikt als schaamlap om vooraf bepaalde beslissingsresultaten te legitimeren. Om dit probleem aan te pakken, zullen gevestigde onderzoekers op het gebied van humane AI en gedragsethiek samenwerken om gecontroleerde experimenten uit te voeren met behulp van de machine behavior-benadering. Het hoofddoel is om een AI-sandbox-model te ontwikkelen dat empirische inzichten kan bieden in het ontwerpen en implementeren van HITL voor effectieve en verantwoorde AI-besluitvorming.
Project team: