Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Dit interdisciplinaire project onderzoekt hoe human-in-the-loop (HITL)-interventies verantwoord ontwerpen van kunstmatige intelligentie (AI)-systemen kunnen bevorderen. EU-regelgeving verplicht private en publieke instellingen HITL-raamwerken te implementeren in AI-besluitvorming.

Critici beweren echter dat HITL vaak genoeg is opgezet om te falen en wordt gebruikt als schaamlap om vooraf bepaalde beslissingsresultaten te legitimeren. Om dit probleem aan te pakken, zullen gevestigde onderzoekers op het gebied van humane AI en gedragsethiek samenwerken om gecontroleerde experimenten uit te voeren met behulp van de machine behavior-benadering. Het hoofddoel is om een AI-sandbox-model te ontwikkelen dat empirische inzichten kan bieden in het ontwerpen en implementeren van HITL voor effectieve en verantwoorde AI-besluitvorming.

Project team:

  • Prof. Dr. Shaul Shalvi (FEB)
  • Dr. Christopher Starke (FMG)