DiscoverMaskinstormKan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?
Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?

Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?

Update: 2023-11-23
Share

Description

Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’.
 
Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?
 

Din vært i dagens program er journalist Bo Elkjær.


 


Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp


Podcastserien er støttet af Novo Nordisk Fonden


 

Comments 
loading
In Channel
00:00
00:00
1.0x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?

Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?

Dagbladet Information