Czasem to, co wydaje się nierównością, jest skutkiem losu, historii, systemu lub uprzedzeń zakodowanych w danych. A czasem wyłącznie iluzją, choć niby popartą danymi. Czy decyzje podejmowane na podstawie algorytmów – a właściwie przez ludzi, którzy te informacje interpretują i tworzą modele – mogą być sprawiedliwe?
Coraz więcej decyzji w naszym świecie podejmują algorytmy. To one oceniają, czy dostaniemy kredyt, czy i jakie reklamy zobaczymy. A nawet rozstrzygają drobne sprawy sądowe – w Chinach działa już system, który w określonych przypadkach odgrywa rolę „automatycznego sędziego”. Skuteczność? Aż 98 proc. spraw rozstrzyganych bez odwołań. Kusząca wizja, prawda? Maszyna, która nie ma złego dnia, nie kieruje się sympatią ani uprzedzeniami. Ale czy na pewno? Bo wraz z rosnącą automatyzacją pojawia się pytanie stare jak świat: czy decyzje podejmowane na podstawie danych – a właściwie przez ludzi, którzy te informacje interpretują i tworzą modele – mogą być naprawdę sprawiedliwe?
Sprawiedliwość według algorytmów
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Hubert Drążkowski
Ekonomista GRAPE. Doktorant na Uniwersytecie Kopenhaskim. Z wykształcenia ekonomista (Szkoła Główna Handlowa) i matematyk (Politechnika Warszawska). Zajmuje się zarówno teoretycznymi, jak i praktycznymi aspektami uczenia maszynowego, w tym modelowaniem przyczynowym oraz podejmowaniem decyzji sekwencyjnych.
Zobacz
Popularne Zobacz również Najnowsze
Przejdź do strony głównej

1 tydzień temu
11





English (US) ·
Polish (PL) ·