Na podstawie algorytmów bank ocenia naszą zdolność kredytową, a platforma streamingowa proponuje film do obejrzenia. Okazuje się jednak, że decyzja podjęta bez większego udziału człowieka nie zawsze jest obiektywna. Dlaczego tak się dzieje? Jakie są tego skutki? Na te pytania odpowiada dr Kuba Piwowar, socjolog i kulturoznawca z Uniwersytetu SWPS.
Algorytmy otaczają nas z każdej strony
Algorytmy odzwierciedlają zjawiska zachodzące w społeczeństwie, np. jeśli wpiszemy w wyszukiwarkę hasło "fizyk", to zobaczymy zdjęcia panów w białych fartuchach, a nie zdjęcie Marii Skłodowskiej-Curie czy innych znakomitych badaczek. Dlaczego tak się dzieje? Bo wciąż w tej grupie zawodowej przeważają mężczyźni...
Z kolei banki profilują nas na podstawie różnych dostępnych danych, np. naszych transakcji. Jeśli placówka odnotuje, że co miesiąc wydajemy daną kwotę na samochód, to dostaniemy ofertę z propozycją jego ubezpieczenia. Podobnie jest, gdy staramy się o kredyt. Decyzja podejmowana jest na podstawie profilowania nas jako kredytobiorców.
Zobacz wideo: Internet i technologia
Internet i technologia
Internet i technologia
Sęk w tym, że działanie algorytmów jest nietransparentne. Nie jesteśmy w stanie odwołać się od ich decyzji. Może wydawać się to nieistotne, ponieważ jeśli w danym banku nie dostaliśmy kredytu, to udamy się do innego. Jednak z drugiej strony, w Polsce jest mnóstwo osób, które ledwo wiążą koniec z końcem i jedyną opcją finansowania ich podstawowych potrzeb jest pożyczka w banku, która jest bezpieczniejsza niż tzw. chwilówka. Dlatego jeśli bank odmówi im pomocy, to nie mogą się od tej decyzji odwołać i nie dostają informacji zwrotnej o tym, co mogą zrobić, żeby w przyszłości taki kredyt dostać.
Wykluczenie algorytmiczne - na czym polega?
Jak tłumaczy dr Kuba Piwowar, wykluczenie algorytmiczne to zjawisko, które między innymi poprzez nieodpowiedni dobór danych do analizy powoduje, że jednym grupom ludzi – na skutek działania takiej technologii – jest lepiej, a drugim gorzej.
- Dzieje się tak, ponieważ społeczeństwo i kulturę trudno uchwycić w postaci danych cyfrowych. Zazwyczaj gorzej jest tym osobom, które i tak są marginalizowane w społeczeństwie – np. kobietom, osobom nieheteronormatywnym, osobom czarnoskórym czy biedniejszym – wyjaśnia kulturoznawca z Uniwersytetu SWPS.
Zobacz wideo: Malvertising - niebezpieczne reklamy
Skutki wykluczenia algorytmicznego
Algorytmy z reguły działają na olbrzymich zbiorach danych, które są przetwarzane szybko i na dużą skalę. Dlatego podejmowane decyzje mają wpływ na ogromną liczbę osób.
- Systemy klasyfikacyjne organizują rzeczywistość. Więc jeśli ktoś nie łapie się do jednej z przyjętych kategorii, system go nie widzi, to nie jesteśmy w stanie stworzyć solidnej polityki dla takich osób. Nie jesteśmy w stanie zobaczyć, czy skala zjawiska jest mała, czy duża oraz jak często występuje. Nie widzimy kategorii ludzi, którzy chcą zostać dostrzeżeni – podkreśla dr Kuba Piwowar.
Recepty na wykluczenie algorytmiczne
Zdaniem eksperta powinniśmy m.in.:
- skupić się na edukacji,
- wprowadzić zajęcia z etyki, które w zrozumiały sposób wytłumaczą dylematy związane z działaniem algorytmów,
- stworzyć poczucie odpowiedzialności wśród osób, które zajmują się danymi.
Materiał powstał na podstawie webinaru SWPS: Algorytmy - dyskryminacja i wykluczenie oraz ich społeczne konsekwencje.
Jesteśmy serwisem kobiecym i tworzymy dla Was treści związane ze stylem życia. Pamiętamy jednak o sytuacji w Ukrainie. Chcesz pomóc? Sprawdź, co możesz zrobić. Pomoc. Informacje. Porady.
Zobacz też:
- Posiedzenie RPP. Jest kolejna podwyżka stóp procentowych
- Zmiany w szkołach od września. Co czeka uczniów po wakacjach?
- Matka zostawiła 2-letniego syna w aucie i poszła na zakupy. Policja: "Nie widziała w tym nic złego"
Źródło: Informacja prasowa SWPS
Źródło zdjęcia głównego: Erik Von Weber/Getty Images