Algorytmy otaczają nas z każdej strony
Algorytmy odzwierciedlają zjawiska zachodzące w społeczeństwie, np. jeśli wpiszemy w wyszukiwarkę hasło "fizyk", to zobaczymy zdjęcia panów w białych fartuchach, a nie zdjęcie Marii Skłodowskiej-Curie czy innych znakomitych badaczek. Dlaczego tak się dzieje? Bo wciąż w tej grupie zawodowej przeważają mężczyźni...
Z kolei banki profilują nas na podstawie różnych dostępnych danych, np. naszych transakcji. Jeśli placówka odnotuje, że co miesiąc wydajemy daną kwotę na samochód, to dostaniemy ofertę z propozycją jego ubezpieczenia. Podobnie jest, gdy staramy się o kredyt. Decyzja podejmowana jest na podstawie profilowania nas jako kredytobiorców.
Zobacz wideo: Internet i technologia
Internet i technologia
Sęk w tym, że działanie algorytmów jest nietransparentne. Nie jesteśmy w stanie odwołać się od ich decyzji. Może wydawać się to nieistotne, ponieważ jeśli w danym banku nie dostaliśmy kredytu, to udamy się do innego. Jednak z drugiej strony, w Polsce jest mnóstwo osób, które ledwo wiążą koniec z końcem i jedyną opcją finansowania ich podstawowych potrzeb jest pożyczka w banku, która jest bezpieczniejsza niż tzw. chwilówka. Dlatego jeśli bank odmówi im pomocy, to nie mogą się od tej decyzji odwołać i nie dostają informacji zwrotnej o tym, co mogą zrobić, żeby w przyszłości taki kredyt dostać.
Wykluczenie algorytmiczne - na czym polega?
Jak tłumaczy dr Kuba Piwowar, wykluczenie algorytmiczne to zjawisko, które między innymi poprzez nieodpowiedni dobór danych do analizy powoduje, że jednym grupom ludzi – na skutek działania takiej technologii – jest lepiej, a drugim gorzej.
- Dzieje się tak, ponieważ społeczeństwo i kulturę trudno uchwycić w postaci danych cyfrowych. Zazwyczaj gorzej jest tym osobom, które i tak są marginalizowane w społeczeństwie – np. kobietom, osobom nieheteronormatywnym, osobom czarnoskórym czy biedniejszym – wyjaśnia kulturoznawca z Uniwersytetu SWPS.
Zobacz wideo: Malvertising - niebezpieczne reklamy
Skutki wykluczenia algorytmicznego
Algorytmy z reguły działają na olbrzymich zbiorach danych, które są przetwarzane szybko i na dużą skalę. Dlatego podejmowane decyzje mają wpływ na ogromną liczbę osób.
- Systemy klasyfikacyjne organizują rzeczywistość. Więc jeśli ktoś nie łapie się do jednej z przyjętych kategorii, system go nie widzi, to nie jesteśmy w stanie stworzyć solidnej polityki dla takich osób. Nie jesteśmy w stanie zobaczyć, czy skala zjawiska jest mała, czy duża oraz jak często występuje. Nie widzimy kategorii ludzi, którzy chcą zostać dostrzeżeni – podkreśla dr Kuba Piwowar.
Recepty na wykluczenie algorytmiczne
Zdaniem eksperta powinniśmy m.in.:
- skupić się na edukacji,
- wprowadzić zajęcia z etyki, które w zrozumiały sposób wytłumaczą dylematy związane z działaniem algorytmów,
- stworzyć poczucie odpowiedzialności wśród osób, które zajmują się danymi.
Materiał powstał na podstawie webinaru SWPS: Algorytmy - dyskryminacja i wykluczenie oraz ich społeczne konsekwencje.
Jesteśmy serwisem kobiecym i tworzymy dla Was treści związane ze stylem życia. Pamiętamy jednak o sytuacji w Ukrainie. Chcesz pomóc? Sprawdź, co możesz zrobić. Pomoc. Informacje. Porady.
Zobacz też:
- Posiedzenie RPP. Jest kolejna podwyżka stóp procentowych
- Zmiany w szkołach od września. Co czeka uczniów po wakacjach?
- Matka zostawiła 2-letniego syna w aucie i poszła na zakupy. Policja: "Nie widziała w tym nic złego"
Źródło: Informacja prasowa SWPS
Źródło zdjęcia głównego: Erik Von Weber/Getty Images