Sztuczna inteligencja a nagość
Zachłyśnięci nowinkami związanymi ze sztuczną inteligencją technolodzy biją na alarm, iż sośnie popularność aplikacji wykorzystujących sztuczną inteligencję do "rozbierania" kobiet na zdjęciach. Problem jest poważny, bo coraz częściej powstają fałszywe zdjęcia, które cieszą się ogromną popularnością.
Alarmujące dane zebrała firma Graphika, która specjalizuje się w się analizowaniem ruchu i trendów w serwisach społecznościowych. Jak podaje portal Business Insider, z raportu wynika, iż strony oraz aplikacje oferujące "rozbieranie kobiet" ze zdjęć mają ogromne wzięcie. Nie wdrożono jeszcze odpowiednich regulacji prawnych, które zakazywałyby tego rodzaju rozwiązań. Tylko jednego miesiąca strony tego rodzaju odwiedza blisko 24 mln internautów z całego świata.
"Nudify", czyli sztuczna inteligencja rozbiera kobiety
Aplikacje, które specjalizują się w tworzeniu nagiego obrazu, określane są jako "nudify". Są groźne nie tylko ze względu na łatwy dostęp do kreowania erotycznych, czy wręcz pornograficznych treści. Zmieniają zdjęcia, a czasem też filmy ubranych osób, aby generować ich fałszywe nagie obrazy. Zdecydowana większość nich ma dotyczyć właśnie sylwetek kobiet.
Jak śledzi sprawę Business Insider, firma Graphika przyjrzała się ponad 30. stronom, które oferują takie usługi. Liiczba linków reklamujących ich usługi wzrosła o 2400 proc. od początku roku, zwłaszcza w serwisach Reddit i na platformie X (dawniej Twitter). Plaga rozbieranych zdjęć sięga nie tylko m.in. znane osobistości. Fałszywych obrazów nie brakuje wśród młodzieży - uczennice szkoły średniej w New Jersey musiały tłumaczyć się z upublicznionych tego typu zdjęć. finalnie okazały się fałszywe.
Jak czytamy dalej, programy AI przyczyniają się coraz częściej do rozbierania nieletnich, czyli tworzenia treści pedofilskich. Tworzy się je m.in. zdjęć w pełnym ubraniu pobranych z kont w mediach społecznościowych. Po przerobieniu ich z pomocą technologii "ClothOff", nagie zdjęcia zostają udostępnione m.in. na specjalnych grupach WhatsApp.
Sztuczna inteligencja a trauma
Psychoterapeutka Lisa Sanfilippo, specjalizująca się w traumie seksualnej, powiedziała w rozmowie z indyjskim Business Insiderem, że tworzenie takich treści "jest poważnym naruszeniem prywatności osób, które może przynieść ofiarom intensywną traumę".
- To zwykłe nadużycie, gdy ktoś bierze coś od innej osoby, co nie zostało mu wcześniej swobodnie przekazane - podsumowała.
Jesteśmy serwisem kobiecym i tworzymy dla Was treści związane ze stylem życia. Pamiętamy jednak o sytuacji w Ukrainie. Chcesz pomóc? Sprawdź, co możesz zrobić. Pomoc. Informacje. Porady.
Zobacz także:
- Badania, które mogą ocalić życie tysiącom kobiet. Jak sztuczna inteligencja pomaga wykryć raka piersi?
- Polak twórcą sztucznej inteligencji: "Będzie narzędziem pomagającym nam żyć"
- Czy sztuczna inteligencja będzie mogła udawać zmarłą osobę?
Autor: Oskar Netkowski
Źródło: Business Insider
Źródło zdjęcia głównego: Royalty-free/Getty Images