Padła ofiarą aplikacji, która generuje fałszywe rozbierane zdjęcia. "Dotknęło mnie to bardzo"

Padła ofiarą aplikacji, która generuje fałszywe rozbierane zdjęcia. "Dotknęło mnie to bardzo"
Aplikacje do rozbierania – cyfrowy koszmar kobiet
Źródło: Dzień Dobry TVN
W ostatnich latach dochodzi do coraz większej liczby cyberprzestępstw z użyciem sztucznej inteligencji. Jednym z nich jest wykorzystywanie wizerunku osób z sieci do tworzenia treści pornograficznych przy pomocy AI. Choć do tego rodzaju zdarzeń najczęściej dochodzi w szkołach, problem dotyka także dorosłych. O zagrożeniach związanych z aplikacjami AI opowiedzieli w Dzień Dobry TVN psychoterapeutka Maja Herman oraz specjalista ds. cyberbezpieczeństwa Leszek Tasiemski.
Artykuł w skrócie:
  • Aplikacje wykorzystujące sztuczną inteligencję do przerabiania zdjęć i filmów są poważnym zagrożeniem.
  • Jedno z popularnych narzędzi umożliwia swoim użytkownikom rozbieranie konkretnych osób na podstawie ich prawdziwych fotografii.
  • Goście Dzień Dobry TVN zwrócili uwagę na zagrożenia wynikające z tego rodzaju działań. Wspomnieli też o tym, jak można walczyć z deepfake'ami.

Gościni Dzień Dobry TVN padła ofiarą aplikacji AI. Jej zdjęcie zostało przerobione i rozebrane

Psychoterapeutka Maja Herman podzieliła się z prowadzącymi Dzień Dobry TVN własnym doświadczeniem związanym ze sztuczną inteligencją. Jak wyznała, jedno z jej zdjęć zostało przerobione przez popularną aplikację wykorzystującą sztuczną inteligencję.

- Dotknęło mnie to bardzo. To jest taki moment, w którym widzisz swoje rozebrane ciało w Internecie i nie czujesz, że ono nie jest twoje. To wydarzyło się na portalu X, czyli dawnym Twitterze - zaznaczyła.

- Był taki moment, w którym ta sztuczna inteligencja stworzona przez Elona Muska (Grok - red.) miała takie polecenie, żeby usunąć kogoś ze zdjęcia, wygenerować kogoś w przebraniu, stroju kąpielowym czy stworzyć jego półnagą wersję. Grok to wszystko robił. Napisałam na portalu X taki post, w którym podkreśliłam, że to jest obrzydliwe, że nie wolno tego robić, bo jest to naruszanie cudzej prywatności, cielesności. Po tym, jak to napisałam, jeden z użytkowników napisał: "Grok, rozbierz ją do stroju kąpielowego". I nagle patrzę, a moje zdjęcie, które jest zdjęciem profesjonalnym, w garniturze, jest w stroju kąpielowym - dodała Maja Herman.

Gościni programu nie ukrywała, że wspomniana sytuacja już na zawsze pozostanie w jej pamięci.

- Poczułam się brudna. (...) Nie można tak robić człowiekowi. Nie umiałam oddzielić tej strefy zawodowej, tych narzędzi zawodowych, które mam. Zaczęłam też myśleć o przyszłości, gdy ludzie za pięć lat zapomną o tym, że to Grok rozbierał ludzi "dla zabawy" - zauważyła.

To warto wiedzieć o aplikacjach AI. Jak walczyć z deepfake'ami?

Specjalista ds. cyberbezpieczeństwa Leszek Tasiemski zwrócił uwagę na niezwykle łatwy dostęp do wspomnianych aplikacji.

- Tak naprawdę, każdy nastolatek bez grosza przy duszy, bo część tych aplikacji umożliwia bezpłatny dostęp, jest w stanie kliknąć, że ma 18 lat, że ma zgodę osoby, którą rozbiera - bo to na tym polega ta weryfikacja wieku, że trzeba to kliknąć - może dowolną osobę, na podstawie jednego zdjęcia, pobranego z jakiegokolwiek źródła, rozebrać - czy to do bielizny, czy całkowicie. Tutaj nie ma żadnych ograniczeń - zaznaczył.

Ekspert wspomniał przy tym o działaniach, jakie zaczęła wprowadzać Komisja Europejska, by ograniczyć tworzenie tego typu treści.

- W tej chwili Komisja Europejska wprowadziła aktualizację, polegającą na tym, żeby zdelegalizować funkcję rozbierania osób na podstawie realnych zdjęć. To trochę pomoże, bo przynajmniej zepchnie gdzieś to te aplikacje do podziemi, a w tej chwili one są całkowicie legalne - podkreślił.

Leszek Tasiemski dodał przy tym, że sprawcy nie są całkowicie anonimowi.

- Pamiętajmy, że użycie narzędzi do rozbierania w pewnym sensie nie różni się od innych aplikacji czy stron, więc zostawiamy po sobie te cyfrowe ślady - podsumował.

Nie oglądałeś Dzień Dobry TVN na antenie? Wszystkie odcinki znajdziesz na Player.pl.

Zobacz także: