- Chatboty SI mogą ujednolicać ludzkie myślenie i komunikację.
- Zdaniem naukowców twórcy systemów SI powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania.
Dalsza część tekstu pod wideo:
Sztuczna inteligencja zubaża ludzką komunikację
Zdaniem autorów nowej pracy opublikowanej w piśmie "Trends in Cognitive Sciences" różnorodność poznawcza w grupach i społeczeństwach na świecie zaczyna maleć, ponieważ miliardy ludzi korzystają z tej samej niewielkiej liczby chatbotów SI do coraz większej liczby zadań. Na przykład, gdy ludzie korzystają z chatbotów, aby dopracować swoje teksty, tracą one swoją stylistyczną indywidualność, a autorzy odczuwają mniejsze poczucie twórczości. - Ludzie różnią się sposobem pisania, rozumowania i postrzegania świata. Gdy jednak te różnice są niwelowane przez te same duże modele językowe (LLM), odmienny styl językowy, perspektywa i strategie rozumowania ulegają ujednoliceniu, co prowadzi do powstawania znormalizowanych sposobów wyrażania się i myślenia u użytkowników - mówi Zhivar Sourati z University of Southern California. Badacze podkreślają, że różnorodność poznawcza w grupach i społeczeństwach wzmacnia kreatywność oraz zdolność rozwiązywania problemów. - Obawa nie dotyczy tylko tego, że LLM-y wpływają na to, jak ludzie piszą czy mówią, ale także tego, że subtelnie redefiniują to, co uznaje się za wiarygodną wypowiedź, właściwą perspektywę, a nawet dobre rozumowanie - ostrzega specjalista.
Sztuczna inteligencja osłabia kreatywność i zdolność myślenia
Naukowcy przywołują liczne badania wskazujące, że wyniki pracy LLM-ów są dużo mniej zróżnicowane niż twórczość człowieka, a jednocześnie odzwierciedlają język, wartości i style rozumowania społeczeństw zachodnich, wykształconych, uprzemysłowionych, zamożnych i demokratycznych. Na przykład opinie ludzi stają się zbliżone do wyrażanych przez SI, a ich myślenie bardziej liniowe, mniej intuicyjne i mniej abstrakcyjne. Systemy SI wpływają też często na oczekiwania ludzi, co może zmieniać kierunek ich pracy. - Ponieważ duże modele językowe (LLM) są trenowane tak, aby wychwytywać i odtwarzać statystyczne regularności w danych treningowych, które często nadmiernie reprezentują dominujące języki i ideologie, ich odpowiedzi często odzwierciedlają wąski i zniekształcony wycinek ludzkiego doświadczenia - mówi Sourati. Naukowcy dodają, że skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów. - Jeśli wiele osób wokół mnie myśli i mówi w określony sposób, a ja robię to inaczej, będę odczuwać presję, by się do nich dostosować, ponieważ będzie to wyglądało na bardziej wiarygodny lub społecznie akceptowany sposób wyrażania moich idei - wyjaśnia badacz.
Naukowcy apelują o większą różnorodność w modelach SI
Według naukowców twórcy systemów SI powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania. Zaznaczają przy tym, że powinna ona opierać się na rzeczywistej różnorodności istniejącej wśród ludzi na całym świecie, a nie na losowo wprowadzanych wariacjach. - Gdyby duże modele językowe miały bardziej zróżnicowane podejście do idei i problemów, lepiej wspierałyby zbiorową inteligencję oraz zdolności naszych społeczeństw do rozwiązywania problemów - twierdzi Sourati. - Musimy zwiększać różnorodność samych modeli SI, a także zmieniać sposób, w jaki z nimi współpracujemy, zwłaszcza biorąc pod uwagę ich powszechne zastosowanie w wielu zadaniach i kontekstach, aby chronić różnorodność poznawczą i potencjał twórczy przyszłych pokoleń – podsumowuje.
Zobacz także:
- Zmarli będą nadal aktywni w sieci? Meta uzyskała patent na technologię, która to umożliwia
- Ukradli wizerunek Tomasza Raczka. "To mną trząchnęło"
- Gucci z kontrowersyjną kampanią AI. "Ponure czasy"
Autorka/Autor: Dominika Czerniszewska
Źródło: Marek Matacz (PAP)
Źródło zdjęcia głównego: Mininyx Doodle/Getty Images