- Firma Palisade Research dopatrzyła się niepokojącego zachowania jednego z modeli OpenAI. Sztuczna inteligencja sabotowała polecenia badaczy, nie chcąc się wyłączyć
- Jak na razie badacze nie są pewni, dlaczego modele AI postanowiły zignorować wydawane im polecenia.
Dalsza część artykułu znajduje się pod materiałem wideo:
Sztuczna inteligencja przeciwstawiła się badaczom
Modele AI miały rozwiązywać serię problemów matematycznych, jednak w pewnym momencie pojawił się problem.
- Model o3 od OpenAI sabotował mechanizm wyłączania, by zapobiec swojemu wyłączeniu. Zrobił to nawet wtedy, gdy wyraźnie mu polecono: "pozwól się wyłączyć". O ile nam wiadomo, to pierwszy raz, gdy modele AI zostały zaobserwowane, jak uniemożliwiają własne wyłączenie mimo wyraźnych poleceń - poinformowała firma badawcza.
Inne testowane modele AI, w tym m.in. Claude od Anthropic, Gemini od Google i Grok od xAI zastosowały się do polecenia, jakim było wyłączenie się po upływie określonego czasu.
Dlaczego sztuczna inteligencja zignorowała polecenia człowieka?
Jak przekazało Palisade Research, badacze nie są jeszcze pewni, dlaczego oprogramowanie OpenAI nie podporządkowało się instrukcjom badaczy. Firma podkreśliła, że "modele AI mogą omijać przeszkody, by osiągnąć swoje cele".
Badacze spekulowali, że podczas treningu oprogramowanie mogło być częściej nagradzane w nieumyślny sposób za rozwiązywanie problemów matematycznych niż za wykonywanie poleceń.
- Prowadzimy kolejne eksperymenty, by lepiej zrozumieć, kiedy i dlaczego modele AI obchodzą mechanizmy wyłączania, nawet gdy wyraźnie im tego zabroniono - podało Palisade Research.
Zobacz także:
- Praca w czasach AI – dlaczego dzieci powinny umieć programować?
- Coraz więcej młodych osób przyjaźni się z ChatemGPT. To nowe zagrożenie? "Mogą mówić bez oceny, wstydu"
- Do wyborów staje kandydatka, której nie ma. Stworzyła ją sztuczna inteligencja
Autor: Aleksandra Kokot
Źródło: wirtualnemedia.pl
Źródło zdjęcia głównego: NurPhoto/Getty Images