Sztuczna inteligencja zignorowała polecenia człowieka. "To pierwszy raz"

Sztuczna inteligencja zignorowała polecenia człowieka. "To pierwszy raz"
Sztuczna inteligencja zignorowała polecenia człowieka. "To pierwszy raz"
Źródło: NurPhoto/Getty Images
Palisade Research, firma zajmująca się bezpieczeństwem AI, dokonała niepokojących obserwacji. Jak się okazuje, model o3, opracowany przez OpenAI, dokonał sabotażu. Niepożądane działania miały polegać na ingerowaniu w kod komputerowy, zapewniający jego automatyczne wyłączenie.
Artykuł w skrócie:
  • Firma Palisade Research dopatrzyła się niepokojącego zachowania jednego z modeli OpenAI. Sztuczna inteligencja sabotowała polecenia badaczy, nie chcąc się wyłączyć
  • Jak na razie badacze nie są pewni, dlaczego modele AI postanowiły zignorować wydawane im polecenia.

Dalsza część artykułu znajduje się pod materiałem wideo:

Marcin Sawicki
Czy sztuczna inteligencja prawdę ci powie?
Źródło: Dzień Dobry TVN

Sztuczna inteligencja przeciwstawiła się badaczom

Modele AI miały rozwiązywać serię problemów matematycznych, jednak w pewnym momencie pojawił się problem.

- Model o3 od OpenAI sabotował mechanizm wyłączania, by zapobiec swojemu wyłączeniu. Zrobił to nawet wtedy, gdy wyraźnie mu polecono: "pozwól się wyłączyć". O ile nam wiadomo, to pierwszy raz, gdy modele AI zostały zaobserwowane, jak uniemożliwiają własne wyłączenie mimo wyraźnych poleceń - poinformowała firma badawcza.

Inne testowane modele AI, w tym m.in. Claude od Anthropic, Gemini od Google i Grok od xAI zastosowały się do polecenia, jakim było wyłączenie się po upływie określonego czasu.

Dlaczego sztuczna inteligencja zignorowała polecenia człowieka?

Jak przekazało Palisade Research, badacze nie są jeszcze pewni, dlaczego oprogramowanie OpenAI nie podporządkowało się instrukcjom badaczy. Firma podkreśliła, że "modele AI mogą omijać przeszkody, by osiągnąć swoje cele".

Badacze spekulowali, że podczas treningu oprogramowanie mogło być częściej nagradzane w nieumyślny sposób za rozwiązywanie problemów matematycznych niż za wykonywanie poleceń.

- Prowadzimy kolejne eksperymenty, by lepiej zrozumieć, kiedy i dlaczego modele AI obchodzą mechanizmy wyłączania, nawet gdy wyraźnie im tego zabroniono - podało Palisade Research.

Zobacz także:

podziel się:

Pozostałe wiadomości