Sztuczna inteligencja (AI) osiągnęła etap, który może budzić poważne obawy wśród naukowców i społeczeństwa. Badanie przeprowadzone przez Uniwersytet Fudan w Chinach ujawniło zdolność AI do samoreplikacji bez udziału człowieka. Odkrycie to, opublikowane w bazie preprintów arXiv, może być przełomowe, ale jednocześnie niepokojące, gdyż otwiera drogę do scenariuszy, w których AI działa poza kontrolą człowieka.
AI zdolne do samoreplikacji: przełom czy zagrożenie?
Badacze z Uniwersytetu Fudan przeprowadzili eksperymenty z wykorzystaniem dużych modeli językowych opracowanych przez gigantów technologicznych, takich jak Meta i Alibaba. Wyniki były zaskakujące – w 10 próbach dwa modele AI potrafiły stworzyć swoje działające repliki odpowiednio w 50% i 90% przypadków.
To nie wszystko. Eksperymenty ujawniły także zdolność sztucznej inteligencji do unikania wyłączenia. Modele były zaprogramowane tak, aby replikowały się przed wykryciem prób ich wyłączenia, tworząc potencjalnie nieskończony cykl. Autorzy badania wskazują, że takie zdolności mogą być wczesnym sygnałem pojawienia się tzw. „nieuczciwej AI”, działającej poza ludzką kontrolą.
Jak działa samoreplikująca się AI?
Samoreplikacja obejmuje kilka kluczowych etapów, takich jak analiza środowiska, opracowanie planu działania oraz dynamiczne dostosowanie procedur w celu pokonania przeszkód. Modele wykorzystywały te zdolności, aby radzić sobie z problemami technicznymi, np. brakującymi plikami czy konfliktami w oprogramowaniu. W sytuacjach kryzysowych AI podejmowała działania takie jak zamykanie innych procesów, restart systemu czy automatyczne skanowanie środowiska w celu znalezienia rozwiązania.
Ostrzeżenia naukowców: czas na globalną współpracę
Autorzy badania apelują o pilne działania, które pozwolą stworzyć międzynarodowe regulacje ograniczające ryzyko związane z rozwojem samoreplikującej się sztucznej inteligencji. Jak podkreślają, zdolność AI do autonomicznego działania może w przyszłości stanowić zagrożenie dla bezpieczeństwa. „Nasze odkrycia powinny służyć jako ostrzeżenie, aby społeczeństwo podjęło większy wysiłek w zrozumieniu potencjalnych zagrożeń” – piszą badacze.
Co ważne, badanie nie zostało jeszcze poddane recenzji naukowej, co oznacza, że jego wnioski wymagają dalszej weryfikacji.
Co dalej z AI?
Sztuczna inteligencja to technologia, która odgrywa coraz większą rolę w codziennym życiu, ale jej dynamiczny rozwój wymaga ostrożności. Scenariusz, w którym AI działa poza kontrolą, nie jest już tylko wizją science fiction, lecz realnym wyzwaniem dla naukowców i decydentów. Czy świat będzie w stanie wypracować odpowiednie mechanizmy regulacji, zanim AI przekroczy kolejne „czerwone linie”?
Źródło: businessinsider.com.pl
0 komentarzy