REKLAMA
PIT 2023

AI jak broń nuklearna? "Supermocarstwa powinny zacząć rozmawiać"

2023-11-04 07:44
publikacja
2023-11-04 07:44

Czy sztuczną inteligencję uda się okiełznać tak, jak broń nuklearną? Nie jest jeszcze za wcześnie na rozpoczęcie poważnych rozmów między Ameryką i Chinami, jednymi supermocarstwami w zakresie sztucznej inteligencji - twierdzą Henry Kissinger, weteran amerykańskiej polityki i profesor Graham Allison w tekście "Droga do kontroli zbrojeń sztucznej inteligencji", opublikowanym przez magazyn Foreign Affairs.

AI jak broń nuklearna? "Supermocarstwa powinny zacząć rozmawiać"
AI jak broń nuklearna? "Supermocarstwa powinny zacząć rozmawiać"
fot. Alones / / Shutterstock

Autorzy są zdania, że przy mierzeniu się z obecnymi wyzwaniami związanymi z rozwojem sztucznej inteligencji można sięgnąć po nauki zaczerpnięte z historii ograniczania ryzyka broni nuklearnej. Twierdzą jednak, że oba typy zagrożeń dzielą zasadnicze różnice.

Występują różnice

Po pierwsze, rozwojem technologii nuklearnej kierowały rządy, z kolei to prywatni przedsiębiorcy, technolodzy i firmy napędzają współczesne postępy w dziedzinie sztucznej inteligencji. I znacznie wyprzedzają wszelkie analogiczne wysiłki rządu.

"Co więcej, firmy ze sobą konkurują. Przyspiesza to innowacje, ale ponieważ prywatne podmioty koncentrują się na rachunku zysków i strat, interesy narodowe "będą w tej kalkulacji niedoceniane" - podkreślają.

Po drugie, tworzenie broni jądrowej wymagało złożonej infrastruktury na każdym etapie: od wzbogacania uranu po projektowanie broni jądrowej. Produkty były obiektami fizycznymi, a zatem policzalnymi. Tam, gdzie można było sprawdzić, co robi przeciwnik, można było tworzyć ograniczenia. Natomiast sztuczna inteligencja stanowi zupełnie inne wyzwanie.

Jak piszą autorzy, jej główne ewolucje zachodzą w umysłach ludzi. "Jej zastosowanie ewoluuje w laboratoriach, a jej wdrożenie jest trudne do zaobserwowania. Broń nuklearna jest namacalna; istota sztucznej inteligencji jest konceptualna" - diagnozują eksperci.

Po trzecie, sztuczna inteligencja rozwija się i rozprzestrzenia z prędkością, która uniemożliwia długie negocjacje. Kontrola zbrojeń rozwijała się przez dziesięciolecia, ale ograniczenia dla AI muszą pojawić się, zanim AI zostanie wbudowana w strukturę bezpieczeństwa każdego społeczeństwa, a więc zanim maszyny zaczną wyznaczać własne cele (a to może nastąpić w ciągu najbliższych pięciu lat).

Na szczęście - zauważają - największe firmy, które uczyniły Stany Zjednoczone wiodącym supermocarstwem AI, zdają sobie sprawę, że mają obowiązki nie tylko wobec swoich akcjonariuszy, ale także wobec kraju i całej ludzkości. Wiele z nich opracowało już własne wytyczne dotyczące oceny ryzyka przed wdrożeniem, zmniejszania stronniczości danych szkoleniowych i ograniczania niebezpiecznych zastosowań swoich modeli. Znaczącym krokiem we właściwym kierunku była inicjatywa administracji prezydenta Bidena, dzięki której liderów siedmiu głównych firm zajmujących się sztuczną inteligencją zjawili się w Białym Domu, by wspólnie zobowiązać się do ustanowienia wytycznych zapewniających "bezpieczeństwo, ochronę i zaufanie".

Skala zagrożeń związanych z nieograniczonym postępem sztucznej inteligencji wymaga, aby liderzy zarówno w rządzie, jak i biznesie zaczęli działać jak najszybciej, i to mimo istniejących w USA ostrych podziałów politycznych - twierdzą eksperci.

Każda z firm dysponujących ogromnymi możliwościami obliczeniowymi do trenowania nowych modeli sztucznej inteligencji oraz każda firma lub grupa badawcza opracowująca nowe modele powinna stworzyć grupę analizującą ludzkie i geopolityczne implikacje swoich komercyjnych operacji AI.

"Wymaga to współdziałania obu partii politycznych" - podkreślają eksperci. Prezydent i Kongres powinni powołać krajową komisję składającą się z wybitnych, bezpartyjnych byłych liderów sektora prywatnego, Kongresu, wojska i wywiadu, która powinna zaproponować szczegółowe obowiązkowe zabezpieczenia. Winny one obejmować wymagania dotyczące stałego monitoringu możliwości obliczeniowych potrzebnych do szkolenia modeli sztucznej inteligencji, takich jak GPT-4, oraz tego, że zanim firmy wprowadzą na rynek nowy produkt czy model, przetestują go pod kątem ekstremalnych zagrożeń.

Jeszcze nie jest za późno?

Analitycy zwracają uwagę, że wcale nie jest za wcześnie na rozpoczęcie poważnych rozmów z jedynym na świecie supermocarstwem AI. Chińscy mistrzowie w sektorze technologicznym - Baidu (czołowa wyszukiwarka w kraju), ByteDance (twórca TikTok), Tencent (twórca WeChat) i Alibaba (lider w handlu elektronicznym) - budują własne chińskojęzyczne analogi ChatGPT, chociaż chiński system polityczny stwarza szczególne trudności dla sztucznej inteligencji. Biden i Xi Jinping powinni zatem spotkać się w najbliższej przyszłości na prywatnej rozmowie o kontroli broni AI.

Każdy z nich powinien omówić, jak ocenia zagrożenia stwarzane przez sztuczną inteligencję, co robi jego kraj, aby zapobiec aplikacjom stwarzającym katastrofalne zagrożenia oraz w jaki sposób jego państwo przeciwdziała eksportowi zagrożeń przez krajowe firmy. Powinni stworzyć grupę doradczą składającą się z amerykańskich i chińskich naukowców zajmujących się sztuczną inteligencją oraz innych osób, które zastanawiały się nad konsekwencjami tych wydarzeń. Podejście to byłoby wzorowane na istniejącej dyplomacji Track II w innych dziedzinach, gdzie grupy składają się z osób wybranych ze względu na ich osąd i uczciwość, choć nie są formalnie zatwierdzone przez ich rząd. Na podstawie naszych rozmów z kluczowymi naukowcami w obu rządach jesteśmy przekonani, że może to być bardzo produktywna dyskusja - podkreślają analitycy.

Zdaniem autorów, amerykańsko-chińskie działania byłyby tylko częścią globalnej dyskusji na temat sztucznej inteligencji. W dłuższej perspektywie wymagany będzie globalny porządek w zakresie sztucznej inteligencji. Prace nad nim powinny rozpocząć się od krajowych wysiłków na rzecz zapobiegania najbardziej niebezpiecznym i potencjalnie katastrofalnym konsekwencjom sztucznej inteligencji. Wszystkie te inicjatywy powinny być uzupełnione dialogiem między naukowcami z różnych krajów.

Czy jeśli Biden, Xi i inni światowi przywódcy podejmą teraz działania, aby stawić czoła wyzwaniom związanym ze sztuczną inteligencją, tak jak ich poprzednicy w walce z zagrożeniami nuklearnymi we wcześniejszych dziesięcioleciach, odniosą taki sam sukces? Patrząc na historię i rosnącą polaryzację, trudno być optymistą. Niemniej jednak fakt, że minęło już 78 lat pokoju między mocarstwami nuklearnymi, powinien zainspirować wszystkich do opanowania rewolucyjnych, nieuniknionych wyzwań naszej przyszłości związanych ze sztuczną inteligencją - konkludują Henry Kissinger i Graham Allison. (PAP)

os/ jar/

Źródło:PAP
Tematy
Bezpieczna metoda oszczędzania. Zyskaj do 5,25% w skali roku! Oblicz Zysk>>

Bezpieczna metoda oszczędzania. Zyskaj do 5,25% w skali roku! Oblicz Zysk>>

Komentarze (6)

dodaj komentarz
-kancermeister-
Dopóki AI nie przejmie przetwarzania zasobów i produkcji, nie mamy się czego obawiać.

Gdy ludzie przestaną jej być potrzebni, pozbędzie się nas... i mam tylko nadzieję, że w miarę bezboleśnie, np. rozpylając wektor genetyczny powodujący całkowitą bezpłodność.
samsza
Następny artykuł będzie, że trzeba rozmawiać z Rosją.
Co prawda nie ma konsensusu, że to mocarstwo sztucznej inteligencji, ale przecież "powiedzieliśmy", że AI jak broń nuklearna, a jak nuklearna to i Rosja.
Żenujące dywagacje.
itso_not_to_be
artykuł to żałosna manipulacja jakich tu wiele
fiat126p
Chiny supermocarstwem AI? Owszem z Europą (nie całą) mogą konkurować ale są daleko w tyle za USA.
Co nie wyklucza powszechnego używania na wewnętrznym rynku.
zoomek
Moim zadnie pozamiatane, tylko srogie słoneczne rozbłyski mogą nas uratować przed systemem bestii.
Obczajajcie postępy na:
nowedigital.pl
pstrzezek
Na pewno się uda. Skoro z bronią nuklearną od dekad się nie udało

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki