AI-geddon, część 2: Bezpieczeństwo AI

AI-geddon, część 2: Bezpieczeństwo AI

Aligment to kolejne kluczowe pojęcie - można je określić jako praca na rzecz uspójnienia celów AI z naszymi. Wymiennie stosowana z pojęciem "bezpieczeństwa AI".

💡
W pierwszej części tekstu staram się na przykładach opisać czym jest silna sztuczna inteligencja - AGI. Zapraszam.

Yuval Harari w tekście dla New York Times pisze o pierwszym kontakcie człowieka ze sztuczną inteligencją.

Social media was the first contact between A.I. and humanity, and humanity lost.

To genialne stwierdzenie mocno do mnie trafiło. Uważam, że sieci społecznościowe spowodowały wiele złego w kontekście jakości dyskursu publicznego, autorytetów, naszego dobrostanu czy jakości relacji interpersonalnych. Wcześniej za degradacje powyższych obwiniałem upowszechnienie dostępu do środków przekazu -  czyli demokratyzacje komunikacji. Rozumowałem - skoro każdy może mówić, słyszymy więcej niemądrych opinii. Ale tekst Harariego otworzył mi oczy na trywialny fakt, o którym świetnie widziałem. Wiedziałem, że sieci społecznościowe i generalnie silniki optymalizacyjne oparte o AI zamykają nas w bańce oraz wykorzystują nasze błędy poznawcze. Ale nie "obwiniałem" ich za ten stan rzeczy, tylko ludzi.

Algorytmy w serwisach społecznościowych to przykład narrow AI (ewentualnie weak AI) czyli sztucznej inteligencji dopasowanej do konkretniej, wąskiej dziedziny. To pojęcie jest często przeciwstawiane AGI. Ale ten przykład pokazuje już wyzwania dopasowania modelu do potrzeb ludzkości. One dziś są zoptymalizowane na zysk przedsiębiorstwa.

Eliezer Yudkowsky mówi o dwóch krzywych: capabilities - czyli możliwości, rosnąca jakość rozwiązań prowadzących do silniejszej sztucznej inteligencji oraz alignment, wspomnianym dopasowaniu - które dramatycznie się rozjeżdżają. Prace nad możliwościami modeli przynoszą wykładnicze efekty a nad dopasowaniem - mizerne. Jest to trudne z paru powodów, po pierwsze - według Eliezera - musimy mieć problem dopasowania rozwiązany za pierwszym razem. Jeśli pojawi się AGI i nie będzie dopasowany to...

A sposób w jaki ludzie robią naukę opiera się na wielokrotnych próbach.

Po drugie - nawet bardzo rozsądni, wykształceni ludzie potrafią nie zgadzać się co do wielu spraw dosyć fundamentalnie. Jak mamy nauczyć sztuczną inteligencje by dbała o nas - gdy sami nie wiemy czego chcemy?

Wstrzymanie prac nad AI

Z tą tezą polemizuje Max Tegmark - inicjator głośnego listu otwartego nawołującego do wstrzymania prac nad modelami AI bardziej zaawansowanymi niż GPT-4 na sześć miesięcy.

Mówi on, że jest masa rzeczy co do których cała ludzkość się zgadza. Jako przykład wskazuje UN Development Goals które zostały podpisane przez wszystkich członków ONZ. On zresztą bardziej dostrzega problem dopasowania jako nie wyzwanie technologiczne ale instytucjonalno organizacyjne. Wierzy, że funkcjonowanie AGI powinno się uregulować.

Przeciwko tej inicjatywie stoi Pedro Domingos (autor The Master Algorithm) który uważa, że WWW istnieje już trzydzieści lat a dalej nie ma porozumienia jak go regulować. Tegmark zauważa, że historia zna technologie które jako społeczność uznaliśmy za zbyt ryzykowne - na przykład klonowanie i z tym związana eugenika. Nawet Chiny, często przytaczane jako argument by nie zatrzymywać prac nad AI bo Chiny się nie zatrzymają, wstrzymały prace nad klonowaniem. W tej debacie bardziej trafiają do mnie argumenty Tegmarka.

Pedro uważa, że do AGI jest jeszcze daleko - jako przykład podaje fakt, że gdy dziecko zobaczy zdjęcie konia będzie potrafiło rozpoznać konia przez całe życie. W obecnym paradygmacie jest to nieosiągalne w AI. Zapytany o przedział czasowy odpowiada zgrabną formułką: za sto lat - plus minus rząd wielkości. czyli od 10 do 1000 lat.

Inny rodzaj zagrożeń

Pedro Domingos wyróżnia dwa rodzaje zagrożeń związanych ze Sztuczną Inteligencją.

Pierwsze to Głupia Sztuczna Inteligencja - Pedro zwraca uwagę, że już dziś AI może podejmować złe decyzje w wielu różnych miejscach. Algorytmy powszechnie decydują o udzielanych kredytach a wraz z szałem po ChatGPT widzimy, że te modele zadomowią się w naszej codziennej pracy. Więc wstrzymywanie pracy nad AI jest bardziej szkodliwe niż skupienie się na dalszych postępach.

Drugie to wykorzystanie przez niepowołane ręce - jak każda technologia, AI może być wykorzystywane do czynienia dobra jak i zła. Chyba najbardziej anegdotycznym przykładem jest dynamit Nobla który był pacyfistą a stworzył "narzędzie śmierci". Pedro przytacza inny humorystyczny przykład - fakt, że auta mogą być wykorzystane przez bandytów do ucieczki po rabunku banku nie oznacza, że powinno się wstrzymać prace nad samochodami. Trzeba zadbać by policja nie jeździła konno tylko miała szybsze auta.

W obu wypadkach rozwiązaniem jest mądre rozwijanie sztucznej inteligencji.

Ustalenie jak AI dochodzi do swoich wniosków jest trudne, często kolejne ulepszone modele ujawniają (Emergent Abilities) umiejętności których nie posiadały wersje poprzednie - ale nie zostały zaprojektowane przez człowieka. Nie wiemy czemu się pojawiają i nie potrafimy przewidzieć jakie umiejętności się ujawnią wraz ze skalowaniem rozwiązania. To budzi obawę i respekt. Pedro Domingos zwraca uwagę, że weryfikowanie efektów pracy Sztucznej Inteligencji jest proste i oczywiste - sprawdzamy, czy dane rozwiązanie działa. Profesor przewiduje wręcz, że w przyszłości może być zawód sprowadzający się do kontrolowania efektów pracy sztucznej inteligencji.

Jak uderzenie pioruna

Śledząc debatę tych dwóch obozów dostrzegam, że ich argumenty opierają się na pewnych aksjomatach. Sceptycy uważają, że AI może zgładzić ludzkość poprzez maksymalizowanie danego jej celu (paperclip problem, ćwiczenie myślowe w którym AI otrzymuje niewinny cel tworzenia spinaczy i maksymalizując jego efekt niszczy ludzkość bo zużywa do tego wszystkich dostępnych zasobów).

Optymiści uważają, że to antropomorfizacja - przekładamy na program komputerowy nasze odruchy i obawy. Wierzą, że zawsze będziemy kontrolowali AI bo ją tworzymy. Nie ignorują wyzwania związanego z bezpieczeństwiem ale stosunek korzyści do potencjalnego ryzyka jest dla nich bezsporny. Ryzyko, że Sztuczna Inteligencja zgładzi cywilizacje jest jak uderzenie pioruna - wychodząc z domu wiem, że może się to wydarzyć, ale nie zaprzątam sobie tym głowy non-stop, są inne, bardziej ważkie problemy.

W trzeciej części sam zajmę stanowisko na temat ryzyk związanych z rozwojem Sztucznej Inteligencji. Zapraszam do zapisania się do newslettera by nie przegapić konkluzji cyklu o AI-geddonie!


Oceń ten tekst kliając w emotke: 👎 - 👍

PS. Jeśli zainteresował Cię ten tekst lub znasz kogoś, komu się przyda - prześlij dalej lub udostępnij 🙏