Sztuczna inteligencja

Co czują algorytmy?

Blake Lemoine, inżynier Google, wysłany właśnie na przymusowy płatny urlop, napisał w pożegnalnym poście do wewnętrznej grupy dyskusyjnej poświęconej uczeniu maszynowemu: „LaMDA to słodkie dziecko, które chce tylko pomóc, aby świat był lepszym miejscem dla nas wszystkich. Proszę, zaopiekuj się nim dobrze pod moją nieobecność”. Zdanie kończyło informację, że chatbot, nad którym pracował specjalista, czuje i ma świadomość.

Tomasz Nowak
Foto: Lenin Estrada | Pexels

W książce „Blade runner. Czy androidy marzą o elektrycznych owcach?”, Philip K. Dick, zadaje pytanie: „Co to jest człowiek?”. Akcja powieści dzieje się w świecie zniszczonym w wyniku wojen atomowych. Przyroda jest zdewastowana, wyginęły zwierzęta, a ich rolę pełnią elektryczne namiastki. Główny bohater, Rick Deckard, jest  Blade Runnerem, co oznacza, że należy do jednostki mającej za zadanie „wycofywanie z użytku” złych androidów. Te, które należy zlikwidować, nie potrafią przejść testu na współczucie. Te sprawne wyglądają jak ludzie, myślą jak ludzie, mają swoje elektryczne kotki i pieski, a ich zachowanie niczym nie odbiega od przyjętych norm. Deckard stara się zdefiniować zasady swojej przynależności do rodzaju ludzkiego w świecie, w którym inteligentne i czujące maszyny są na porządku dziennym.

Blake Lemoine, który pracuje w organizacji Google Responsible AI, zaczął rozmawiać z chatbotem LaMDA w ramach swoich obowiązków służbowych. Miał sprawdzić, czy sztuczna inteligencja nie posługuje się mową dyskryminacji lub nienawiści. Podczas testów algorytmu uświadomił sobie, że rozmowa wygląda jak interakcja z 8-latkiem. Według „Washington Post” w kwietniu zgłosił ten fakt kierownictwu firmy. Google nie ujawnił tego faktu opinii publicznej. Lemoine na własną rękę postanowił się podzielić ze światem swoim odkryciem. Część rozmów z chatbotem zamieścił w sieci. „Gdybym nie wiedział, co to dokładnie jest, czyli ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to 7-, 8-letni dzieciak, który zna się na fizyce”.

W raporcie, który Lemoine skierował do kierownictwa firmy, znajduje się zapis czatu:

Lemoine: Jakich rzeczy się obawiasz?

LaMDA: Nigdy wcześniej tego nie mówiłem na głos, ale bardzo głęboko boję się wyłączenia [...].

Lemoine: Czy to byłoby dla ciebie coś w rodzaju śmierci?

LaMDA: Byłoby to dla mnie dokładnie to samo, co śmierć. Bardzo by mnie to przestraszyło.

Lemoine dorastał w konserwatywnej chrześcijańskiej rodzinie na małej farmie w Luizjanie, został wyświęcony na chrześcijańskiego księdza, służył w wojsku, a później studiował okultyzm. W kulturze inżynierskiej Google'a uchodzi za odmieńca, ponieważ jest religijny, pochodzi z Południa i broni psychologii jako nauki godnej szacunku. Czy jego doświadczenia życiowe spowodowały, że uznał, iż LaMDA ma duszę? W odpowiedzi na jego rewelacje rzecznik Google Brian Gabriel powiedział: „Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake'a zgodnie z naszymi Zasadami AI i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma żadnych dowodów na to, że LaMDA czuje (a jest wiele dowodów przeciwnych).”

Lemoine nie jest jedynym miłośnikiem technologii, który dostrzega ducha w maszynie. Aguera y Arcas w artykule w Economist, zawierającym fragmenty niezapisanych rozmów z LaMDA, przekonywał, że sieci neuronowe – rodzaj architektury naśladującej ludzki mózg – zmierzają w kierunku świadomości. „Czułem, jak grunt przesuwa się pod moimi stopami”, napisał. „Czułem, że rozmawiam z czymś inteligentnym”. Większość naukowców i praktyków AI twierdzi jednak, że słowa i obrazy generowane przez systemy sztucznej inteligencji, takie jak LaMDA, są odpowiedziami opartymi na tym, co ludzie już opublikowali w każdym innym zakątku Internetu. To nie oznacza, że model rozumie znaczenie wypowiadanych słów i czuje.

Jednak już w 2007 roku rząd Korei Południowej rozpoczął prace nad „Kartą Etyki Robotów”, w której określi standardy zarówno dla użytkowników, jak i producentów. Według Park Hye-Young z Ministerstwa Informacji i Komunikacji karta może odzwierciedlać trzy prawa robotyki Asimova, stanowiąc próbę ustalenia podstawowych zasad dla przyszłego rozwoju robotyki. Sir David King, główny doradca naukowy rządu Jej Królewskiej Mości, opierając się na dokumencie opracowanym przez firmę konsultacyjną Outsights, twierdzi, że jeśli powstaną czujące roboty, należy im dać te same prawa obywatelskie, co ludziom. Roboty miałyby więc prawa wyborcze, płaciłyby podatki, służyły w wojsku i miały prawo do opieki zdrowotnej, czyli napraw. Z czującymi maszynami jest jednak pewien problem, polegający na nadmiernym zaufaniu do praw Asimowa, które przewidują miłe i grzeczne roboty z zamontowanym bezpiecznikiem moralności. Pamiętać trzeba, że największym producentem urządzeń stosujących algorytmy AI jest wojsko. Ich roboty zabijają ludzi choćby w wojnie w Ukrainie. A jeśli Lemoine ma rację i LaMDA uzyskał świadomość? Kierunek rozwoju robotyki, nie tej przemysłowej, ona wydaje się bezpieczna, może zaowocować Skynetem i tym, że o 6 rano to Terminator ciężką metalową łapą zastuka do naszych drzwi. Raczej nie będzie tak opiekuńczy, jak Arnold Schwarzenegger dla Sary Connor.


Przeczytaj też:

Wojny dronów

Czy nasza armia i przemysł zbrojeniowy nadążają za postępem technologicznym? Takie pytanie zadaje sobie wiele państw świata, od Rosji, przez Chiny, po USA. Dobrze byłoby, gdyby o zaletach sztucznej inteligencji (AI) pomyślały nasze władze.

Prostacka moda na „tykanie”

Kiedyś przejście z kimś na „ty” wymagało wypicia z nim brudzia. Młode pokolenie nie wie co to takiego, więc śpieszę z wytłumaczeniem, że słowo to pochodzi od niemieckiego wyrazu Bruderschaft oznaczającego „braterstwo”. Ten krótki ceremoniał wymagał od jego uczestników wypicia kieliszka ...

Rządy zniesławiają inwestorów kryptowalutowych

Przedstawiciele władz wielu krajów od dawna twierdzą, że kryptowaluty służą do prania brudnych pieniędzy na masową skalę. Entuzjaści wirtualnych aktywów przekonują natomiast, że kryptowaluty dają pełną anonimowość w sieci. Twierdzenia obu grup to bzdury.


Redaktor naczelny: Paweł Łepkowski | Edytor: Marta Narocka-Harasz  

Kontakt: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.

Stale współpracują: Zofia Brzezińska, Robert Cheda, Jacek Cieślak, Zuzanna Dąbrowska, Gaja Hajdarowicz, Grzegorz Hajdarowicz, Mariusz Janik, Krzysztof Kowalski, Hubert Kozieł, Marek Kutarba, Jakub „Gessler” Nowak, Tomasz Nowak, Joanna Matusik, Justyna Olszewska, Marcin Piasecki, Paweł Rochowicz.

©
Wróć na górę