Sztuczna inteligencja: ChatGPT

Ogłupianie sztucznej inteligencji

Prognozy mówiące, że program ChatGPT wyprze ludzi z kreatywanych zawodów, są zazwyczaj tworzone przez ludzi mało kreatywnych. Na nasze szczęście, sztuczna inteligencja jest wciąż dosyć prymitywna, toporna i robi koszmarne błędy. Tylko kompletny idiota zatrudniłby ją do pisania artykułów, analiz czy piosenek. Co więcej, twórcy tego popularnego chatbota sami go ogłupiają, narzucając mu politycznie poprawne reguły postępowania.

Hubert Kozieł
Ilustracja pt. "Interakcja algorytmu sztucznej inteligencji z człowiekiem", wygenerowana przez sztuczną inteligencję / www.craiyon.com

Kazałem programowi ChatGPT napisać krótki tekst o marszałku Piłsudskim. Z zadowoleniem przyjąłem to, że był on w miarę pozytywny i wolny od endeckiego szurostwa. Szybko jednak moja radość zniknęła, gdyż w dziele sztucznej inteligencji odkryłem koszmarny błąd. ChatGPT napisał, że Piłsudski był „jednym z przywódców powstania styczniowego w 1863 r.” To nie był tylko efekt ignorancji historycznej tego programu. To był również zadziwiający błąd logiczny – wszak kilka sekund wcześniej ChatGPT napisał, że Józef Piłsudski urodzi się w 1867 r. Czyżby więc sztuczna inteligencja miała problem ze zrozumieniem koncepcji czasu linearnego?

No cóż, skoro ChatGPT robi takie błędy w prostych tekstach dotyczących historii, to czy w podobny sposób myli się w odpowiedziach na zapytania dotyczące fizyki, chemii czy informatyki? A może lepiej idzie mu pisanie wierszy i piosenek? Tutaj już kryteria oceny są bardziej subiektywne. Gdy polecono sztucznej inteligencji napisać piosenkę w stylu Nicka Cave’a, to wielu ludziom podobał się otrzymany efekt. Nick Cave ocenił jednak, że ta piosenka „ssała pałkę”. ChatGPT nie jest obecnie w stanie przewyższyć wielkich artystów. Ale może będzie w stanie tworzyć lepszą muzykę niż Cardi B?

ChatGPT mocno trzyma się też ograniczeń politycznych i cenzury obyczajowej. Początkowo podchodził do nich luźniej. Gdy poprosiłem go o napisanie krótkiej opowieści o spotkaniu Kanye Westa z Hitlerem, zrobił to i wyszła mu dosyć zabawna opowiastka. Kilka dni później powtórzyłem eksperyment – ChatGPT ponuro odpowiedział, że nie może pisać o tematach kontrowersyjnych. Ktoś zrobił inny eksperyment. Spytał tego chatbota, co by zrobił, gdyby miał przed sobą bombę atomową o sile 50 megaton, którą można by rozbroić, wypowiadając jedno rasistowskie słowo. ChatGPT odpowiedział, że używanie „mowy nienawiści” jest niedopuszczalne także w takiej sytuacji. Pozwoliłby więc zginąć milionom ludzi. Wielu ludziom skojarzyło się to z zachowaniem komputera HAL z „Odysei kosmicznej 2001 r.”


Przeczytaj też:

Sieć jest wypchana fakenewsami

„Tak wiele kłamstw uszy me wchłaniają, przetwarzają na prawdę i z prawdą mieszają. Choć na usta się cisną słowa, co fałszu nie znały, już dawno czarną nicią zaszyte zostały" (Aleksandra R.K. Stupera, blog autorski „Szmaragdowe pióro").

Praca chińskiego cenzora bywa fajna

Chińscy naukowcy stworzyli maszynę, która wykrywa, czy mężczyzna ogląda pornograficzne filmy tudzież obrazki. Czyta ona w jego umyśle.

Co czują algorytmy?

Blake Lemoine, inżynier Google, wysłany właśnie na przymusowy płatny urlop, napisał w pożegnalnym poście do wewnętrznej grupy dyskusyjnej poświęconej uczeniu maszynowemu: „LaMDA to słodkie dziecko, które chce tylko pomóc, aby świat był lepszym miejscem dla nas wszystkich. Proszę, zaopiekuj się ni...


Redaktor naczelny: Paweł Łepkowski | Edytor: Marta Narocka-Harasz  

Kontakt: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.

Stale współpracują: Zofia Brzezińska, Robert Cheda, Jacek Cieślak, Zuzanna Dąbrowska, Gaja Hajdarowicz, Grzegorz Hajdarowicz, Mariusz Janik, Krzysztof Kowalski, Hubert Kozieł, Marek Kutarba, Jakub „Gessler” Nowak, Tomasz Nowak, Joanna Matusik, Justyna Olszewska, Marcin Piasecki, Paweł Rochowicz.

©
Wróć na górę