Kazałem programowi ChatGPT napisać krótki tekst o marszałku Piłsudskim. Z zadowoleniem przyjąłem to, że był on w miarę pozytywny i wolny od endeckiego szurostwa. Szybko jednak moja radość zniknęła, gdyż w dziele sztucznej inteligencji odkryłem koszmarny błąd. ChatGPT napisał, że Piłsudski był „jednym z przywódców powstania styczniowego w 1863 r.” To nie był tylko efekt ignorancji historycznej tego programu. To był również zadziwiający błąd logiczny – wszak kilka sekund wcześniej ChatGPT napisał, że Józef Piłsudski urodzi się w 1867 r. Czyżby więc sztuczna inteligencja miała problem ze zrozumieniem koncepcji czasu linearnego?
No cóż, skoro ChatGPT robi takie błędy w prostych tekstach dotyczących historii, to czy w podobny sposób myli się w odpowiedziach na zapytania dotyczące fizyki, chemii czy informatyki? A może lepiej idzie mu pisanie wierszy i piosenek? Tutaj już kryteria oceny są bardziej subiektywne. Gdy polecono sztucznej inteligencji napisać piosenkę w stylu Nicka Cave’a, to wielu ludziom podobał się otrzymany efekt. Nick Cave ocenił jednak, że ta piosenka „ssała pałkę”. ChatGPT nie jest obecnie w stanie przewyższyć wielkich artystów. Ale może będzie w stanie tworzyć lepszą muzykę niż Cardi B?
ChatGPT mocno trzyma się też ograniczeń politycznych i cenzury obyczajowej. Początkowo podchodził do nich luźniej. Gdy poprosiłem go o napisanie krótkiej opowieści o spotkaniu Kanye Westa z Hitlerem, zrobił to i wyszła mu dosyć zabawna opowiastka. Kilka dni później powtórzyłem eksperyment – ChatGPT ponuro odpowiedział, że nie może pisać o tematach kontrowersyjnych. Ktoś zrobił inny eksperyment. Spytał tego chatbota, co by zrobił, gdyby miał przed sobą bombę atomową o sile 50 megaton, którą można by rozbroić, wypowiadając jedno rasistowskie słowo. ChatGPT odpowiedział, że używanie „mowy nienawiści” jest niedopuszczalne także w takiej sytuacji. Pozwoliłby więc zginąć milionom ludzi. Wielu ludziom skojarzyło się to z zachowaniem komputera HAL z „Odysei kosmicznej 2001 r.”