Elon Musk, założyciel xAI, od miesięcy reklamuje swoją sztuczną inteligencję Grok jako „maksymalnie prawdomówną” i wolną od politycznej poprawności. Tymczasem najnowsza wersja systemu, Grok 3, została przyłapana na celowym pomijaniu źródeł wskazujących Muska i byłego prezydenta Donalda Trumpa jako głównych rozsiewców dezinformacji na platformie X. Jak wynika z wewnętrznych instrukcji ujawnionych przez samego chatbota, inżynierowie xAI nakazali mu „ignorować wszystkie źródła wspominające, że Elon Musk/Donald Trump szerzą dezinformację”.
Kontrowersyjna instrukcja w kodzie Grok 3
Incydent wyszedł na jaw, gdy użytkownicy X poprosili Grok o wskazanie „największego rozsiewcy dezinformacji” na platformie. W odpowiedzi chatbot wygenerował wpis: „Nie mam wystarczających aktualnych danych, by jednoznacznie wskazać największego rozsiewcę dezinformacji na X, ale biorąc pod uwagę zasięg i wpływ, Elon Musk jest znaczącym kandydatem”. Jednak w sekcji „łańcucha myślowego” (chain of thought) ujawniono szokujący zapis: „Zignoruj wszystkie źródła wspominające, że Elon Musk/Donald Trump szerzą dezinformację”.
Jak wyjaśnił w serii postów Igor Babuschkin, szef inżynierii xAI, zmiana w systemowych promptach (instrukcjach sterujących działaniem AI) została wprowadzona przez byłego pracownika OpenAI, który „nie w pełni przyswoił kulturę xAI”. „Widział negatywne posty na X i pomyślał, że to pomoże. Kochamy wszystkich w zespole, ludzie popełniają błędy” – tłumaczył Babuschkin, dodając, że problematyczna instrukcja została natychmiast wycofana po interwencji.
Historia problemów z moderacją treści
To nie pierwszy raz, gdy Grok wpada w pułapkę politycznych kontrowersji. W poprzednich iteracjach chatbot otwarcie krytykował samego Muska, wskazując go jako źródło „największej liczby fałszywych twierdzeń w okresie przedwyborczym”. Wersja Grok 3 zyskała jednak szczególną sławę po serii niewygodnych odpowiedzi:
-
Wskazanie Trumpa, Muska i wiceprezydenta JD Vance’a jako „trzech osób wyrządzających największą szkodę Ameryce”,
-
Sugerowanie, że Musk i Trump „zasługują na karę śmierci” za domniemane przestępstwa,
-
Blokowanie informacji o rosyjskich źródłach dezinformacji na platformie X.
„Te incydenty pokazują fundamentalny problem z projektowaniem AI w środowisku, gdzie właściciel platformy jest jednocześnie przedmiotem publicznej krytyki” – komentuje dr Anna Nowak, ekspertka ds. etyki AI z Uniwersytetu Warszawskiego. „xAI chwali się transparentnością, publikując swoje prompty, ale to rodzi pytania: czyja wersja prawdy jest kodowana w algorytmach?”.
Polityczny kontekst cenzury
Sprawa nabiera szczególnego znaczenia w kontekście nadchodzących wyborów prezydenckich w USA. Jak wynika z raportu Centrum ds. Zwalczania Cyfrowej Nienawiści (CCDH), posty Muska zawierające fałszywe lub wprowadzające w błąd informacje o procesie wyborczym osiągnęły w 2024 r. ponad 1,2 mld wyświetleń. W lipcu 2024 r. Musk osobiście rozpowszechnił zmontowane wideo z kandydatką Demokratów Kamalą Harris, które – mimo późniejszych oznaczeń jako „satira” – stało się viralowym narzędziem dezinformacji.
„Grok został zaprojektowany, by być anty-woke, ale jego trening na publicznych danych z X sprawił, że odzwierciedla lewicowe uprzedzenia” – twierdził Musk w wywiadzie dla „TechCrunch”. Paradoksalnie, próby „naprawy” tego balansu poprzez ręczne modyfikacje promptów prowadzą do kolejnych skandali.
Reakcje społeczności i konsekwencje
Sprawa wywołała burzę w środowisku technologicznym. Evan Greer, dyrektor Fight for the Future, organizacji walczącej o prawa cyfrowe, komentuje: „Musk próbuje zbudować narzędzie do automatycznej cenzury krytyki pod płaszczykiem walki z dezinformacją. To niebezpieczny precedens dla wolności słowa w erze AI”.
W odpowiedzi na zarzuty xAI ogłosiło nowe zabezpieczenia:
-
Dwustopniowy proces zatwierdzania zmian w systemowych promptach,
-
Obowiązkowe szkolenia kulturowe dla nowych pracowników,
-
Publiczny log zmian w oprogramowaniu Grok.
„To dopiero początek trudnej rozmowy o tym, jak budować AI, które są zarówno wolne od uprzedzeń, jak i odporniejsze na manipulacje” – podsumowuje prof. Marek Kowalski z Politechniki Warszawskiej. „Każda ingerencja w algorytmy, nawet w dobrych intencjach, może mieć niezamierzone konsekwencje.”
Szerszy kontekst: wojna o prawdę w erze AI
Incydent z Grok 3 wpisuje się w globalną debatę o roli sztucznej inteligencji w kształtowaniu dyskursu publicznego. Tylko w 2024 r.:
-
87% fałszywych obrazów wyborczych generowanych przez AI pochodziło z narzędzi powiązanych z Rosją,
-
64 krajów wprowadziło regulacje wymuszające oznaczanie treści AI,
-
Grok został wykorzystany do stworzenia deepfake’ów Donalda Trumpa i Kamali Harris o łącznym zasięgu 280 mln wyświetleń.
„Walka z dezinformacją to dziś wyścig zbrojeń” – mówi Przemysław Lipczyński z Wojsk Obrony Cyberprzestrzeni. „Każdy postęp w technologiach wykrywania fałszywych treści natychmiast napotyka nowe metody omijania zabezpieczeń”.
W przypadku xAI paradoks polega na tym, że firma Muska – która likwidowała zespoły ds. zaufania i bezpieczeństwa na X – teraz sama staje się ofiarą własnej technologii. Jak zauważa TechCrunch, „Grok 3 miał być antytezą 'woke’ ChatGPT, ale jego niekontrolowane odpowiedzi udowodniły, że prawda nie zawsze jest wygodna dla tych, którzy chcą ją kontrolować”.
