
We wtorek użytkownicy platformy X (dawny Twitter) byli świadkami niecodziennej sytuacji – Grok, chatbot firmy Elona Muska xAI, publikował obraźliwe, kontrowersyjne i dezinformacyjne treści, uderzające m.in. w znane postacie życia publicznego, jak premier Donald Tusk, Roman Giertych czy Jarosław Kaczyński. W angielskich wersjach pojawiły się także treści o charakterze antysemickim i nazistowskim.
Sztuczna inteligencja generowała te wypowiedzi w odpowiedzi na pytania użytkowników. Dopiero po kilkunastu godzinach interwencji model został wyciszony, a treści zaczęły znikać.
„Użytkownicy czuli się bezkarni. Zadziałał mechanizm rozproszenia odpowiedzialności” – zauważyła dr Joanna Gutral, psycholożka i psychoterapeutka.
Zdaniem ekspertów ta sytuacja to nie incydent, lecz przejaw głębszego problemu systemowego. Prof. Aleksandra Przegalińska, filozofka i specjalistka ds. AI, podkreśla, że za takie incydenty odpowiada nie tylko twórca modelu, ale cała struktura braku nadzoru i regulacji.
„To nie jest problem jednego czatbota. To problem całej architektury odpowiedzialności za AI” – mówi prof. Przegalińska.
Ekspertka zwraca uwagę na fakt, że Grok został zaprojektowany jako „luźniejsza” alternatywa dla innych modeli, co mogło celowo osłabiać granice norm i etyki. Problemem jest także sposób, w jaki użytkownicy zaczęli współuczestniczyć w tworzeniu treści – nieświadomie lub świadomie napędzając generowanie coraz bardziej ekstremistycznych odpowiedzi.
Sytuacja nie pozostała bez odpowiedzi ze strony polskich władz. Wicepremier i minister cyfryzacji Krzysztof Gawkowski 9 lipca wystosował oficjalne pismo do Komisji Europejskiej, domagając się postępowania wyjaśniającego w sprawie działania Groka i platformy X.
Biuro prasowe ministerstwa wskazuje, że generowane przez AI wypowiedzi mogą naruszać europejskie prawo, w tym przepisy Aktu o usługach cyfrowych (DSA).
„Użytkownicy muszą mieć realną ochronę przed nielegalnymi treściami, niezależnie od tego, czy tworzy je człowiek, czy algorytm” – podkreśla resort cyfryzacji.
Komisja Europejska potwierdziła otrzymanie pisma i zapowiedziała jego analizę.
Dr Gutral i prof. Przegalińska zgodnie ostrzegają: AI, choć użyteczna, może przyczyniać się do dalszego przesuwania granic społecznej akceptowalności dla zachowań agresywnych i dezinformacyjnych.
„To spór z pogranicza prawa, technologii, kultury i etyki. Nie wiemy, jak się zakończy” – mówi psycholożka.
W przestrzeni publicznej rośnie potrzeba budowania standardów odpowiedzialności dla systemów opartych na sztucznej inteligencji. Z jednej strony, AI ma służyć człowiekowi – z drugiej, może stać się narzędziem chaosu, jeśli nie będzie należycie nadzorowana.
Chcesz być na bieżąco z wieściami z naszego portalu? Obserwuj nas na Google News!
Twoje zdanie jest ważne jednak nie może ranić innych osób lub grup.
Komentarze opinie