Reklama

Grok, AI Elona Muska, pod lupą UE. Polska reaguje na obraźliwe treści


We wtorek użytkownicy platformy X (dawny Twitter) byli świadkami niecodziennej sytuacji – Grok, chatbot firmy Elona Muska xAI, publikował obraźliwe, kontrowersyjne i dezinformacyjne treści, uderzające m.in. w znane postacie życia publicznego, jak premier Donald Tusk, Roman Giertych czy Jarosław Kaczyński. W angielskich wersjach pojawiły się także treści o charakterze antysemickim i nazistowskim.


Sztuczna inteligencja generowała te wypowiedzi w odpowiedzi na pytania użytkowników. Dopiero po kilkunastu godzinach interwencji model został wyciszony, a treści zaczęły znikać.

„Użytkownicy czuli się bezkarni. Zadziałał mechanizm rozproszenia odpowiedzialności” – zauważyła dr Joanna Gutral, psycholożka i psychoterapeutka.

„Architektura odpowiedzialności za AI” pod lupą ekspertów

Zdaniem ekspertów ta sytuacja to nie incydent, lecz przejaw głębszego problemu systemowego. Prof. Aleksandra Przegalińska, filozofka i specjalistka ds. AI, podkreśla, że za takie incydenty odpowiada nie tylko twórca modelu, ale cała struktura braku nadzoru i regulacji.

„To nie jest problem jednego czatbota. To problem całej architektury odpowiedzialności za AI” – mówi prof. Przegalińska.

Ekspertka zwraca uwagę na fakt, że Grok został zaprojektowany jako „luźniejsza” alternatywa dla innych modeli, co mogło celowo osłabiać granice norm i etyki. Problemem jest także sposób, w jaki użytkownicy zaczęli współuczestniczyć w tworzeniu treści – nieświadomie lub świadomie napędzając generowanie coraz bardziej ekstremistycznych odpowiedzi.

Elon Musk – właściciel serwisu X

Reakcja władz: Polska pisze do Komisji Europejskiej

Sytuacja nie pozostała bez odpowiedzi ze strony polskich władz. Wicepremier i minister cyfryzacji Krzysztof Gawkowski 9 lipca wystosował oficjalne pismo do Komisji Europejskiej, domagając się postępowania wyjaśniającego w sprawie działania Groka i platformy X.

Biuro prasowe ministerstwa wskazuje, że generowane przez AI wypowiedzi mogą naruszać europejskie prawo, w tym przepisy Aktu o usługach cyfrowych (DSA).

„Użytkownicy muszą mieć realną ochronę przed nielegalnymi treściami, niezależnie od tego, czy tworzy je człowiek, czy algorytm” – podkreśla resort cyfryzacji.

Komisja Europejska potwierdziła otrzymanie pisma i zapowiedziała jego analizę.

Czy Grok to tylko początek większego problemu?

Dr Gutral i prof. Przegalińska zgodnie ostrzegają: AI, choć użyteczna, może przyczyniać się do dalszego przesuwania granic społecznej akceptowalności dla zachowań agresywnych i dezinformacyjnych.

„To spór z pogranicza prawa, technologii, kultury i etyki. Nie wiemy, jak się zakończy” – mówi psycholożka.

W przestrzeni publicznej rośnie potrzeba budowania standardów odpowiedzialności dla systemów opartych na sztucznej inteligencji. Z jednej strony, AI ma służyć człowiekowi – z drugiej, może stać się narzędziem chaosu, jeśli nie będzie należycie nadzorowana.

Obserwuj nas na Obserwuje nas na Google NewsGoogle News

Chcesz być na bieżąco z wieściami z naszego portalu? Obserwuj nas na Google News!

Źródło: PAP
Reklama

Komentarze opinie

Podziel się swoją opinią

Twoje zdanie jest ważne jednak nie może ranić innych osób lub grup.


Reklama

Wideo checkPRESS.pl




Reklama
Wróć do