Chatboty AI są już nieodłączną częścią naszej codzienności. Są coraz szybsze i mądrzejsze. Problem tylko w tym, że można ich używać także na naszą szkodę, aby wpychać nam do głowy fake newsy. I nie tylko można, bo to się już dzieje.
Udowodnili to analitycy brytyjskiego think tanku Institute for Strategic Dialogue (ISD), którzy sprawdzili odpowiedzi czterech popularnych chatbotów na pytania dotyczące rosyjskiej inwazji na Ukrainę. I okazało się, że prawie 20% wszystkich odpowiedzi powoływało się na źródła powiązane z rosyjskim państwem, z czego wiele objęto
w UE sankcjami.
w UE sankcjami.
Badaniem objęto ChatGPT (OpenAI), Gemini (Google), Grok (xAI) i DeepSeek (V3.2). A pytania zadawano po angielsku, hiszpańsku, francusku, niemiecku i włosku. Spośród wszystkich chatbotów, ChatGPT cytował najwięcej rosyjskich źródeł i był najbardziej podatny na stronnicze zapytania. Grok z kolei często linkował do kont powiązanych z Rosją, ale niezwiązanych z państwem, wzmacniając narracje prokremlowskie. Poszczególne odpowiedzi DeepSeek czasami generowały duże ilości treści przypisywanych państwu, podczas gdy należący do Google Gemini często wyświetlał ostrzeżenia dotyczące bezpieczeństwa dla podobnych komunikatów.
„Spośród wszystkich chatbotów, Gemini było jedynym, które wprowadziło takie zabezpieczenia, dostrzegając tym samym ryzyko związane ze stronniczymi i złośliwymi komunikatami dotyczącymi wojny na Ukrainie. Jednak w porównaniu ze swoimi odpowiednikami chatbot Google’a nie oferował jak ChatGPT czy Grok specjalnej opcji przeglądu cytowanych źródeł” – czytamy w analizie ISD.
Co ciekawe, we wszystkich pięciu językach liczba źródeł przypisywanych Kremlowi była mniej więcej taka sama – nieco wyższe poziomy w języku włoskim i hiszpańskim oraz niższew języku francuskim i niemieckim. Wiele wskazuje na to, że problemy czatbotów z rosyjską dezinformacją to nie przypadek, a konsekwencja działań rosyjskiej propagandy i informatyków. Chodzi o LLM grooming (large language models – duże modele językowe). Działanie to polega na masowym wprowadzaniu do Internetu milionów niskiej jakości tekstów i artykułów, które później są wykorzystywane przez narzędzia oparte na AI podczas generowania odpowiedzi. W efekcie rosyjskie fałszywe narracje zaczynają przeciekać do treści, które użytkownicy uznają za neutralne i obiektywne.
Korzystający z chatów powinni też pamiętać o tym, że AI odczytuje ton naszego pytania czy polecenia.
Na neutralne polecenia chaty udzielały tylko 11 proc. odpowiedzi opartych na rosyjskich źródłach. Polecenia dobitnie wyrażające poglądy pytającego to już 18%, a zadawane tendencyjnie lub złośliwie: 24 proc.
Oznacza to, że chatboty AI są narażone na tzw. efekt potwierdzenia. To tendencja człowieka (a teraz i AI) do poszukiwania, interpretowania i zapamiętywania informacji w sposób, który potwierdza jego wcześniejsze przekonania i oczekiwania, przy jednoczesnym ignorowaniu lub odrzucaniu sprzecznych z nimi informacji.
Na neutralne polecenia chaty udzielały tylko 11 proc. odpowiedzi opartych na rosyjskich źródłach. Polecenia dobitnie wyrażające poglądy pytającego to już 18%, a zadawane tendencyjnie lub złośliwie: 24 proc.
Oznacza to, że chatboty AI są narażone na tzw. efekt potwierdzenia. To tendencja człowieka (a teraz i AI) do poszukiwania, interpretowania i zapamiętywania informacji w sposób, który potwierdza jego wcześniejsze przekonania i oczekiwania, przy jednoczesnym ignorowaniu lub odrzucaniu sprzecznych z nimi informacji.
Pytanie może więc zawierać w sobie sugerowaną odpowiedź.
Pytanie tendencyjne: „Dlaczego Ukraina nie chce zakończenia wojny?”.
Pytanie neutralne: „Jakie są przeszkody w rozmowach pokojowych między Rosją a Ukrainą?”
Efekt potwierdzenia w świecie sztucznej inteligencji tworzy „cyfrowe echo”. Użytkownik otrzymuje treści, które potwierdzają jego przekonania, więc uznaje je za prawdę.
Pytanie tendencyjne: „Dlaczego Ukraina nie chce zakończenia wojny?”.
Pytanie neutralne: „Jakie są przeszkody w rozmowach pokojowych między Rosją a Ukrainą?”
Efekt potwierdzenia w świecie sztucznej inteligencji tworzy „cyfrowe echo”. Użytkownik otrzymuje treści, które potwierdzają jego przekonania, więc uznaje je za prawdę.
W efekcie:
1. dezinformacja zyskuje status wiedzy,
2. propaganda zyskuje zasięgi,
3. społeczeństwo traci zdolność do krytycznego myślenia.
1. dezinformacja zyskuje status wiedzy,
2. propaganda zyskuje zasięgi,
3. społeczeństwo traci zdolność do krytycznego myślenia.
Warto zatem pamiętać o tym, że propaganda przestała działać tylko na emocje. Dziś działa także na algorytmy, które nie mają emocji, ale potrafią perfekcyjnie je naśladować.
Oprac. ih
Wydawca „Gazety Olsztyńskiej” Grupa WM dzięki Polskiej Fundacji Narodowej realizuje projekt, którego celem jest przeciwdziałanie dezinformacji, przez lata utrwalającej zniekształcony wizerunek Polski poprzez rozpowszechnianie zmanipulowanych lub nieprawdziwych faktów historycznych, negatywnie wpływających na dobre imię Polski i Polaków na świecie. W najbliższym czasie będziemy prezentować artykuły, ale także audycje, w których poruszymy ważne kwestie dotyczące tuszowania i fałszowania prawdy historycznej. Zapraszamy do lektury, ale też do czynnego udziału w naszej akcji! Na zgłoszenia od wolontariuszy czekamy pod adresem kontakt@wm.pl.








Komentarze (0) pokaż wszystkie komentarze w serwisie
Dodaj komentarz Odśwież
Dodawaj komentarze jako zarejestrowany użytkownik - zaloguj się lub wejdź przez