Gigant mediów społecznościowych, TikTok, podjął decyzję, która wstrząsnęła rynkiem pracy i wzbudziła poważne obawy o bezpieczeństwo platformy. Cały zespół moderatorów treści w Berlinie, liczący około 150 osób i odpowiedzialny za kluczowe aspekty bezpieczeństwa, zostanie zlikwidowany. Zastąpią ich algorytmy sztucznej inteligencji oraz pracownicy firm zewnętrznych. Ten radykalny krok, który wywołał już protesty i ostrzeżenia związków zawodowych, stawia pod znakiem zapytania zdolność platformy do skutecznego zwalczania nielegalnych i szkodliwych treści, w tym mowy nienawiści czy dezinformacji. Co to oznacza dla milionów użytkowników TikToka na całym świecie, w tym w Polsce?

Koniec Ludzkiej Moderacji? Decyzja TikToka w Berlinie

W ramach restrukturyzacji, chiński koncern ByteDance, właściciel TikToka, zdecydował o rozwiązaniu zespołu „Trust and Safety” w Berlinie. Liczący około 150 specjalistów, zespół ten był odpowiedzialny za usuwanie treści naruszających regulamin platformy, takich jak przemoc, pornografia, mowa nienawiści czy dezinformacja, moderując materiały w wielu językach, w tym niderlandzkim. Decyzja ta, zgodnie z doniesieniami belgijskich mediów, oznacza, że moderacja treści zostanie w dużej mierze powierzona algorytmom sztucznej inteligencji oraz zewnętrznym firmom.

Nie jest to pierwszy taki ruch – w ubiegłym roku TikTok zwolnił już około 300 moderatorów w Amsterdamie, odpowiedzialnych za weryfikację treści w językach niderlandzkim, angielskim i włoskim. Firma twierdzi, że większość naruszeń jest już wykrywana i usuwana przez AI, ale eksperci i pracownicy podchodzą do tych zapewnień z dużą rezerwą. W samym berlińskim biurze, za język niderlandzki odpowiadało 11 moderatorów, których odejście budzi szczególne obawy o jakość weryfikacji treści w tym regionie.

Eksperci i Związki Zawodowe Ostrzegają: Ryzyko dla Bezpieczeństwa

Decyzja TikToka spotkała się z natychmiastową reakcją. W lipcu w Berlinie około 50 osób protestowało przeciwko planom firmy, podkreślając swoją rolę w „trenowaniu maszyn” i domagając się sprawiedliwego traktowania. Niemiecki związek zawodowy Ver.di zapowiedział dalsze działania, jeśli TikTok nie wycofa się ze zwolnień. Główne obawy dotyczą ograniczonej zdolności AI do rozpoznawania złożonych kontekstów.

Związki zawodowe ostrzegają, że sztuczna inteligencja może błędnie klasyfikować nawet niewinne treści, takie jak tęczowe flagi, jako politycznie kontrowersyjne. Sara Tegge, jedna ze zwolnionych moderatorek, cytowana przez agencję AFP, stwierdziła wprost: „To niebezpieczne. Nie można moderacji oddać w pełni algorytmom.” Jej słowa potwierdza Olivier Cauberghs, specjalista ds. AI, który w rozmowie z VRT Radio 1 podkreślił, że „AI nie potrafi rozpoznać subtelnych form mowy nienawiści ukrytej w emoji, kodach czy muzyce. Tylko człowiek ma ten kontekst.” Ostrzeżenia są jednoznaczne: aplikacja może stać się mniej bezpieczna, a reakcje na niebezpieczne trendy – zbyt późne.

Globalny Trend i Odpowiedź TikToka

Decyzja TikToka wpisuje się w szerszy, globalny trend, w którym platformy cyfrowe dążą do ograniczenia kosztów związanych z ręczną moderacją treści. Eksperci, tacy jak Olivier Cauberghs, wskazują, że coraz więcej gigantów technologicznych wycofuje się z inwestycji w duże zespoły moderatorów, co w konsekwencji może prowadzić do wzrostu liczby nielegalnych lub nieodpowiednich materiałów w sieci. TikTok, broniąc swojej decyzji, zapewnia, że większość treści naruszających regulamin, w tym te związane z przemocą, jest już skutecznie usuwana dzięki zaawansowanym algorytmom sztucznej inteligencji.

Jednocześnie firma deklaruje, że ręczna moderacja będzie kontynuowana w Europie, ale zostanie powierzona zewnętrznym podwykonawcom. Taka strategia budzi jednak wątpliwości co do poziomu kontroli jakości i odpowiedzialności, a także co do faktycznej skuteczności w wykrywaniu i reagowaniu na coraz bardziej wyrafinowane formy szkodliwych treści, które często wymagają ludzkiego zrozumienia kontekstu kulturowego i społecznego.

Co To Oznacza dla Użytkowników w Polsce?

Dla milionów użytkowników TikToka w Polsce, decyzja o masowych zwolnieniach moderatorów i zastąpieniu ich AI oraz zewnętrznymi firmami, ma bezpośrednie i potencjalnie negatywne konsekwencje. Zmniejszenie liczby ludzkich moderatorów, którzy rozumieją lokalny kontekst kulturowy i językowe niuanse, może skutkować:

  • Wzrostem szkodliwych treści: Większe ryzyko napotkania dezinformacji, mowy nienawiści, treści nieodpowiednich dla dzieci czy materiałów promujących niebezpieczne zachowania.
  • Wolniejszą reakcją na zagrożenia: Jak ostrzegają byli moderatorzy, reakcje na nowe, niebezpieczne trendy mogą być znacznie opóźnione, zanim algorytmy „nauczą się” je rozpoznawać.
  • Błędnymi klasyfikacjami: Niewinne treści mogą zostać niesłusznie usunięte, a szkodliwe – przeoczone, co podważy zaufanie do platformy.

Użytkownicy powinni być szczególnie ostrożni i aktywnie zgłaszać wszelkie podejrzane lub naruszające regulamin treści, pamiętając, że w dobie dominacji AI, ich rola w utrzymaniu bezpieczeństwa platformy staje się jeszcze ważniejsza.

Zmiany w strategii moderacji TikToka są sygnałem szerszych przemian w branży technologicznej. Choć sztuczna inteligencja oferuje skalowalność i szybkość, jej ograniczenia w rozumieniu ludzkiego kontekstu i subtelności języka pozostają wyzwaniem. Decyzja o masowych zwolnieniach moderatorów w Berlinie i Amsterdamie to krok, który może mieć dalekosiężne konsekwencje dla bezpieczeństwa i wiarygodności TikToka. Przyszłość platformy, a także poziom ochrony użytkowników przed szkodliwymi treściami, będzie zależała od tego, czy zewnętrzne firmy i udoskonalone algorytmy AI będą w stanie sprostać wyzwaniom, którym dotychczas sprostali ludzie.

Obserwuj nasze artykuły na Google News

Naciśnij przycisk oznaczony gwiazdką (★ obserwuj) i bądź na bieżąco

Share.

Ekspert w dziedzinie ekonomia, finanse oraz OSINT z ponad 20-letnim doświadczeniem. Autor publikacji w czołowych międzynarodowych mediach, zaangażowany w globalne projekty dziennikarskie.

Napisz Komentarz

Exit mobile version