fbpx

Algorytm wykryje fake newsy na podstawie literackiego stylu danego tekstu

Nad algorytmem, który na podstawie cech stylistycznych tekstu informacyjnego wykryje, czy jest on fałszywy lub zmanipulowany, pracuje dr inż. Piotr Przybyła z PAN. Jego zespół chce w ten sposób nie tylko wykrywać fake newsy, ale też boty w mediach społecznościowych.

Algorytmy, które wykrywają zmanipulowane lub szkodliwe treści, nie są nowością. Korzystają z nich na przykład media społecznościowe, takie jak Facebook czy Twitter. Jednak wielkie korporacje niechętnie dzielą się informacjami, na jakiej zasadzie one pracują.

„Brakuje w tej kwestii transparentności z ich strony” – uważa dr inż. Piotr Przybyła z Instytutu Podstaw Informatyki PAN. Zespół pod jego kierownictwem zajął się budową algorytmu, który jest w dużej mierze nowatorski, bo do tej pory naukowcy skupiali się na analizie prawdziwości faktów podanych w treści. Przybyła stwierdził, że warto przyjrzeć się stylowi tekstów udostępnianych online, w formie artykułów newsowych i postów w mediach społecznościowych.

„Chcemy sprawdzić, jaka będzie wydajność oceny wiarygodności dokumentu na podstawie cech czysto stylistycznych” – dodał.

Podkreśla, że jego celem jest stworzenie takiego algorytmu, który nie tylko wykryje fake newsy (które są najbardziej jaskrawym przykładem zmanipulowanych treści), ale też innych technik propagandowych i botów.

W jaki sposób powstaje algorytm opracowywany przez badacza? Najpierw jego zespół zebrał dużą bazę anglojęzycznych tekstów (ok. 100 tys.), które pochodzą m.in. od organizacji zajmujących się weryfikacją faktów (tzw. organizacje fact-checkingowe). Jednocześnie algorytm otrzymał informacje o tym, jakich cech użyć do rozróżniania tekstów wiarygodnych i niewiarygodnych.

(…)

Naukowcy sami narzucili algorytmowi kategorie słów, które ma on uwzględniać, po to, aby łatwiej dało się kontrolować jego działanie. Zaobserwowano trzy główne stylistyczne kategorie informacji niewiarygodnych. Po pierwsze to słowa opisujące osąd i dotyczące wartości i celów moralnych. Po drugie to słowa opisujące władzę, szacunek i wywieranie wpływu. Trzecia grupa to słowa silnie nacechowane emocjami – zarówno pozytywnymi, jak i negatywnymi.

Z kolei wiarygodne teksty powołują się na inne źródła i przedstawiają liczne dane.

„Oczywiście to bardzo duże uproszczenie, bo w sumie wyróżniliśmy ponad 900 cech, którymi kieruje się nasz algorytm” – dodaje.

Przybyła skupił się na testowaniu metody dla języka angielskiego, bo jest on znany wszystkim badaczom zajmującym się tą dziedziną. „Łatwiejszy jest też dostęp do dużej liczby dobrze opracowanych i sprawdzonych danych, co usprawnia naszą pracę” – zauważa. Dopiero w dalszej kolejności – gdy założenia modelu okażą się słuszne – będzie można stworzyć analogiczny algorytm dla innych języków, w tym polskiego.

Algorytm radzi sobie już w 80-90 proc., ale taka skuteczność nie jest dla badacza zadowalająca. Dlatego dalej trwają pracę nad jego udoskonalaniem. Kolejnym etapem projektu będzie testowanie jego działania na użytkownikach internetu. Naukowcy chcą sprawdzić, jak będzie on wpływał na postrzeganie wiarygodności treści przez człowieka.

 

Źródło: naukawpolsce.pap.pl  Szymon Zdziebłowski

 

Dodaj komentarz