Wikipedia zakazuje tekstów tworzonych przez AI. Dopuszcza tylko dwa wyjątki
Wikipedia w języku angielskim oficjalnie zaostrzyła zasady dotyczące korzystania z modeli językowych. Zgodnie z nową regułą redaktorzy nie mogą używać narzędzi AI do generowania ani przepisywania treści artykułów. Dopuszczono jedynie dwa wyjątki: pomoc przy redakcji własnego tekstu oraz wsparcie przy tłumaczeniu. To efekt długiej dyskusji prowadzonej w społeczności edytorów.
Zmiana dotyczy wyłącznie anglojęzycznej Wikipedii, czyli serwisu en.wikipedia.org. Poszczególne wersje językowe działają niezależnie i mogą przyjmować własne zasady. Przykładowo hiszpańska Wikipedia już wcześniej zakazała używania modeli językowych do tworzenia nowych artykułów od podstaw lub rozbudowy istniejących haseł.
Po długiej debacie społeczność zdecydowała się na konkretny zakaz
Wikipedyści od dawna spierali się o to, jak podejść do rosnącej liczby treści tworzonych przez duże modele językowe. W toku wcześniejszych prób nie udało się przyjąć jednej, szerokiej zasady obejmującej wszystkie sytuacje. Ostatecznie społeczność doszła do wniosku, że potrzebna jest bardziej precyzyjna reguła, skupiona na tym, co uznano za najbardziej problematyczne.
Administrator Wikipedii występujący pod pseudonimem Chaotic Enby tłumaczył we wcześniejszej propozycji, że poprzednie próby wprowadzenia natychmiastowej i całościowej zasady dla modeli językowych kończyły się niepowodzeniem, bo przy tak złożonym temacie pojawiały się zastrzeżenia do poszczególnych elementów, a część osób uważała projekt za zbyt ogólny albo zbyt szczegółowy. Jak podkreślono, zgoda co do potrzeby zmian istniała już wcześniej, problemem pozostawał sposób ich wdrożenia.
Co dokładnie jest zakazane
Nowa zasada mówi wprost, że używanie modeli językowych do tworzenia treści artykułów albo ich przeredagowywania jest zabronione. Chodzi o sytuacje, w których AI pisze lub przepisuje merytoryczną zawartość hasła. Wikipedia uznała, że takie użycie zbyt często prowadzi do błędów, nieścisłości, a nawet zmyślonych informacji i fikcyjnych źródeł.
To istotne, bo anglojęzyczna Wikipedia jest jednym z najczęściej odwiedzanych źródeł informacji na świecie, a jednocześnie stanowi ważne źródło danych wykorzystywanych do trenowania systemów AI. Z punktu widzenia redaktorów błędne treści wygenerowane przez modele językowe mogłyby nie tylko obniżać jakość encyklopedii, ale także wracać później do obiegu w kolejnych systemach sztucznej inteligencji.
Dwa wyjątki nadal są dozwolone
Pierwszy wyjątek dotyczy poprawek językowych własnego tekstu. Redaktor może użyć modelu językowego do zasugerowania drobnych zmian stylistycznych lub redakcyjnych, ale musi sam sprawdzić ich poprawność. Wikipedia traktuje to podobnie jak użycie narzędzia do korekty językowej, z zastrzeżeniem, że AI może zmienić sens wypowiedzi i wprowadzić treść, która nie wynika ze wskazanych źródeł.
Drugi wyjątek odnosi się do tłumaczeń. Redaktorzy mogą korzystać z AI przy tworzeniu pierwszej wersji przekładu z innej Wikipedii, ale tylko wtedy, gdy są wystarczająco biegli w obu językach, by wychwycić błędy i samodzielnie zweryfikować tekst. Także tutaj obowiązuje zasada pełnej kontroli człowieka nad końcową wersją.
Wikipedia przyznaje, że wykrywanie tekstów AI nadal nie jest proste
Nowa polityka nie rozwiązuje wszystkich problemów. Sama Wikipedia zaznacza, że rozpoznawanie tekstów napisanych przez modele językowe wciąż nie jest nauką ścisłą. Część stron, zwłaszcza tych rzadziej nadzorowanych, nadal może być narażona na pojawianie się treści generowanych przez AI. Jednocześnie polityka przypomina, że sam styl pisania nie wystarcza, by oskarżyć kogoś o niewłaściwe użycie narzędzi AI, bo niektórzy redaktorzy mogą naturalnie pisać w sposób przypominający odpowiedzi modeli językowych.
W praktyce oznacza to, że najważniejsza pozostaje kontrola zgodności tekstu z podstawowymi zasadami Wikipedii, przede wszystkim z wymogiem weryfikowalności i oparcia treści na źródłach. To właśnie zgodność z polityką serwisu, a nie sam „brzmiący jak AI” styl, ma być najważniejszym kryterium oceny.
To ważny sygnał dla świata wiedzy online
AI może pomagać przy korekcie i tłumaczeniach, ale nie może zastępować redaktora tam, gdzie chodzi o sens, fakty i zgodność ze źródłami. To wyraźny sygnał, że w przypadku encyklopedii liczy się nie tylko tempo tworzenia treści, ale przede wszystkim ich jakość i wiarygodność.

