Zalecenia etyczne dotyczące AI
Odpowiedzialne wykorzystanie AI w badaniach i publikacjach:
Wytyczne etyczne dla badaczy i studentów WNE U
Wstęp
Narzędzia sztucznej inteligencji (AI) – od algorytmów uczenia maszynowego po modele generatywne takie jak ChatGPT – są coraz częściej wykorzystywane na różnych etapach badań ekonomicznych. Choć te narzędzia mogą zwiększać produktywność i pomagać pogłębić analizę, ich użycie nie zwalnia z odpowiedzialności etycznej i wiąże się z unikalnymi wyzwaniami. Badacze Wydziału Nauk Ekonomicznych Uniwersytetu Warszawskiego muszą dbać o to, żeby AI było wykorzystywane w sposób odpowiedzialny, przejrzysty i zgodny ze standardami naukowymi. Niniejsze wytyczne podsumowują kluczowe kwestie etyczne związane z wykorzystywaniem AI do analizy danych, przeglądów literatury i pracy z tekstem, w oparciu o międzynarodowe zasady, dobre praktyki oraz najnowsze raporty.
Etyczne wykorzystanie AI na różnych etapach procesu badawczego
Badacze powinni integrować narzędzia AI w sposób, który wspiera ludzką wiedzę, a nie ją zastępuje. Na każdym etapie – od zbierania danych, przez analizę, aż po pracę z tekstem – należy zachować nadzór ludzki i krytyczne podejście (EC Digital Strategy). Najważniejsze zasady obejmują:
- Analizy danych i modelowanie: Korzystaj z analiz opartych na AI (w tym modeli uczenia maszynowego) w sposób odpowiedzialny. Zawsze weryfikuj wyniki uzyskane za pomocą AI tradycyjnymi metodami oraz wiedzą merytoryczną. Nigdy ślepo nie ufaj zautomatyzowanym wynikom. Podejmowanie ważnych decyzji musi podlegać ludzkiemu osądowi (EC Digital Strategy, Korinek 2023), a badacz musi każdorazowo być w stanie wyjaśnić oraz uzasadnić wszelkie metodyki wspomagane przez AI.
- Przeglądy literatury: Narzędzia AI mogą pomóc w przeglądach obszernej literatury, a nawet w sporządzaniu podsumowań. Należy jednak weryfikować wszelkie odniesienia i streszczenia dostarczane przez AI – modele językowe czasem generują wiarygodnie brzmiące, ale nieprawidłowe lub nawet sfabrykowane informacje (WAME). Upewnij się, że ważne prace nie zostały pominięte z powodu błędów lub stronniczości danych treningowych AI.
- Pisanie i redagowanie tekstów: Traktuj teksty lub tłumaczenia generowane przez AI (np. poprawę języka lub wstępne szkice) jako propozycję wymagającą dokładnej weryfikacji. Pamiętaj, że to badacz ponosi pełną odpowiedzialność za całą treść pracy (WAME). Redaguj zatem tekst generowany przez AI, dbając o jasność, dokładność i oryginalność. Nie pozwalaj AI na wprowadzanie niesprawdzonych informacji – wszystkie fakty i cytaty muszą być zweryfikowane przez autora. Narzędzia AI mogą być pomocą przy pracy z tekstem, lecz ostateczna odpowiedzialność zawsze spoczywa na człowieku (Korinek 2023).
Transparentność i ujawnianie wsparcia AI
Transparentność jest podstawową zasadą etyki badawczej (UNESCO, EC Digital Strategy). Badacze muszą jasno ujawnić, czy i w jaki sposób użyto narzędzi AI w badaniu lub pisaniu pracy. Jest to zgodne z Europejskim Kodeksem Postępowania w Zakresie Rzetelności Badań Naukowych, który wymaga zgłaszania metod użytych w pracy, w tym korzystania z usług zewnętrznych lub sztucznej inteligencji i zautomatyzowanych narzędzi.
- Przestrzeganie zasad czasopism i wydawców: Wiele czasopism wymaga potwierdzenia, czy użyto AI. Międzynarodowe organizacje etyki redakcyjnej (np. COPE/WAME) zalecają, aby autorzy wyraźnie ujawniali pomoc AI oraz szczegóły jej użycia (nazwa narzędzia, wersja, sposób użycia) (WAME). Pamiętaj, by zawsze sprawdzać i przestrzegać szczegółowych wytycznych czasopisma docelowego (The Econometric Society, 2025).
- Wykazywanie narzędzi AI w metodologii: W sekcji metodologicznej lub podziękowaniach pracy, zgodnie z wytycznymi czasopisma, jasno określ, jakie narzędzia AI zastosowano (np. oprogramowanie, algorytm, model językowy) oraz w jakim celu (analiza danych, generowanie streszczeń, korekta językowa). Na przykład, jeśli wykorzystano ChatGPT do przygotowania jakiejś części pracy, należy to wskazać w podziękowaniach lub przypisie – zgodnie z wytycznymi czasopisma.
- Nie wymieniaj AI jako autora: Autorstwo wiąże się z odpowiedzialnością, której AI nie może ponosić. Zgodnie z rekomendacjami globalnymi „Chatboty nie mogą być autorami” (WAME). Jako autorzy powinni być wymieniani tylko ludzie, którzy wnieśli wkład intelektualny i mogą ponosić odpowiedzialność.
Uwzględnianie ograniczeń i stronniczości narzędzi AI
Systemy AI nie są nieomylne. Są one trenowane na istniejących danych, przez co mogą zawierać, a nawet wzmacniać uprzedzenia, błędy i luki w tych danych (UNESCO). Badacze muszą być czujni na te ograniczenia:
- Świadomość uprzedzeń: Bądź świadomy potencjalnych uprzedzeń w wynikach AI. Na przykład model prognoz ekonomicznych może systematycznie popełniać błędy, jeśli jego dane treningowe pomijają pewne grupy lub systemy, a model językowy może odzwierciedlać uprzedzenia płciowe lub kulturowe w sposobie, w jaki podsumowuje literaturę. Międzynarodowe wytyczne dotyczące AI (UNESCO, UE) podkreślają konieczność unikania niesprawiedliwych uprzedzeń, aby zapobiec dyskryminacji lub marginalizacji grup (EC Digital Strategy). Aby temu zaradzić, należy używać różnorodnych i reprezentatywnych danych podczas treningu modeli oraz krytycznie oceniać wyniki wygenerowane przez AI pod kątem stronniczości lub nieprawidłowości. Badacze muszą rozumieć ograniczenia AI i sprawdzać, czy występują w nich uprzedzenia (Korinek 2023).
- Weryfikacja Wyników AI: Badania wykazały, że generatywna AI może tworzyć fabrykowane odniesienia lub nieprawdziwe informacje (WAME). Traktuj sugestie AI jako hipotezy lub szkice – nie potwierdzoną prawdę – dopóki nie zostaną zweryfikowane (Korinek 2023, The Econometric Society, 2025). Zawsze sprawdzaj wyniki uzyskane przez AI, porównując je z tradycyjną analizą lub zewnętrznymi źródłami. Jeśli narzędzie AI dostarcza wynik statystyczny lub odniesienie bibliograficzne, zweryfikuj jego poprawność za pomocą niezależnych obliczeń lub lokalizując źródło, do którego odnosi się ten wynik.
- Wyjaśnialność i odpowiedzialność: Preferuj narzędzia AI, które oferują wyjaśnialność (lub oferują narzędzia do interpretacji decyzji modelu), szczególnie przy analizach o dużym znaczeniu. Zrozumienie, dlaczego algorytm wygenerował dany wynik, jest kluczowe dla zaufania i etycznego używania (UNESCO). Niedawny raport The Econometric Society (2025) zaleca, aby czasopisma przyjęły jaśniejsze wytyczne redakcyjne w celu zwiększenia odpowiedzialności, w tym większy nadzór nad rolą AI w procesie publikacji.
Zachowanie integralności akademickiej i zapobieganie nadużyciom
Zachowanie integralności akademickiej jest kluczowe przy wykorzystywaniu AI. Wszystkie obowiązujące zasady etyki badań – uczciwość, staranność i odpowiedzialność – odnoszą się do pracy z AI, tak jak do każdego innego narzędzia badawczego (AEA Code of Professional Conduct). Kluczowe zasady obejmują:
- Unikanie plagiatu i fałszowania danych: Nie używaj AI do generowania treści, które przedstawiasz jako swoje własne pomysły lub do tworzenia fałszywych danych. Jeśli AI generuje tekst lub tłumaczenia, sprawdź je lub odpowiednio dostosuj. Każdy materiał dosłownie zaczerpnięty (czy to wygenerowany przez AI, czy pochodzący z innych źródeł) musi być odpowiednio cytowany i oznaczony. Pamiętaj, że to Ty, jako badacz, ponosisz odpowiedzialność za zapewnienie, że w końcowej pracy nie ma plagiatu ani dezinformacji (WAME, Korinek 2023).
- Uznanie ograniczeń wiedzy: Kodeks zawodowy AEA podkreśla znaczenie „uznania ograniczeń wiedzy” oraz stosowanie uczciwości i staranności w badaniach (AEA Code of Professional Conduct). Używanie AI nie zastępuje wiedzy eksperckiej. Bądź szczery w odniesieniu do tego, które zadania zostały wspomagane przez AI, a gdzie zastosowano wiedzę ekspercką (Korinek 2023, The Econometric Society, 2025).
- Prywatność i bezpieczeństwo danych: Upewnij się, że używanie AI nie narusza standardów prywatności ani ochrony danych. Nie przesyłaj wrażliwych ani poufnych danych na zewnętrzne platformy AI bez odpowiedniego zezwolenia, ponieważ może to naruszać zasady etyczne lub umowy prawne. Korzystaj z bezpiecznych, zatwierdzonych narzędzi, zwłaszcza gdy masz do czynienia z danymi osobowymi, zgodnie z regulacjami ochrony danych instytucji i UE (Korinek 2023, The Econometric Society, 2025).
- Odpowiedzialna praca z AI: Narzędzia AI, choć praca z nimi może przypominać pracę z człowiekiem, pozostają tylko narzędziami i nie mogą ponosić odpowiedzialności - ta zawsze spoczywa na ludziach. Wykorzystanie narzędzi AI bez należytej kontroli może prowadzić do poważnych naruszeń zasad etyki akademickiej. Zachowaj krytyczne podejście: jeśli wynik wygenerowany przez AI wydaje się podejrzany, zbadaj go dalej, zamiast po prostu go używać. Pamiętaj, że nadużywanie AI (np. pozwalanie mu na generowanie całych prac z minimalnym nadzorem) stanowi naruszenie zasad etyki akademickiej.
Zgodność z międzynarodowymi wytycznymi etycznymi
Niniejsze zalecenia odzwierciedlają zasady wiodących organizacji. Zalecenia UNESCO dotyczące etyki AI podkreślają ochronę ludzkiej godności poprzez wartości takie jak transparentność, sprawiedliwość i nadzór ludzki (UNESCO). Wytyczne Etyczne Komisji Europejskiej dla Wiarygodnej AI również wzywają do transparentności, niedyskryminacji i odpowiedzialności we wszystkich zastosowaniach AI (EC Digital Strategy). Kodeks zawodowy AEA kładzie nacisk na uczciwość, transparentność w badaniach oraz uznanie własnych ograniczeń (AEA Code of Professional Conduct) – co obejmuje ujawnianie i odpowiedzialne wykorzystywanie narzędzi AI. Dodatkowo, wytyczne takich organizacji jak Komitet Etyki Publikacji (COPE) oraz Światowe Stowarzyszenie Redaktorów Medycznych (WAME) jasno wskazują, że pomoc AI powinna być w pełni ujawniona, a autorzy ponoszą odpowiedzialność za treści generowane przez AI (WAME). Zachęca się badaczy do śledzenia tych ewoluujących wytycznych, aby ich praktyki pozostawały etyczne i akceptowane w globalnej społeczności akademickiej.
Podsumowanie
Technologie AI oferują ekscytujące możliwości rozwoju badań ekonomicznych, ale muszą być wykorzystywane z rozwagą. Stosując się do tych wytycznych – używając AI w sposób rozważny na wszystkich etapach badań, zapewniając transparentność jej wykorzystania, chroniąc przed uprzedzeniami oraz dbając o integralność akademicką – badacze mogą wykorzystać korzyści z AI, jednocześnie utrzymując zaufanie, odpowiedzialność i doskonałość naukową. Zasady te mają na celu zapewnienie, że wykorzystanie AI w badaniach i publikacjach pracowników i studentów WNE UW będzie zgodna z najlepszymi praktykami i standardami etycznymi.