Prezentowane rozważania są próbą zdefiniowania problemu publikacji cyfrowych oraz ich roli w procesie ewaluacji naukowej. Są także okazją do zaprezentowania efektów III Ogólnopolskiej Konferencji do spraw Wydawnictw Naukowych przy KRASP. Tematem przewodnim wydarzenia realizowanego w modelu hybrydowym były wyzwania związane z rozwojem sztucznej inteligencji.
Sztuczna inteligencja to pojęcie zdefiniowane po raz pierwszy w połowie lat 50. XX wieku przez Johna McCarthy’ego. Jest przedmiotem zainteresowania informatyki, kognitywistyki, ale także filozofii i nauk społecznych. Od dawna swoimi możliwościami urzeka ludzką wyobraźnię, stając się tematem literatury, zarówno popularnej, jak i naukowej.
Sztuczna inteligencja a ewaluacja naukowa
Celem organizatorów było uświadomienie środowisku nauki skali i tempa rozwoju sztucznej inteligencji, obszarów jej dynamicznej ekspansji, a także nieodwracalności procesów, jakie generuje zjawisko AI w różnych dziedzinach życia. W sesjach panelowych rozmówcy związani ze światem akademickim i wydawniczym podkreślali kwestię ogromnych możliwości, jak i zagrożeń niesionych przez niekontrolowane upowszechnianie się sztucznej inteligencji. Wszyscy potwierdzili słuszność ogólnej konstatacji: sztuczna inteligencja wpływa na jakość publikacji (nie tylko cyfrowych), a także na sposób ich powstawania. W konsekwencji jest zdolna determinować proces ewaluacji naukowej.
Możliwości sztucznej inteligencji w branży wydawniczej
Korzyści ze sztucznej inteligencji są oczywiste, wiele z jej możliwości można wykorzystać w procesie wydawniczym i na rynku wydawniczym. Niestety, jak podkreśliła Małgorzata Adamczak (UAM) – AI potrafi budzić także poważne obawy.
Branża wydawnictw naukowych ma wiele potencjalnych zastosowań sztucznej inteligencji, w tym: identyfikację trendów rynkowych, prognozowanie popytu, wykrywanie plagiatów i naruszeń praw autorskich, pomoc przy tłumaczeniu niektórych typów tekstów, pomoc przy redagowaniu i korekcie oraz generowanie metadanych.
Tylko część tego potencjału zależy od generacji AI. Niektóre z zastosowań są już szeroko rozpowszechnione (publikacje akademickie i prawnicze), podczas gdy inne są wciąż testowane przez wydawców. Ponadto sztuczna inteligencja może pomóc w zmniejszeniu wpływu sektora wydawniczego na środowisko przez dokładniejsze przewidywanie nakładu konkretnych tytułów.
Sztuczna inteligencja a prawa autorskie
Zagrożeniem, jakie sztuczna inteligencja stanowi dla branży wydawniczej, jest nieetyczne wykorzystanie konkretnych danych w tworzeniu zasobów (baz danych), tzw. szkoleniu AI. Jak podkreślali uczestnicy konferencji, bardzo istotne jest ujawnienie informacji, jakie utwory zostały w tym celu pozyskane oraz skąd pochodzą. Szczególnie ważna jest przejrzystość dotycząca zakresu, w jakim dzieła chronione prawem autorskim są wykorzystywane. Wiadomo już, że wielkoskalowe modele językowe (w tym GPT-3 – silnik chatbota ChatGPT) są szkolone przy użyciu książek i innych tekstów chronionych prawem autorskim.
Zasady dotyczące wykorzystania literatury naukowej i nie tylko w procesie szkolenia sztucznej inteligencji reguluje obecnie Ustawa o prawie autorskim w dyrektywie o jednolitym rynku cyfrowym 2019 (Digital Single Market Copyright). Dzięki temu możliwe jest korzystanie z dzieła chronionego prawem autorskim wyłącznie w celach niekomercyjnych, dlatego ważne jest, aby twórcy sztucznej inteligencji współpracowali z właścicielami praw autorskich. Tylko w ten sposób można skutecznie monitorować legalność źródeł, które pozyskuje sztuczna inteligencja. Dopiero możliwość wglądu w informacje o zbiorach danych i ich źródłach, a co za tym idzie możliwość wykluczenia niektórych utworów, gwarantuje, że nie dojdzie do dalszych naruszeń praw autorskich.
Czy dzieła stworzone przez AI mają prawa autorskie?
Znaczna część prelegentów zwróciła także uwagę na kwestię treści tworzonych przez sztuczną inteligencję. Postawiono więc pytanie: czy dzieła generowane przez ChatGPT lub inne systemy AI powinny być objęte prawami autorskimi?
Według przedstawicieli wydawnictw naukowych treści tworzone przez generatywną sztuczną inteligencję powinny początkowo podlegać tym samym zasadom kwalifikacji praw autorskich, co wszystkie inne treści. Jeżeli treść została stworzona przez sztuczną inteligencję i nie odzwierciedla pierwotnie decyzji twórczych ani osobowości autora (człowieka), treść ta nie powinna podlegać ochronie prawa autorskiego. Jeżeli jednak autor wykorzystuje sztuczną inteligencję jako narzędzie do stworzenia dzieła, które w unikalny sposób odzwierciedla jego twórczość, powinno ono być chronione prawem autorskim.
AI trafi do stopki redakcyjnej
Według Małgorzaty Adamczak współczesna nauka zmaga się z plagą ogromnych ilości artykułów i innych treści naukowych w rzeczywistości będących wytworem AI. Jednocześnie wskazała, że czytelnicy powinni być wyraźnie poinformowani, że czytają tekst w całości wygenerowany przez sztuczną inteligencję. Dzięki temu będą oni mieli możliwość wyboru, czy chcą zapoznać się z daną pracą, czy też nie. Prelegentka podała w wątpliwość, czy książki (bądź artykuły) napisane wyłącznie przez sztuczną inteligencję powinny pojawiać się na rynku. Dodatkowo zaznaczyła, że jeśli sztuczna inteligencja będzie wykorzystywana jako narzędzie lub w celach niezwiązanych z samym generowaniem treści, taka informacja również powinna zostać podana do wiadomości czytelnika. Strony redakcyjne, a może nawet strony tytułowe, przyszłych książek wzbogacą się pewnie niebawem o nowy zapis.
Publikacje cyfrowe jako cenny element ewaluacji naukowej
Biorąc pod uwagę ewaluację naukową przy użyciu publikacji cyfrowych, nie sposób nie odnieść się do miejsca ich powstawania, czyli wydawnictwa naukowego. Według Ewy Bluszcz z Wydawnictwa Uniwersytetu Łódzkiego wydawnictwa powinny podlegać wielostopniowej ocenie. Prelegentka wymieniła następujące jej elementy: jasno sprecyzowana misja, działanie na rzecz nauki, profil wydawnictwa, jakość jego współpracy ze środowiskiem autorskim, procedury kwalifikowania do wydania i dbałość o etykę publikacyjną i najważniejsze – jakość procesów wydawniczych prowadzących do opublikowania treści w środowisku cyfrowym. Dodatkowo ocenie powinny podlegać także techniki cyfrowego gromadzenia i udostępniania treści naukowych, zasięg ich dystrybucji (w tym w formie otwartego dostępu) oraz formy promocji treści naukowych.
Z kolei Tomasz Adamski z prywatnego wydawnictwa naukowego Exemplum odniósł się bezpośrednio do kryteriów oceny cyfrowej publikacji, czyli: komunikacji, wizualizacji, interaktywności, identyfikacji, udostępniania oraz archiwizacji.
Na kryteria oceny współczesnego wydawnictwa naukowego składają się takie elementy, jak: etyka wydawnicza, recenzowanie, dostępność do publikacji w wersji cyfrowej, identyfikatory i metadane, cyfrowe upowszechnianie i archiwizowanie, otwarty dostęp do treści naukowych.
Sztuczna inteligencja a problem rzetelności naukowej
Sztuczna inteligencja ma wiele zalet związanych z jej wykorzystaniem. Pomaga nam zoptymalizować codzienne procesy pisania e-maili, wiadomości czy prezentacji marketingowych. Za pomocą ChatGPT specjaliści mogą teraz szybko przygotowywać artykuły lub publikacje konferencyjne. Jednak jednym z największych problemów związanych z korzystaniem z modeli AI jest brak kontroli jakości. Istnieje ryzyko, że wartość generowanych treści może nie spełniać standardów wymaganych dla publikacji akademickich, a co za tym idzie, negatywnie wpływać na jakość ewaluacji działalności naukowej. Dyskusyjna pozostaje także kwestia oryginalności i samodzielności tekstów przygotowanych w oparciu o bazę danych, nawet tę najlepiej i najrzetelniej skonstruowaną. Ważne jest, aby wprowadzić odpowiednie środki kontroli jakości, aby zapewnić, że treść jest dokładna, odpowiednia i wiarygodna.
Kto zatem jest (będzie) rzeczywistym podmiotem twórczym, wykonawcą, generatorem myśli naukowej i nie tylko naukowej – człowiek czy maszyna? Intensywność procesów związanych ze sztuczną inteligencją pokazuje, że pytanie to może stać się już niedługo jednym z najistotniejszych problemów zmieniającego się świata.