Wykorzystanie sztucznej inteligencji w nauce – raport SAPEA

Sztuczna inteligencja (AI) staje się coraz bardziej powszechną technologią, znajdującą zastosowanie w wielu dziedzinach, w tym w nauce. Eksperci z różnych dyscyplin coraz częściej wykorzystują AI jako narzędzie lub metodę prowadzenia badań naukowych, przyspieszając tempo odkryć. Jednak wraz z rosnącą popularnością AI pojawiają się również wyzwania związane z jej odpowiedzialnym wykorzystaniem w nauce.

W lipcu 2023 roku, wiceprzewodnicząca wykonawcza Komisji Europejskiej Margrethe Vestager zwróciła się do Mechanizmu Doradztwa Naukowego Komisji Europejskiej z prośbą o opracowanie opartej na dowodach naukowych, niezależnej opinii dotyczącej przyspieszenia odpowiedzialnego wdrażania sztucznej inteligencji w nauce. Ma ona pomóc Komisji Europejskiej w opracowaniu wytycznych i zaleceń w celu podjęcia działań, które umożliwią europejskim naukowcom w pełni wykorzystać potencjał AI, minimalizując jednocześnie ryzyko związane z jej nieodpowiednim stosowaniem.

W prestiżowym gronie

W odpowiedzi SAPEA (Science Advice for Policy by European Academies) będąca częścią Mechanizmu Doradztwa Naukowego powołała niezależną, interdyscyplinarną grupę roboczą, której miałam okazję współprzewodniczyć. Grupa ta złożona była z sześciu badaczy dziedzinie AI, reprezentujących różne kraje europejskie, wybranych spośród blisko 200 nominacji zgłoszonych przez europejskie akademie naukowe będące w sieci SAPEA. W okresie od października 2023 r. do stycznia 2024 r. grupa robocza dokonała analizy dowodów dotyczących wpływu AI na naukę, zebranych m.in. podczas spotkań roboczych z kilkudziesięcioma ekspertami prowadzącymi badania w zakresie różnych aspektów AI. Dowody te podsumowane zostały w raporcie, który stanowił podstawę do wydania przez grupę Głównych Doradców Naukowych Komisji Europejskiej niezależnej opinii eksperckiej, dotyczącej zalecanej polityki w zakresie odpowiedzialnego wdrożenia sztucznej inteligencji w nauce w Unii Europejskiej.

pięcioro ekspertów dyskutujących w studio telewizyjnym przy stole
na zdj. Rozmowa wiceprzewodniczącej wykonawczej KE Margrethe Vestager, komisarz Iliany Ivanovej, współprzewodniczącej SAPEA prof. Anny Fabijańskiej (Politechnika Łódzka) i przewodniczącej Group of Chief Scientific Advisors (GCSA) prof. Nicole Grobert (University of Oxford).

Krajobraz AI w nauce

W raporcie omówiono aktualny krajobraz AI w kontekście badań naukowych. Wynika z niego, że w ostatnim dziesięcioleciu inicjatywę w badaniach AI przejął sektor biznesowy. Współczesne modele AI wymagają ogromnych zasobów obliczeniowych, w które intensywnie inwestują firmy z sektora Big Tech. To drastycznie pogłębia różnicę między sektorem prywatnym, a  publicznymi instytucjami badawczymi, dysponującymi mniejszymi i mniej specjalistycznymi zasobami. Najwięcej infrastruktury AI znajduje się poza Europą, w USA i Chinach. To wpływa na prowadzone badania, tworząc zależność publicznych instytucji od gigantów technologicznych, którzy udostępniają zasoby do trenowania modeli AI. Ponadto, sektor prywatny z uwagi na wiodącą rolę w zakresie rozwoju AI jest bardziej atrakcyjny dla naukowców, co powoduje odpływ talentów z sektora publicznego.

Raport wskazuje również, że badania nad AI i wykorzystanie AI w badaniach naukowych są silnie powiązane z dużymi interesami gospodarczymi oraz geopolitycznymi. Stany Zjednoczone oraz Chiny wiodą prym w światowych badaniach nad sztuczną inteligencją, ale kraje europejskie łącznie również wnoszą w nie istotny wkład. Europa straciła jednak pozycję lidera innowacji ze względu na niskie nakłady inwestycyjne w badania i rozwój oraz małą liczbę startupów.

Sztuczna inteligencja w procesie badawczym

Z raportu wynika również, że naukowcy z różnych dziedzin coraz częściej wykorzystują sztuczną inteligencję w procesie naukowym. Zastosowania AI są różnorodne, od analizy ogromnej ilości danych pozwalającej na odkrywanie nowych zależności, poprzez formułowanie hipotez badawczych w drodze automatycznej analizy literatury, aż do planowania sposobu i automatyzacji przeprowadzania eksperymentów. Zastosowania i wykorzystanie sztucznej inteligencji w badaniach są jednak nierównomiernie rozłożone w różnych dziedzinach nauki. Wiele przykładów podkreśla potencjał wspierania procesu badawczego, zwłaszcza w dziedzinach opierających się na dużych ilościach danych (np. astronomia, fizyka kwantowa). Potencjalne możliwości wykorzystania AI w badaniach jakościowych i teoretycznych w naukach humanistycznych oraz społecznych mogą rozwinąć się w przyszłości. Brakuje również kompleksowych badań dotyczących wpływu sztucznej inteligencji na system nauki jako całość.

Tak, ale…

Wdrażanie sztucznej inteligencji w badaniach naukowych niesie ze sobą wiele korzyści, ale wiąże się również z wyzwaniami i ryzykiem. Brak transparentności modeli AI i dominacja dużych firm technologicznych, które chronią tajemnicą swoją wiedzę naukową, budzą obawy o nierówny dostęp do wiedzy i potencjalne nadużycia w wykorzystaniu AI. Firmy technologiczne korzystają z koncepcji przedstawionych w artykułach naukowych i z nieodpłatnej pracy programistów przyczyniających się do rozwoju otwartego kodu źródłowego, same czerpiąc z tego zyski i kontrolując dostęp do zasobów obliczeniowych i danych. Dodatkowo, wykorzystanie materiałów chronionych prawem autorskim jako danych treningowych dla modeli AI budzi obawy o naruszenie tych praw. Nieodpowiednie dane treningowe i brak aktualizacji modeli AI mogą także prowadzić do błędnych wyników i stronniczości algorytmów. Narzędzia AI nie są w stanie dokonywać rzetelnych recenzji prac naukowych i wniosków grantowych, a ich zastosowanie w tym celu może ułatwiać szerzenie dezinformacji. Podobnie, jak wykorzystanie generatywnych modeli AI do fabrykowania artykułów naukowych czy plagiatowania innych prac przez drapieżne czasopisma i „fabryki artykułów”. Raport wskazuje, że powyższe kwestie wymagają opracowania rozwiązań prawnych i etycznych, aby zapewnić odpowiedzialny rozwój i wykorzystanie sztucznej inteligencji w nauce. Nierówności w finansowaniu badań (popularne i dochodowe dziedziny nauki otrzymują więcej środków na badania) i brak wytycznych dla naukowców dotyczących etyki i przepisów prawnych związanych z AI również wymagają pilnego uregulowania.

Kompetencje naukowców przyszłości

Z raportu wynika również, że sztuczna inteligencja ma potencjał do zmiany pracy naukowców poprzez automatyzację części powtarzalnych zadań, pozwalając jednocześnie na zwiększenie produktywności badaczy. Współpraca człowiek-AI, również w obszarze nauki, może prowadzić do rozwoju nowych umiejętności wśród naukowców i pobudzać ich kreatywność. Jednak, aby w pełni wykorzystać potencjał AI, naukowcy muszą rozwinąć nowe umiejętności, takie jak rozumienie technologii AI i ograniczeń jakie ona posiada, a także umiejętność komunikacji i współpracy z nią. Ponadto, powinni być świadomi kwestii etycznych związanych z zastosowaniem metod  i narzędzi AI. Już teraz dowody wskazują, że większość naukowców ze wszystkich dziedzin będzie potrzebowała dodatkowych kompetencji cyfrowych i znajomości technologii AI. Dlatego, szkolenia i edukacja w tym zakresie są coraz częściej włączane do programów nauczania na europejskich uczelniach i cieszą się rosnącym zainteresowaniem.

Wnioski

Na podstawie zebranych dowodów, raport SAPEA przedstawia również zestaw możliwych działań, które po wdrożeniu przez UE, mogłyby pomóc w przyspieszeniu odpowiedzialnego i terminowego wdrażania sztucznej inteligencji w nauce. Propozycje te obejmują m.in.:

  • opracowanie jasnych zasad i procedur dotyczących wykorzystania AI w badaniach naukowych, zapewniając jednocześnie rzetelność, wiarygodność i publiczną dostępność wyników, a także zgodność z prawami autorskimi oraz własnością intelektualną,
  • zapewnienie odpowiedniej edukacji i szkolenia badaczy w zakresie AI, uzupełnione o tworzenie atrakcyjnych ścieżek kariery dla młodych naukowców zajmujących się sztuczną inteligencją, w celu zatrzymania utalentowanych badaczy AI w publicznych instytucjach badawczych,
  • utworzenie w Europie nowoczesnego centrum badawczego AI, wyposażonego w odpowiednią infrastrukturę obliczeniową, repozytoria danych i programy szkoleniowe dostępne dla badaczy w UE,
  • ustanowenie instytutu "bezpieczeństwa AI", który będzie przeciwdziałał zagrożeniom wynikającym z zastosowania AI.

Przekazanie raportu SAPEA oraz niezależnej opinii naukowej nt. odpowiedzianego wykorzystania AI w nauce wiceprzewodniczącej wykonawczej Komisji Europejskiej Margrethe Vestager oraz komisarz do spraw innowacji, badań naukowych, kultury, edukacji i młodzieży Ilianie Ivanovej miało miejsce w Brukseli, w dniu 15 kwietnia 2024 r. podczas dedykowanej temu uroczystości.

Nagranie z uroczystości dostępne jest tutaj.

Ze szczegółami raportu SAPEA można zapoznać się tutaj