Materiał powstał we współpracy z Uniwersytetem Warszawskim
Sztuczna inteligencja jest coraz bardziej obecna w badaniach naukowych: pomaga analizować dane, porządkować wiedzę i otwiera nowe możliwości w medycynie, matematyce czy dydaktyce. Wraz ze wzrostem znaczenia pojawiają się jednak pytania o granice jej użycia, odpowiedzialność za wyniki, ryzyko utraty ludzkiej sprawczości i o to, czy AI pozostanie narzędziem badacza, czy zacznie stopniowo przejmować część jego roli.
Uczestnicy debaty Rzeczpospolitej „Sztuczna inteligencja w nauce. Wsparcie dla badań czy niebezpieczne narzędzie? Jak optymalnie wykorzystać AI?” – rozmawiali o granicy między wspieraniem badacza a przejmowaniem przez AI części procesu badawczego. Wskazywali na ryzyko utraty kontroli nad badaniami oraz wspominali o najciekawszych projektach realizowanych dziś w polskiej nauce z użyciem sztucznej inteligencji.
Między przełomem a niepokojem
Wiceminister nauki i szkolnictwa wyższego prof. Marek Gzik mówił o AI jako o fundamencie pod piątą rewolucję przemysłową i wielkim osiągnięciu nauki, które daje ogromne możliwości rozwoju. Zastrzegał jednak, że wraz z korzyściami pojawiają się także zagrożenia, szczególnie w obszarze militarnym. – Ten aspekt jest moim zdaniem i realny, i wymaga też pogłębionej dyskusji – podkreślał. Dodawał, że Polska nie może przespać tego momentu: potrzebne są inwestycje, dobra organizacja i świadome wejście w nowy etap rozwoju.
Prosty podział na sztuczną inteligencję widzianą jako samo dobro albo samo zagrożenie odrzucił prof. Andrzej Szeptycki, podsekretarz stanu w Ministerstwie Nauki i Szkolnictwa Wyższego. – Tak jak w przypadku każdego narzędzia, może ono służyć i do dobrych celów, i do złych – zauważył. Jak podkreślał, najważniejszym słowem jest dziś wyzwanie, bo obok samych możliwości technologii pojawia się problem ludzi, którzy muszą nauczyć się z niej korzystać. Ostrzegał zwłaszcza przed nowym typem nierówności: część środowiska może po prostu nie nadążyć za zmianą i wypaść z obiegu.
Rektor UW prof. Alojzy Z. Nowak zwracał uwagę, że rozwój AI jest procesem, którego nie da się zatrzymać. – Jako środowisko akademickie powinniśmy albo współtworzyć sztuczną inteligencję, albo przynajmniej nauczyć się odpowiednio z niej korzystać – mówił. Jego zdaniem najszybciej skorzystają na niej najsilniejsi, dlatego państwo musi odpowiedzieć na pytanie, jak ochronić miejsce człowieka w nowym systemie. Jednocześnie jasno zaznaczał granicę. – W moim odczuciu sztuczna inteligencja nie może zastąpić człowieka, bo nie ma marzeń – mówił rektor UW. Dodał jednak, że AI może mocno zmienić model studiowania i nauczania, dlatego trzeba o tym myśleć i dyskutować.
Czytaj więcej
Relacje nauki z biznesem w Polsce wciąż pozostawiają wiele do życzenia. Agencja Rozwoju Przemysłu posłużyła się prostym testem, by sprawdzić gotowo...
Prof. Grażyna Wieczorkowska-Wierzbińska z Wydziału Zarządzania UW mówiła o AI jak o przełomie, który już się wydarzył. – 30 listopada 2022 r., czyli w dniu udostępnienia ChatGPT, rozpoczęła się nowa era. Nie mam co do tego żadnych wątpliwości – stwierdziła. Jej zdaniem to zmiana porównywalna z elektryfikacją, tylko dziejąca się znacznie szybciej. Bardziej niż same błędy modeli niepokoją ją jednak koszty tej rewolucji. Jej zdaniem dziś zbyt łatwo zakłada się, że dostęp do sztucznej inteligencji zawsze będzie tani i powszechny.
Przede wszystkim jest to narzędzie wielkiego poznawczego przyspieszenia – tak widzi AI kanclerz UW Robert Grey. Zarazem ostrzegał, że każda technologia tego typu zwiększa także nierówność wpływu i kontroli. Dlatego, jak mówił, uczelnie i państwo muszą budować wokół AI jasne reguły odpowiedzialności. Zwracał też uwagę, że w świecie AI kontrola nad modelami i infrastrukturą zaczyna decydować o realnej autonomii poznawczej instytucji naukowych. – Sama technologia nie jest ani zbawieniem, ani ogromnym zagrożeniem, ale zmienia warunki działania instytucji – stwierdził.
Prof. Stefan Dziembowski z Wydziału Matematyki, Informatyki i Mechaniki UW zwracał uwagę, że wciąż poruszamy się w obszarze wielu niewiadomych. – Nie wiadomo, jak to się wszystko będzie rozwijać – mówił. Podkreślał jednak, że już dziś AI jest dla badacza bardzo użyteczna: pomaga w kwerendzie literatury, weryfikacji pomysłów i rozumieniu trudnych tekstów. Sam przyznał, że wrzuca prace do programu ChatGPT i o tych pracach z czatem rozmawia. Najbardziej ostrzegał jednak przed zalewem publikacji generowanych przez AI, który może zachwiać obecnym systemem oceny dorobku naukowego.
Prof. Piotr Sankowski z Wydziału Matematyki, Informatyki i Mechaniki UW, dyrektor Instytutu Badawczego IDEAS, mówił przede wszystkim o skali możliwości. – Jest to ogromna szansa – podkreślał, zwracając uwagę, że koszt korzystania z AI szybko spada, a liczba zastosowań rośnie. Przywołał też przykłady eksperymentów pokazujących, że wkład sztucznej inteligencji w badania nie jest już marginalny. – W jednym z nich siedem z dziesięciu tych problemów zostało rozwiązanych przez sztuczną inteligencję – mówił.
Ale AI jest nie tylko narzędziem analizy, lecz również partnerem intelektualnej konfrontacji – na tę cechę zwrócił uwagę dr Marcin Trepczyński z Wydziału Filozofii UW. – Nasze pomysły też można skonsultować z takim pomocnikiem, konsultantem, asystentem własnym – mówił. Jednocześnie zaznaczał, że wyzwania są ogromne, bo łatwo oddać technologii zbyt dużo pola.
Czytaj więcej
Nasi studenci od samego początku uczestniczą w badaniach naukowych – mówi prof. Bolesław Kalicki, dziekan Wydziału Medycznego Uniwersytetu Warszaws...
AI jako narzędzie, partner czy konkurent
Kolejna część debaty dotyczyła pytania, czy AI nadal jest tylko narzędziem, czy już czymś więcej, na przykład systemem, który zaczyna zmieniać kulturę pracy naukowej. Z dużą ostrożnością wypowiadał się o tym prof. Alojzy Z. Nowak. Przyznał, że w jego dziedzinie sztuczna inteligencja w 45 proc. nie jest wiarygodna, ale zarazem przytoczył przykład wygenerowanego przez studentów wykładu, w którym była jego mimika, głos i żarty poza jednym. – Ja nigdy takiego wykładu nie wygłosiłem – mówił. Zwracał uwagę na deepfaki i niebezpieczeństwo z nimi związane, ale wielki potencjał AI widzi w medycynie i analizie wielkich zbiorów danych.
– AI jest czymś więcej niż superkomputerem – oceniał z kolei prof. Szeptycki. Zaznaczał jednak, że AI nadal pozostaje narzędziem, bo na końcu potrzebujemy człowieka, który zaakceptuje wyniki i się pod nimi podpisze. Za największe problemy uznał nieprzejrzystość działania modeli, deepfaki i nadużycia autorstwa. – Gdy AI pisze pracę od początku do końca, a człowiek się pod nią podpisuje, to – jak stwierdził – jest to jawne łamanie prawa.
Minister Gzik podkreślał, że sztuczna inteligencja zmienia kulturę pracy i staje się kolejnym partnerem w zespole do rozwiązywania problemów. Z kolei kanclerz Robert Grey ostrzegał, że najgroźniejsze staje się zacieranie granicy między człowiekiem a maszyną. – Chciałbym wiedzieć po prostu, czy rozmawiam z botem, czy z człowiekiem, bo przejrzystość użycia AI będzie jednym z podstawowych warunków zaufania do tej technologii – mówił.
O tym, jak nieostra staje się granica między uczciwym wsparciem a nadużyciem, mówił prof. Dziembowski. Według niego, „jeśli AI poprawia styl czy pomaga opisać wcześniej opracowany wynik, to jest to uczciwe, ale problem zaczyna się wtedy, gdy AI tworzy nowe wyniki za badacza”.
Zdaniem prof. Wieczorkowskiej-Wierzbińskiej nauka odchodzi od samego kumulowania wiedzy i wraca do rozwiązywania konkretnych problemów. – Dla mnie AI to jest mój asystent – stwierdziła.
Dr Trepczyński przypominał jednak, że uniwersytet nadal potrzebuje autorytetów, ludzi, którzy potrafią wiedzę głęboko przemyśleć i zrozumieć. Najbezpieczniejsza formuła? Partner, któremu ufamy tylko do pewnego stopnia i którego stale sprawdzamy. AI nie zwalnia z myślenia. Prof. Sankowski mówił wprost: – Sztuczna inteligencja zastępuje proste czynności, ale wymaga od operatora dużo większej wiedzy i doświadczenia – jako przykład podał programowanie: AI dobrze pisze kod, ale potem wszystko rozbija się o błędy i nadzór – dodawał.
Minister Gzik oceniał to z perspektywy medycyny – współczesna wiedza staje się coraz bardziej silosowa, a AI jego zdaniem działa holistycznie. Zgodził się z tym prof. Nowak, podkreślając jednak, że najważniejsze w nauce pozostaje postawienie pytania. – Z pomocą AI można znaleźć odpowiedź, ale sztuczna inteligencja nie stawia jeszcze samodzielnie pytań – mówił rektor UW.
Na zmianę pokoleniową i przydatność AI także w dydaktyce zwracała uwagę prof. Wieczorkowska-Wierzbińska. Podkreślała jednak, przywołując prof. Andrzeja Dragana, że automatyzujemy rzeczy prostsze, więc ludzie będą się więcej wysilać, a nie mniej. O tym, że potrzebne są nie tylko narzędzia, ale też dobre dane, przypominał prof. Szeptycki. Z kolei prof. Dziembowski zauważył, że AI mocno pomoże naukowcom w pracy administracyjnej, a w dydaktyce może demokratyzować dostęp do wiedzy. Jest jednak coś, czego technologia nie zastąpi – to relacja. Przypominali o tym prof. Wieczorkowska-Wierzbińska i dr Trepczyński. – Chodzi o motywacyjny charakter spojrzenia w oczy: zmusić do wysiłku może tak naprawdę drugi człowiek – wskazywała profesor.
W końcowej części debaty uczestnicy zastanawiali się, czy AI może być czymś więcej niż narzędziem badań, czy może też stać się ich kreatorem. Dr Trepczyński przyznał, że ten proces już się zaczyna, bo naukowcy od dawna działają w środowisku rekomendacji. Prof. Szeptycki nie widzi tu automatycznie zagrożenia. AI może porządkować pole badawcze i podpowiadać, czego jeszcze nie zrobiono. Prof. Sankowski przywołał badanie ze Stanfordu, z którego wynikało, że sztuczna inteligencja potrafi tworzyć ciekawsze pomysły badawcze niż człowiek. Robert Grey zaznaczał, że nie ma w tym problemu, dopóki wiadomo, skąd pochodzi podpowiedź. Bardziej sceptyczny był prof. Nowak: – Sztuczna inteligencja jest inteligentna. Na pewno jest bardzo wyszkolona, ale mam wątpliwości co do jej mądrości.
W debacie nie padły gotowe odpowiedzi, jeśli chodzi o regulacje prawne. Wiceminister Gzik z jednej strony ostrzegał, że AI może osłabiać kreatywność, ale z drugiej podkreślał, że to jeszcze nie czas na nadmierne restrykcje. – Byle byśmy nie wylali dziecka z kąpielą – mówił. Potrzebę działań prawnych widzi jednak prof. Szeptycki, zwłaszcza w obszarze praw autorskich, własności intelektualnej i przejrzystości użycia AI. Jak zaznaczał, Europa próbuje budować takie reguły, by nowe technologie służyły wszystkim, a nie tylko największym i najbogatszym. Prof. Nowak zwracał uwagę, że AI trzeba uważnie obserwować, bo może wypierać część prostych miejsc pracy. Nie może jednak tłumić rozwoju uczelni. Rola państwa, jak zaznaczał, może być istotna, a tam gdzie trzeba, nadzór powinien pozostać ludzki. Zgodził się z tym kanclerz Grey, podkreślając, że trudno sobie wyobrazić, by w uczelni czy administracji decyzje zapadały wyłącznie dlatego, że tak wskazał algorytm. – Bez jasnych zasad – ostrzegał – odpowiedzialność zacznie się rozmywać zarówno na poziomie instytucji, jak i całego systemu państwa.
Czy AI jest głównie wsparciem, czy zagrożeniem? Uczestnicy debaty zgodzili się, że sztuczna inteligencja już dziś zmienia naukę, dydaktykę i organizację pracy. Pytanie nie dotyczy już tylko tego, co ta technologia potrafi, ale jak zachować wobec niej ludzką sprawczość, mądrość i kontrolę.
Materiał powstał we współpracy z Uniwersytetem Warszawskim