Sztuczna inteligencja rewolucjonizuje niemal każdą dziedzinę naszego życia. Rozwój tej technologii jest powiązany z innowacyjnością i potencjałem gospodarki. Ministerstwo Cyfryzacji przygotowało projekt nowej „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku”, który trafia właśnie do konsultacji.
– Chcemy, aby Polska znalazła się wśród liderów Kontynentu AI. Żeby tak się stało, potrzebny jest silny ekosystem i spójna integracja krajowych kompetencji – ośrodków badawczych, biznesu i administracji, wspieranie talentów oraz budowa światowej klasy infrastruktury technologicznej. Kluczowe znaczenie mają działania wspierające transfer technologii, projekty B+R, eksperymenty w piaskownicach regulacyjnych oraz dostęp do parków technologicznych i stref ekonomicznych – wymienia wiceminister cyfryzacji Dariusz Standerski. Cele, jakie stawia sobie Polska, są ambitne: do 2030 r. nasz kraj ma się znaleźć wśród 10–20 najbardziej zaawansowanych państw świata w rankingach AI.
Budowanie mostów
Przedsiębiorcy, z którymi rozmawiała „Rzeczpospolita”, zgodnie twierdzą, że temat jest złożony i że współpraca z sektorem naukowym jest problematyczna.
– Z jednej strony mamy bardzo dobre doświadczenia współpracy z naukowcami, z którymi często kooperujemy od lat przy różnych projektach. Z drugiej, oficjalna współpraca z instytucjami wiąże się zwykle z olbrzymimi przeszkodami biurokratycznymi i kosztami generowanymi przez administrację uczelni – mówi Zenon Kosicki, członek zarządu Emplocity.
Co istotne, dużo ciekawych projektów realizowanych w Polsce ma charakter oddolnej inicjatywy. – Przykładem może być np. polski duży model językowy (LLM) stworzony przez entuzjastów zgromadzonych wokół projektu SpeakLeash. W Emplocity mamy bardzo dobre doświadczenia we wdrażaniu stworzonego przez nich modelu Bielik (np. w Instytucie Badań Edukacyjnych). Co więcej, współpracujemy z zespołem Spichlerza i planujemy wspólne inicjatywy – wymienia przedstawiciel Emplocity. Dobrym przykładem jest też strategiczne partnerstwo AGH z firmą Euvic Solutions, zawarte w lutym 2025 r., oraz działania realizowane przez Accenture.
– Organizujemy hackathony, które dają studentom kontakt z rzeczywistymi wyzwaniami rynkowymi. Współtworzymy studia podyplomowe, jak choćby kierunek z transformacji cyfrowej na SGH. Angażujemy się też w targi pracy i dni kariery, które coraz częściej stają się przestrzenią nie tylko do rekrutacji, ale też edukacji, mentoringu i inspiracji – mówi Grzegorz Chudek, dyrektor zarządzający, odpowiadający za praktykę chmurową w Accenture w Polsce. Dodaje, że to wszystko dzieje się w czasie, gdy firmy potrzebują ludzi gotowych do działania „od dnia pierwszego”, a uczelnie konkurują o studentów również jakością i praktycznością oferty. Dlatego właśnie takie inicjatywy, łączące świat akademicki z biznesowym, są dziś nie tylko wartościowe, ale wręcz konieczne.
Firmy technologiczne chcą innowacji, a uczelnie chcą aplikacji. W teorii wszystko się zgadza. W praktyce jednak często kończy się na grantach, które żyją własnym życiem, i start-upach, które po dwóch latach znikają z rynku.
Czy polskie firmy mają zatem szansę na AI światowego formatu? – Tak, pod warunkiem że nie będą same. Sektor naukowy może im pomóc, choćby przez dostęp do badań, modeli, infrastruktur obliczeniowych, a czasem po prostu do ludzi, którzy wiedzą, co robią. Tylko że dziś ta pomoc jest raczej przypadkowa niż systemowa. Brakuje mechanizmów wspierających długofalową współpracę. Często wszystko zależy od entuzjazmu jednej osoby, profesora lub CEO, co na dłuższą metę nie wystarcza – mówi Piotr Herstowski, menedżer ds. rozwoju biznesu w KODA.ai.
Zaznacza, że są wyjątki. – Współprace pomiędzy AGH a sektorem przemysłowym, projekty realizowane z Politechniką Warszawską, niektóre działania Sieci Badawczej Łukasiewicz to dobre znaki. Ale to wciąż bardziej wyjątek niż reguła – podsumowuje.
Dobrym przykładem spoiwa łączącego świat nauki i biznesu jest też model venture building, w ramach którego doświadczeni partnerzy wspierają rozwój start-upów bazujących na wynikach badań naukowych.
– Takim działaniem jest współpraca The Heart z zespołami akademickimi w ramach EIT Health Deep Tech Venture Builder Programme – mówi Zbigniew Leś, dyrektor ds. partnerstw badawczo-rozwojowych i transferu technologii w The Heart. Dodaje, że w tym roku dwa projekty naukowe, w tym jeden z obszaru AI, przy wsparciu The Heart przejdą ścieżkę szybkiej komercjalizacji właśnie w modelu venture buildingowym.
Z tym, że mamy w kraju świetnych naukowców, trudno polemizować. Jeszcze kilka lat temu – według raportu „State of Polish AI” opracowanego przez Fundację Digital Poland – byliśmy na siódmym miejscu pod względem liczby ekspertów pracujących przy rozwiązaniach AI. Czyli know-how jest. Pytanie tylko, jak przekuć to w konkretne produkty i rozwiązania.
– W tym aspekcie sektor naukowy radzi sobie znacznie gorzej (nie jest to krytyka, bo to też nie do końca ich rola). Najlepsze rozwiązanie to łączyć naukowców z produktowcami, czyli ludźmi, którzy potrafią komercjalizować rozwiązanie – uważa Michał Sadowski, prezes Brand 24. Dodaje, że nauka daje fundament: najnowsze algorytmy, dostęp do laboratoriów, analizy. Problemem często bywa jednak „język”. Czasem potrzeba tzw. translatora. Kogoś, kto rozumie i jedno, i drugie. Idealnie tu działa model współpracy typu „spin-off akademicki”, gdzie uczelnia dostarcza know-how, a start-up buduje produkt.
– Tak właśnie dzieje się od lat w Brand24. Eksperci z Politechniki Wrocławskiej, z którą współpracujemy blisko w tematach AI, w połączeniu z zespołem produktowym są w stanie budować globalny produkt, wykorzystywany przez tysiące klientów ze 160 krajów – wskazuje Sadowski.
AI w szkole
Ważną płaszczyzną współpracy pomiędzy nauką a AI jest bezpośrednie wykorzystanie tej technologii w szkole. Badania Sanoma Learning pokazują, że ponad połowa nauczycieli w Europie już dziś widzi w AI szansę na poprawę efektywności pracy. To ogromna wartość dla tej grupy zawodowej narażonej na wypalenie. Jeśli nauczyciel może skrócić czas tworzenia materiałów dydaktycznych czy scenariuszy lekcji, zyskuje przestrzeń na to, co naprawdę ważne, czyli sam proces nauczania, kontakt z uczniami i rozwój zawodowy. Największy odsetek nauczycieli wskazuje, że narzędzia cyfrowe są szczególnie pomocne w pracy z uczniami z dysleksją, ADHD czy epilepsją.
– Wyobraźmy sobie, że każdy uczeń, przychodząc na lekcje, dostaje materiały dostosowane do swoich możliwości, stylu uczenia się i tempa pracy. W obecnym modelu edukacji to ideał, który trudno zrealizować. Nauczyciel jest jeden, uczniów od kilkunastu do kilkudziesięciu, a doba ma tylko 24 godziny. Ale dzięki AI jest to możliwe. To pokazuje, że ta technologiczna ciekawostka odpowiada na bardzo realne wyzwania – mówi Radosław Mechło, doradca ds. AI z BUZZcenter.
Choć AI ma ogromny potencjał, jej skuteczne wykorzystanie wymaga wiedzy i doświadczenia. W przeciwnym razie może generować tzw. halucynacje, treści pozornie wiarygodne, lecz błędne. Sztuczna inteligencja nie zawsze rozumie kontekst, bywa zależna od nieaktualnych danych i może nieprawidłowo interpretować polecenia. Niewłaściwe użycie wiąże się też z ryzykiem naruszenia prywatności, utraty danych oraz niezamierzonego plagiatu.
Tak jak uczymy się pisać, czytać czy liczyć, tak też musimy nauczyć się korzystać z AI.
W rolnictwie AI wspiera optymalizację upraw, m.in. poprzez analizę warunków pogodowych
Patrzmy racjonalnie
O AI zrobiło się głośno stosunkowo niedawno, ale w praktyce zaawansowane algorytmy są przez naukowców i przedsiębiorców wykorzystywane już od dawna. Natomiast stopień ich złożoności i specyfika na przestrzeni ostatnich lat mocno ewoluowały.
– Grupa Transition Technologies jest obecna w sektorze sztucznej inteligencji już od lat 90. Specjalizowaliśmy się w rozwiązaniach pre-GenAI opartych na analizie danych przemysłowych i opracowaliśmy, m.in. wspólnie z Politechniką Warszawską, rozwiązania optymalizacji pracy bloków energetycznych (prawie 100 wdrożonych projektów m.in. w USA, Europie i Azji) – opowiada Konrad Świrski, profesor Politechniki Warszawskiej i prezes Grupy Transition Technologies.
Wspomina, że były to czasy tzw. pre-GenAI i zastosowań ściśle inżynierskich oraz przemysłowych. Wówczas kluczowe było opracowanie własnych modeli, a także wiedza branżowa oraz dość wyrafinowana umiejętność programowania i integracji z przemysłowymi systemami sterowania, co prowadziło do budowy własnych rozwiązań i własnych licencji. Tymczasem obecna generacja sztucznej inteligencji (modele GenAI) to zupełnie inne systemy, o znacznie większej złożoności i przetwarzające przede wszystkim złożone dane niestrukturalne (słowa, obraz i dźwięk). Zmienił się też sposób budowania modeli.
– Dziś korzystamy z wielkich komercyjnych systemów, takich jak OpenAI, Claude, Gemini, LLaMA, i z rozwiązań (budowanych przez nas lub inne firmy) opartych na tych silnikach. Na tym tle, wobec złożoności modeli i samego kosztu ich opracowania, możliwości polskiego sektora naukowego oceniam jako znacznie mniejsze – mówi Świrski. Dodaje, że przy inwestycjach rzędu setek miliardów dolarów nawet najbardziej zaawansowane badania naukowe w polskich jednostkach mogą dać nieporównanie mniejsze rezultaty. Radzi skupiać się na aplikacjach i zastosowaniach, a nie próbie powtarzania tego, co jest, i nadgonienia światowych rozwiązań, które i tak w międzyczasie rozwiną się kilkakrotnie szybciej. A konkurencja jest ogromna.
– Trzeba spojrzeć prawdzie w oczy: środki potrzebne na konkurencyjny rozwój, np. GenAI, są tak duże, że nawet cała polska nauka nie da rady tu konkurować. Dobrze byłoby patrzeć na to racjonalnie, a nie budować kolejne nadzieje. Mieliśmy już przecież i niebieski laser, i polskie technologie wydobycia łupków, grafen czy perowskity – podsumowuje Świrski.
Perspektywa nauki
Współpraca obu środowisk odbywa się na kilku równoległych płaszczyznach. Jedną z nich jest komercjalizacja i transfer wyników badań poprzez Centra Transferu Technologii, czyli jednostki działające przy uczelniach. Ich zadaniem jest ochrona własności intelektualnej (IP), zarządzanie nią i udzielanie do niej praw. Oprócz tych jednostek przy uczelniach pracują spółki celowe powoływane do wspierania sprzedaży IP w modelu pośrednim.
– W praktyce oznacza to wspieranie badaczy w zakładaniu akademickich start-upów, nazywanych spółkami spin-off, które nabywają od uczelni prawa do IP, by nią dalej rozporządzać, rozwijać lub sprzedawać samodzielnie. Poza tymi aktywnościami na uczelniach wydziały i inne jednostki badawcze mają zazwyczaj sporą autonomię, co pozwala im podejmować samodzielną współpracę z biznesem – mówi dr hab. inż. Przemysław Dubel, dyrektor Centrum Transferu Technologii i Wiedzy Uniwersytetu Warszawskiego. Na to wszystko nakłada się jeszcze szereg inicjatyw podejmowanych w ramach programów i projektów finansowanych ze źródeł zewnętrznych, gdzie badacze podejmują się współpracy z podmiotami zewnętrznymi, tworząc projektowe konsorcja i partnerstwa.
Patrząc z perspektywy samego UW, widać, że ten model działa. Świadczy o tym chociażby duża liczba spółek spin-off założonych przy uniwersytecie. Dotychczas powstały 32 takie podmioty, z których niektóre to dziś już dojrzałe i rentowne spółki. Część regularnie pozyskuje finansowanie ze środków prywatnych i unijnych, a inne samodzielnie rozwijają się w sposób organiczny ze środków własnych.
– Z kolei jeśli chodzi o wyzwania w zakresie współpracy biznesu z nauką, to są od lat te same. Mówiąc w największym skrócie, wynikają z rozbieżności celów i modelów działania typowych dla środowiska biznesu i akademickiego – mówi Dubel. – W transferze technologii mamy do czynienia z tak zwanym zjawiskiem doliny śmierci – dodaje. Polega ono na tym, że technologie opracowywane w środowisku akademickim zazwyczaj są wynikiem prac badawczych o charakterze podstawowym. Mają już potencjał rynkowy, ale ich poziom gotowości technologicznej pozostaje niski. Z perspektywy badaczy podnoszenie tych poziomów jest problematyczne, ponieważ potrzeba na to dodatkowych środków, a wynik prac rozwojowych niekiedy nie skutkuje publikacją naukową. Z kolei dla biznesu czy inwestorów technologie o niskim poziomie gotowości nie są jeszcze na tyle atrakcyjne, by ponieść ogromne ryzyko inwestycyjne. W ten sposób powstaje impas zwany właśnie „doliną śmierci”.
Co powinno się zmienić, żeby ta współpraca była lepsza? W środowisku naukowym wiele mówi się o potrzebie zrewidowania systemu ewaluacji badaczy. Teraz akcent położony jest na publikowanie wyników badań.
– Obecny system nie premiuje na dostatecznym poziomie aktywności zmierzających do komercjalizacji wyników prac badawczych. Owszem, można uzyskać skromną punktację za uzyskanie patentu czy przychód z komercjalizacji, daje to jednak na tyle skromny udział w ogóle możliwych do uzyskania punktów za publikacje, że siłą rzeczy działania na polu transferu technologii wypadają poza listę priorytetów – podkreśla Dubel. Dodaje, że jeśli chodzi o możliwe zmiany, to system mógłby dawać badaczom wybór ścieżek realizacji kariery bez uszczerbku dla ich ocen okresowych. Są badacze, którzy chcieliby się angażować w komercjalizację i transfer technologii. Nie są oni większością, ale stanowią istotną siłę, która mogłaby napędzać rozwój innowacji w Polsce.
Strategiczne inwestycje
Choć liczba kierunków studiów i inicjatyw edukacyjnych z zakresu nowych technologii rośnie, polskie uczelnie nadal zmagają się z brakiem odpowiedniego zaplecza laboratoryjnego. Dotyczy to szczególnie tak wymagających dziedzin jak np. technologie kwantowe, które wymagają nie tylko kompetencji teoretycznych, ale także fizycznego dostępu do specjalistycznego sprzętu i środowisk do testowania.
– Pozytywnym przykładem działań w tym kierunku są inicjatywy budujące realne środowiska laboratoryjne dla studentów i inżynierów umożliwiające pracę z rzeczywistymi systemami, a nie tylko symulacjami. Tego typu projekty zapewniają sprzęt, oprogramowanie i materiały dydaktyczne, które pozwalają rozwijać praktyczne kompetencje i przybliżają realia pracy badawczej oraz przemysłowej – mówi Marcin Sadowski, prezes Sonovero R&D oraz inicjator AIQLAB.
Według raportu EY 25 proc. polskich firm wdrożyło rozwiązania AI, to wzrost o 5 pkt proc. rok do roku, a kolejne 40 proc. jest w trakcie. Jasno widać, że AI przestaje być futurystyczną koncepcją, a staje się realnym narzędziem budowania przewagi konkurencyjnej.
– Potwierdzeniem potencjału polskiego sektora AI jest spektakularny sukces warszawskiego start-upu Nomagic, który w rundzie B pozyskał aż 44 mln dol., a łącznie zebrał już 74 mln dol. od międzynarodowych inwestorów – wskazuje Arkadiusz Seredyn, wiceprezes w RITS Professional Services. Statystyki potwierdzają, że cały polski ekosystem AI przyciąga coraz większą uwagę. Tylko w 2024 r. polskie start-upy AI pozyskały blisko 171 mln euro, w tym m.in. Campus AI (9,2 mln euro), Synerise (7,8 mln euro) czy Sky Engine AI (6,4 mln euro).
Impulsem dla rozwoju AI w Polsce może być PIAST AI Factory w Poznaniu, projekt europejskiej fabryki sztucznej inteligencji o wartości 400 mln zł, współfinansowany przez UE i budżet państwa.
Polska dysponuje bardzo dużą pulą talentów w obszarze IT – mamy aż 250 000 deweloperów IT (co daje nam pierwsze miejsce w regionie CEE), a także duży rynek ekspertów z branży technologicznej (aż 16 000 absolwentów rocznie), dlatego międzynarodowe firmy chętnie lokują tu swoje centra R&D, co przyspiesza rozwój.
– W związku z tym Polska ma duże szanse stać się jednym z europejskich centrów innowacji w dziedzinie nauki i nowoczesnych technologii. Decydenci są tego świadomi, o czym świadczy ogłoszenie programu PFR Deep Tech, w ramach którego nawet 600 mln zł zostanie zainwestowane w najbardziej przełomowe projekty technologiczne – podkreśla Sylwia Pyśkiewicz, dyrektor zarządzająca Equinix w Polsce.
Potrzebne partnerstwa
Jakość wytrenowanych modeli zależy od jakości dostarczonych danych, a dzięki otwartemu środowisku informacyjnemu możemy przyspieszyć rozwój algorytmów. Dawniej firmy i uniwersytety prowadziły badania nad własnymi, oddzielnymi zbiorami danych. Rośnie jednak świadomość, że innowacje wymagają dzielenia się informacjami i nawiązywania partnerstw.
– Najbardziej rozpoznawalnym przykładem jest współpraca pomiędzy firmą Astra Zeneca a Uniwersytetem Oksfordzkim oraz Pfizer z BioNTech nad opracowaniem szczepionek przeciwko Covid-19 – wskazuje Pyśkiewicz.
W globalnej nauce i technologii mocno wybrzmiewa polski akcent. Wskazują na to m.in. przedstawiciele Google’a, którego technologie automatyzują skomplikowane procesy analityczne i umożliwiają prowadzenie badań, które do niedawna wydawały się niewykonalne. Jednym z przełomowych osiągnięć w tym obszarze jest model AI AlphaFold, stworzony przez Google DeepMind. Umożliwia precyzyjne przewidywanie trójwymiarowych struktur białek, co znacząco przyspieszyło badania i projektowanie nowych leków. Znaczenie tego osiągnięcia zostało docenione w 2024 r., kiedy twórcom modelu – Demisowi Hassabisowi i Johnowi Jumperowi – przyznano Nagrodę Nobla w dziedzinie chemii.
– Google bezpłatnie udostępniło to narzędzie społeczności naukowej na całym świecie. W Polsce korzysta z niego m.in. dr Mateusz Sikora z Małopolskiego Centrum Biotechnologii Uniwersytetu Jagiellońskiego, który wraz z międzynarodowym zespołem pracuje nad algorytmem GlycoSHIELD, wspierającym wizualizację struktur białek i cukrów dla celów rozwoju szczepionek oraz immunoterapii – wskazuje Olga Sztuba z Google’a. Zwraca uwagę również na rewolucję w diagnostyce nowotworów, której współautorem jest polski naukowiec, dr inż. Marcin Sieniek. Jego zespół w ramach Google Health wdrożył inteligentny system analizy zdjęć mammograficznych. System, szkolony na setkach tysięcy zdjęć, pomaga lekarzom w szybszej i trafniejszej diagnozie raka piersi, osiągając skuteczność równą lub wyższą niż radiolodzy.
Również Microsoft deklaruje, że od lat buduje mosty między przemysłem a uczelniami, oferując narzędzia i infrastrukturę, które pozwalają naukowcom na prowadzenie zaawansowanych badań w chmurze.
– W ramach inicjatyw, takich jak Microsoft Research, program Accelerating Foundation Models Research czy Azure for Research, udostępniamy uczelniom dostęp do zaawansowanych usług Azure AI, finansujemy wspólne projekty badawcze oraz promujemy otwartą wymianę danych. Dzięki temu jednostki naukowe mogą korzystać z mocy chmury, a biznes – z wyników badań nad właściwościami i zastosowaniami nowoczesnych modeli AI – wskazuje Barbara Michalska, dyrektorka rynku edukacyjnego w polskim oddziale Microsoftu. W jej ocenie największymi wyzwaniami we współpracy nauki i biznesu są różnice w tempie działania, zarządzanie prawami własności intelektualnej oraz zapewnienie etycznego wykorzystania AI. Microsoft podkreśla, że stara się odpowiadać na te wyzwania poprzez tworzenie transparentnych ram współpracy, wdrażanie zasad odpowiedzialnej sztucznej inteligencji oraz przeznaczone do tego zespoły wsparcia dla naukowców, które pomagają w formalnościach związanych z grantami, grantach Horyzont Europa czy wypełnianiu dokumentów RODO.
– Aby ta współpraca była jeszcze efektywniejsza, potrzebujemy silniejszych partnerstw publiczno-prywatnych, otwartych ekosystemów danych oraz spójnych regulacji w całej Europie – podsumowuje Michalska.