Więcej danych można znaleźć m.in. na stronach: aistatistics.ai, Hostinger, Planable, Fortune Business Insights oraz FF.co. Wśród najbardziej rozpoznawalnych i wszechstronnych modeli AI znajdują się: GPT-4o od OpenAI, Claude (Anthropic), Gemini (Google DeepMind), chińskie modele DeepSeek i Qwen, Grok (xAI, Elon Musk) oraz Meta Llama (Meta AI). W Polsce dostępny jest również darmowy model językowy BIELIK, udostępniony w domenie publicznej.
Rosnąca liczba użytkowników AI sprawia, że temat ten coraz częściej pojawia się w debacie publicznej. Według raportu Uniwersytetu Stanford z 2024 roku, 55% respondentów na świecie oceniło produkty i usługi AI jako bardziej korzystne niż szkodliwe – w porównaniu do 52% w 2022 roku. Jednocześnie rośnie też liczba osób wyrażających obawy dotyczące etyki, prywatności, cyberbezpieczeństwa, potencjalnej stronniczości systemów, dezinformacji czy ingerencji w wolność jednostki.
Wszyscy słyszeliśmy pytanie: Czy AI za 2, 5, 10 czy 15 lat zastąpi mój zawód? Nierozsądnie byłoby założyć, że w żadnym przypadku do tego nie dojdzie.
Jak więc nie zostać jedynie konsumentem AI-owego „fast-fooda”?
Zacznijmy od obserwacji z roku akademickiego 2024/2025. Widać, że studenci nie wykorzystują w pełni potencjału kreatywnego przygotowywania zapytań (tzw. promptowania). Często pytanie zadane przez wykładowcę jest po prostu przeklejane do chatbota, bez kontekstu, co skutkuje uzyskaniem najprostszej i najmniej wartościowej odpowiedzi. Tymczasem wystarczyłoby poinformować model AI, że ma się zachować jak ekspert w danej dziedzinie, który przeczytał konkretne źródła (np. książkę 1 i 2), a jego zadaniem jest wytłumaczenie złożonego zagadnienia innemu specjaliście. Takie podejście zmienia jakość uzyskanych odpowiedzi. Warto też testować różne wersje promptów w gronie znajomych – ucząc się dzięki temu myślenia, eksperymentowania i budując kompetencje współpracy z AI w całej grupie.
Do bardziej złożonych zadań można wykorzystać tzw. prompt chaining (łańcuchy promptów) – technika, w której poszczególne etapy rozmowy z AI są powiązane i zależą od siebie. Pozwala to tworzyć dłuższe, bardziej kontekstowe interakcje, dzielić skomplikowane problemy na etapy i lepiej kontrolować odpowiedzi.
Można również korzystać z funkcji personalizacji, takich jak „Custom Instructions, Code Interpreter, Image input, Bio tool” dostępne w ChatGPT, które pozwalają użytkownikowi określić własne preferencje dotyczące stylu, tonu wypowiedzi czy zakresu tematycznego. Takie możliwości sprawiają, że interakcja z AI staje się bardziej dopasowana do indywidualnych potrzeb i celów. W tym kontekście coraz częściej mówi się o zjawisku „AI-powered people”, czyli osobach i organizacjach, które potrafią skutecznie wykorzystywać sztuczną inteligencję do zwiększania efektywności, podejmowania trafniejszych decyzji i podnoszenia jakości swojej pracy. Dzięki AI możemy:
- automatyzować rutynowe zadania, zyskując więcej czasu na działania kreatywne,
- korzystać z analityki danych w celu szybszego i trafniejszego podejmowania decyzji,
- rozwijać swoje kompetencje i zwiększać produktywność,
- koncentrować się na tych aspektach pracy, które wymagają inteligencji emocjonalnej, innowacyjności i umiejętności rozwiązywania złożonych problemów.
Konsument czy twórca?
Co istotne, na obecnym etapie rozwoju technologii nie trzeba nawet umieć programować, aby rozpocząć przygodę z eksperymentowaniem z AI. Dzięki lekkim, otwarto-źródłowym (open-source) modelom językowym można samodzielnie pobrać i uruchomić lokalnego LLM-a na własnym komputerze, a następnie „nauczyć go” treści wybranej książki, by zadawać pytania i analizować zawartość. Do popularnych modeli należą m.in. Llama 3 (Meta) w wersjach 8B, 13B i 7B, Phi-3 (Microsoft), Gemma (Google) oraz TinyLlama. Ich obsługa jest możliwa dzięki prostym w użyciu narzędziom, takim jak Ollama (dla Windows, Mac i Linux), LM Studio (z przyjaznym graficznym interfejsem) czy GPT4All. W przypadku LM Studio i GPT4All użytkownik może wczytać plik tekstowy (np. w formacie .txt lub .pdf), a następnie prowadzić rozmowę z modelem na podstawie zawartych w nim informacji. Takie praktyczne eksperymenty, obejmujące przygotowanie odpowiedzi na pytania wykładowcy na podstawie konkretnej książki, pozwalają lepiej zrozumieć, jak działa AI, na czym polega proces uczenia się na podstawie danych oraz jak kluczowa jest jakość dostarczanych treści wejściowych.
Często to, czego brakuje modelom AI, by udzielić odpowiedzi, na której nam zależy, to osadzenie pytania w szerszym kontekście — takim, do którego my mamy dostęp, a którego AI nie musi znać. Co więcej, gdy temat jest słabo udokumentowany, dotyczy nieistniejących faktów lub brakuje mu jasnych odniesień, model językowy zaczyna konfabulować. Odpowiedzi mogą wtedy brzmieć przekonująco, ale w rzeczywistości są nietrafne lub wręcz fałszywe. W takich przypadkach model językowy niejako „zgaduje” odpowiedź, bazując na podobnych frazach lub sytuacjach spotkanych podczas treningu, zamiast opierać się na faktach. Krytyczne spojrzenie na taką odpowiedź wymaga jednak od użytkownika przynajmniej podstawowej wiedzy w danym obszarze. Dlatego nadal warto sięgać do oldschoolowych podręczników akademickich — nie po to, by zapamiętać każde zdanie, lecz by zrozumieć szerszy kontekst i zyskać ogólne rozeznanie w temacie. Dopiero potem warto kondensować wiedzę do kluczowych punktów przydatnych na egzaminie z pomocą AI.
Jak trafnie zauważył prof. dr hab. inż. Adam Wojciechowski w artykule AI to wciąż nóż w rękach dziecka, uczelnia powinna badać i popularyzować mechanizmy działania sztucznej inteligencji, a my – skutecznie je wykorzystywać i rozwijać kompetencje w tym zakresie. Kluczowe pytanie brzmi: czy chcemy być wyłącznie konsumentami tej technologii, czy również jej twórcami?
W świecie, w którym narzędzia AI stają się coraz potężniejsze, różnica między tymi, którzy tylko konsumują treści, a tymi, którzy je tworzą – będzie się pogłębiać.