BHP sztucznej inteligencji: zamiast się bać – korzystaj z głową

– AI zmienia obieg informacji i grozi przeciążeniem poznawczym. To wywołuje obawy, które część z nas powstrzymują przed korzystaniem z możliwości, jakie daje sztuczna inteligencja. Im mniej o niej wiemy, tym łatwiej oddajemy pole do tej pory zarezerwowane tylko dla gatunku ludzkiego. Nie musi tak być. Kluczowe jest, by każdy, niezależnie od wieku i zawodu, potrafił korzystać z AI bezpiecznie, etycznie i świadomie. Tylko tak zbudujemy dojrzałe, odpowiedzialne społeczeństwo w epoce sztucznej inteligencji – mówi dr hab. inż. Tomasz Kajdanowicz, prof. uczelni, który kieruje Katedrą Sztucznej Inteligencji na Politechnice Wrocławskiej.

Eksperci wrocławskiej uczelni proponują kilka złotych zasad BHP sztucznej inteligencji. Jeśli wdrożymy je w życiu prywatnym, zawodowym czy w obszarze edukacji, będzie nam łatwiej korzystać ze zdobyczy technologii, nie tracąc nad tym kontroli.

Zadbaj o ekologię informacyjną – prywatnie i zawodowo

Jak wynika z raportu „Między ciekawością a niepewnością. Pokolenia Polaków wobec sztucznej inteligencji – wiedza, doświadczenie, nastroje”, opracowanego na zlecenie Politechniki Wrocławskiej przez agencję badawczą K+ Research, dezinformacja i manipulacja informacjami są najczęściej wskazywanymi przez respondentów zagrożeniami, wynikającymi z rozwoju AI (44% wskazań w badaniach ilościowych).

– Dezinformacja jest narastającym problemem, który w obliczu globalizacji przybiera jeszcze na sile. Jesteśmy przytłaczani ilością informacji, dlatego tak ważna jest higiena i uważna ich selekcja, zwłaszcza informacji generowanych przez AI – mówi dr inż. Jan Kocoń z Politechniki Wrocławskiej, współtwórca polskiego modelu językowego PLLuM. – Naczelną pozostaje zasada ograniczonego zaufania wobec wytworów AI, której nie powinniśmy traktować jako prawdy objawionej. Na rynku dostępne są bezpłatne narzędzia do weryfikacji informacji – nie bójmy się z nich korzystać. Traktujmy AI jako narzędzie wspomagające, a nie decydujące, zwłaszcza w obszarach dotyczących naszego zdrowia, finansów czy prawa – zwraca uwagę dr inż. Jan Kocoń.

Przeczytaj też:  Kobiety i osoby z nadwagą - równość w opiece zdrowotnej pozostaje wyzwaniem

Zgodnie z danymi z raportu Politechniki Wrocławskiej ponad 1/3 respondentów wskazuje czatboty jako narzędzie AI, z którego korzysta świadomie. Używając ich, zadbajmy o naszą prywatność. Czytajmy licencje, sprawdzajmy, jakie dane przekazujemy czatbotom, nie udostępniajmy dokumentów ani danych osobowych. Ma to znaczenie zarówno w życiu prywatnym, jak i zawodowym.

Pracodawco! Twórz zasady – nie czekaj aż AI zrobi to za Ciebie

Jak wynika z raportu, aż 44% badanych nie było w stanie ocenić czy sztuczna inteligencja jest w ich miejscu pracy dostępna bez przeszkód. Co piąty badany myśli co prawda o bezpieczeństwie danych przekazywanych AI podczas wykonywania zawodowych obowiązków, ale jednocześnie tyle samo ma problem z przedstawieniem swojego stosunku do praw autorskich czy etyki korzystania z AI w pracy.

– Wyraźny rozdźwięk między potrzebą stosowania AI, a jej realnym wykorzystaniem w pracy, wynika nie z braku zaufania, lecz z niedostatecznej wiedzy i braku kompetencji wdrożeniowych, szczególnie w organizacjach, które nie posiadają kultury technologicznej – twierdzi prof. Tomasz Kajdanowicz. – To w kompetencji zarządzających firmą jest tworzenie reguł i ram, w których pracownicy będą czuć się na tyle pewnie, korzystając ze zdobyczy technologii opartych na sztucznej inteligencji, by za efekty tak wykonanej pracy wziąć pełną odpowiedzialność – podsumowuje ekspert Politechniki Wrocławskiej.

W wielu firmach istnieją komórki odpowiedzialne za wdrażanie AI w różne procesy wewnątrz firmy. Inne korzystają ze szkoleń i ekspertów zewnętrznych, którzy przygotowują dla nich kodeksy AI i określają obszary, w których automatyzacja zadań jest dopuszczalna. – Z drugiej strony widzimy też, że sztuczna inteligencja coraz śmielej wkracza w obszary związane z rekrutacją. Pracownicy mają zatem prawo oczekiwać pełnej transparentności w procesach rekrutacyjnych i decyzyjnych wspieranych przez AI – zauważa Katarzyna Oleszek-Sławińska z Biura Karier Politechniki Wrocławskiej.

Edukacja cyfrowa – nigdy nie jest za późno

– Tylko 15% respondentów deklaruje wysoki poziom wiedzy o AI i jest to sygnał alarmowy. Jednocześnie aż 43% badanych twierdzi, że jest otwarta na poszerzanie swojej wiedzy z tego zakresu i to odczytuję jako dobry prognostyk – mówi dr inż. Jan Kocoń. – Bez edukacji trudno mówić o odpowiedzialnym wdrażaniu i demokratyzacji technologii. Z perspektywy dydaktycznej i badawczej uważam, że musimy nie tylko rozwijać technologię, ale też intensywnie edukować zwłaszcza osoby spoza świata IT – dodaje ekspert.

Przeczytaj też:  Mniej lektur – więcej kompetencji miękkich

Jak twierdzą naukowcy z Politechniki Wrocławskiej, budowanie cyfrowej odporności społecznej powinno obejmować dziś wszystkie generacje. Elementy wiedzy o AI – w tym głównie umiejętności krytycznego i logicznego myślenia oraz weryfikowania wiedzy – powinny być sukcesywnie wprowadzane w programach nauczania już na wczesnym etapie edukacji, ale nie tylko.

– Naszym zadaniem jako uczelni jest dostarczanie społeczeństwu wiedzy oraz edukowanie w zakresie odpowiedzialnego korzystania z narzędzi AI – mówi prof. Kamil Staniec, prorektor ds. nauczania Politechniki Wrocławskiej. – Zadanie to realizujemy nie tylko w murach uczelni, ale też poprzez współpracę ze szkołami średnimi, prowadzenie zajęć dla młodzieży czy działania z seniorami w ramach Politechniki Trzeciego Wieku. Zwracamy uwagę, jak rozpoznawać zagrożenia czy też zadawać właściwe pytania – dodaje prof. Staniec.

AI zmienia zasady gry w szkolnictwie wyższym – zaakceptuj je

Obok licznych obaw związanych z AI respondenci badania zleconego przez Politechnikę Wrocławską potrafią też wskazać wiele korzyści. Co trzeci uczestnik badania wymienia wśród nich pomoc w nauce (36%). Fakt ten nabiera szczególnego znaczenia dla standardów edukacji na poziomie akademickim.

– Jako dydaktycy mierzymy się z wyzwaniem wdrożenia zasad funkcjonowania sztucznej inteligencji w murach uczelni – mówi prof. Kamil Staniec. – Na Politechnice Wrocławskiej cały czas pracujemy nad ich standaryzacją, np. planujemy organizację obowiązkowych szkoleń BHP AI dla studentów. Podobnie jak uczymy zasad bezpieczeństwa w laboratorium, tak będziemy ich wkrótce uczyć, jak bezpiecznie i etycznie korzystać z AI – dodaje prorektor Politechniki Wrocławskiej.

Jednostki edukacyjne powinny mieć jasno wytyczone obszary, w których studenci mogą wspierać się sztuczną inteligencją, ale też sprecyzowane zasady oznaczania wytworów powstałych z zastosowaniem narzędzi AI.

Eksperci Politechniki Wrocławskiej prognozują, że w niedalekiej perspektywie uczelnie mogą spodziewać się istotnej zmiany w systemie oceniania osiągnieć studentów. Klasyczne prace zaliczeniowe ulegną przeformatowaniu, a kluczowa stanie się systematyczna weryfikacja postępów, prowadzonych w ramach projektów zespołowych.

Przeczytaj też:  Nowa aplikacja Novakid Junior – jak wspierać naukę mówienia po angielsku u najmłodszych?

Raport o stanie wiedzy Polaków o AI dostępny jest w wersji elektronicznej na stronie Politechniki Wrocławskiej.