W dniu 15 czerwca br. miało miejsce ostatnie przedwakacyjne posiedzenie Komitetu Prognoz. Tematem obrad była sztuczna inteligencja (SI). Celem spotkania było poszukiwanie odpowiedzi na pytania związane ze społecznymi aspektami SI, m.in. czy jej wykorzystanie jest szansą, czy też zagrożeniem dla rozwoju społeczeństw? Ponadto rozważano etyczne aspekty stosowania SI.

Wprowadzenia do dyskusji dokonali:

Prof. Tadeusz Burczyński

Prof. Ryszard Tadeusiewicz

Prof. Wojciech Cellary

Prof. Aleksandra Przegalińska-Skierkowska.

Punktem wyjścia był wykład dotyczący istoty sztucznej inteligencji. Komitet Prognoz ma charakter interdyscyplinarny, co oznacza, że takie wprowadzenie dla wielu jego członków ma duże znaczenie, ponieważ umożliwia nabycie i usystematyzowanie wiedzy o sztucznej inteligencji.

Sztuczna inteligencja może być definiowana na wiele sposobów, ale wydaje się, że najbardziej adekwatne jest opisywanie jej poprzez trzy cechy tj.: symulację procesów naturalnych (test Turinga); inteligentne czynności, np. grę w szachy oraz racjonalne sprawstwo. Do inteligentnych czynności zalicza się heurystyki, tj. zasady ograniczające zakres przeszukiwania zbiorów danych oraz zdolność uczenia się, czyli wykorzystywanie zdobytej wiedzy do rozwiązywania problemów. Racjonalne sprawstwo jest definiowane jako zdolność systemu do inicjowania działań, które są sensowne w określonym środowisku, a następnie do skutecznego kierowania tymi działaniami. Racjonalne sprawstwo jest najtrudniejszym elementem SI.  

Sztuczna inteligencja nie powinna być traktowana jak jeden podmiot. Bardziej należy sobie wyobrazić ją jako archipelag wysp (metod), z których każda rozwija się i przybliża do ideału, ale jednocześnie jest nieco inna od pozostałych. Z tego powodu nie powinniśmy traktować SI jedynie przez pryzmat dialogu człowieka z maszyną, kreowania tekstów lub obrazów, ale również przez szereg innych działań istotnych dla rozwoju człowieka i ludzkości.  SI może działać na podstawie różnych metod, spośród których należy wymienić m.in.:

  • metody symboliczne wykorzystywane do rozwiązywania problemów logicznych, np. dowodzenia twierdzeń;
  • metody sieci neuronowych działające na zasadzie indukcji, które nie potrzebują algorytmów do rozwiązywania zadań;
  • metody rozpoznawania obrazów (wzorców);
  • systemy eksperckie doradzające decydentom a także służące do oceny podejmowanych decyzji, np. wskazywania błędów logicznych strategii;
  • szereg rozwiązań naśladujących inteligentne mechanizmy zaobserwowane w przyrodzie np. inteligencja roju, systemy/algorytmy genetyczne, inteligentne agenty, itp.

Istotną sprawą jest zrozumienie zasad funkcjonowania SI, którą wykorzystujemy. Najlepszym tego przykładem jest popularny Chat GPT, który służy do generowania tekstów. Użytkownicy zwracają uwagę na to, że temu narzędziu zdarza się mijać z prawdą, co już nie raz doprowadziło do problemów. Nie jest to błąd w funkcjonowaniu tego narzędzia, ale element jego mechanizmu funkcjonowania. Chat GPT jest modelem językowym, który tworzy teksty w oparciu o prawdopodobieństwo wystąpienia kolejnego słowa w zdaniu. Jednocześnie nie wybiera on najbardziej prawdopodobnego słowa tylko losowo wybiera takie, które charakteryzują się prawie najwyższym prawdopodobieństwem. Z tego powodu jego odpowiedzi na to samo pytanie mogą się różnić od siebie, a wygenerowane zadanie może mijać się z prawdą. W nauce takie efekty działania SI jest określane jako halucynacje.

 Współcześnie, w kontekście sztucznej inteligencji kładzie się duży nacisk na aspekty prawne i etyczne, ponieważ to one warunkują dalszy rozwój narzędzi wykorzystujących SI oraz budzą największe wątpliwości. Jest to istotne ze względu na niezdolność SI do nabycia inteligencji emocjonalnej. Przynajmniej tak się wydaje na obecnym etapie rozwoju nauki. Aby SI była podobna do myślenia biologicznego najprawdopodobniej potrzebne jest ciało, które odczuwa bodźce. Tylko w takim przypadku SI będzie w stanie zrozumieć uczucia, np. miłość. Bez tego rozumowanie SI będzie zawsze oparte na racjonalności (a ściślej biorąc na statystyce), która może być bezdusznie wykorzystywana do złych celów, wręcz może prowadzić do powstania cyfrowego totalitaryzmu.

Takie ostrzeżenia można traktować w kategoriach fantastyki naukowej, ale wbrew pozorom nie jest to zbyt odległe od rzeczywistości. Można wręcz stwierdzić, że jako ludzkość, w kontekście moralnym, jesteśmy spóźnieni i bezradni wobec rzeczywistości. Technologie typu deep fake, tworzące fikcyjne filmy łudząco podobne do wypowiedzi rzeczywistych osób nie tylko nie są uregulowane prawnie, ale również nie są wywołują negatywnych ocen społecznych, są traktowane jako ciekawostka, a nie potencjalne narzędzie manipulacji opinią społeczną. Pojawia się ciche przyzwolenie dla ich funkcjonowania, mimo że niosą ze sobą olbrzymie zagrożenie.

Sztuczna inteligencja jest narzędziem, które może być wykorzystywane na różne sposoby. Z jednej strony może przyczyniać się do postępu, np. przez:

  • bardziej sprawne analizowanie danych i wskazywanie relacji pomiędzy pozornie niezależnymi elementami,
  • tworzenie złożonych dowodów logicznych,
  • wspólne programowanie, człowiek jako czynnik sprawczy działa wspólnie z modelem SI,
  • wykorzystanie GPT jako krytycznego recenzenta.

Korzyści ze stosowania SI mogą być widoczne w różnych dziedzinach naszego życia, w nauce (np. weryfikacja hipotez), w gospodarce (np. obrazowanie satelitarne i wykrywanie złóż lub badanie gruntu), w medycynie (np. diagnozowanie i operowanie) w polityce państwa (analizy danych lub ocena skuteczności polityki) itp. 

Jednocześnie narzędzia te mogą posłużyć złym celom, np. kontroli i manipulacji człowiekiem i społeczeństwami, tworzenia fałszywych informacji i upowszechniania ich itp. Szczególnie niebezpiecznym aspektem SI jest jej wykorzystanie w wyścigu zbrojeń, w którym urządzenia te coraz częściej stają się nie tylko rozwiązaniami wspierającymi podejmowanie decyzji, ale również śmiercionośnymi, a być może w przyszłości zdolnymi do podejmowania autonomicznych decyzji. Wykorzystanie tego narzędzia zależy od człowieka i to na niego spada odpowiedzialność za skutki wykorzystania SI. Problemem jest jednak wskazanie takiej osoby. Jest to dobrze widoczne na przykładzie pojazdów autonomicznych i odpowiedzialności za szkodę powstałą w wyniku zderzenia. Kto ma ponosić tę odpowiedzialność – pasażer, właściciel pojazdu, jego konstruktor, programista, a może właściciel firmy produkującej auta? Żadna z tych podpowiedzi nie jest jednoznaczna.

Normy prawne i etyka nie tylko powodują, że społeczeństwa nie są dostosowane do upowszechniania się SI, ale również mogą być istotną barierą w jej rozwoju. Za przykład może po raz kolejny posłużyć technologia autonomicznych samochodów. Przewidywano, że do 2023 r., maszyna powinna zastąpić człowieka jako kierowcę. W praktyce nastąpiło to w ograniczonym stopniu ze względu na dylematy moralne z tym związane. Po pierwsze ułomność SI powoduje, że nie zawsze jest ona nieomylna, a po drugie zdarzają się w sytuacje, w których wystąpienie szkody może być niemożliwe do uniknięcia. W takiej sytuacji człowiek może rozważać dylematy moralne, np. zderzyć się z przeszkodą narażając siebie na śmierć lub kalectwo, czy też rozjechać innego uczestnika ruchu narażając jego na takie ryzyko. Decyzja zawsze jest trudna i zależna od wielu czynników, niekonieczne racjonalnych. Sztuczna inteligencja, w takiej sytuacji zawsze będzie postępować racjonalnie, tj. zgodnie z regułami, jakich została nauczona. Jednakże opracowanie takich reguł oznacza wycenę ludzkiego życia, a to już jest prawnie i moralnie zabronione. Z tego powodu, w transporcie, konieczny jest nadzór człowieka nad SI, a funkcja człowieka jako kierowcy jeszcze długo nie zostanie wyeliminowana.

Wykorzystanie SI ma często charakter globalny. Na przykład rozwiązania stosowane w Republice Korei są identyczne z podobnymi wykorzystywanymi w Europie. Jednakże etyczna ocena działania SI może być znacząco odmienna z powodu istnienia różnic kulturowych. To jest kolejnym elementem utrudniającym wdrożenie etycznych rozwiązań regulujących funkcjonowanie SI.  

Na zakończenie warto zwrócić uwagę na jeszcze jeden bardzo ważny aspekt pojawienia się sztucznej inteligencji. W wyniku jej upowszechniania się powstał nowy dylemat z zakresu filozofii, tj. pytanie o człowieczeństwo. Dotychczas definicja człowieka wskazywała na różnice pomiędzy nim a zwierzęciem. Obecnie konieczne jest również wskazanie różnic pomiędzy człowiekiem a maszyną - sztuczną inteligencją. Odpowiedź na pytanie kim jest człowiek będzie coraz trudniejsza.

Niniejsza dyskusja dotycząca SI nie wyczerpała tematu. Można wręcz stwierdzić, że w jej wyniku, w kontekście studiów nad przyszłością, pojawiło się więcej pytań niż odpowiedzi. Istotne jest, aby stawiać te pytania i łączyć rozwój SI z innymi obszarami działalności ludzkiej, tj. nie tylko rozwojem gospodarczym, ale również z szeroko pojętą sferą humanistyki.