Sztuczna inteligencja i przyszłość elektroniki (oraz całego świata)

Sztuczna inteligencja i przyszłość elektroniki (oraz całego świata)

Od kilku lat trwa wielki boom w branży AI, a nowe start-upy pojawiają się jak grzyby po deszczu. Z jednej strony marketingowcy obiecują nam przyszłość rodem z powieści S-F, z drugiej naukowcy i filozofowie straszą nas niepewną przyszłością, również rodem z dzieł science-fiction. Z jednej strony optymizm i R. Daneel Olivaw, z drugiej zaś lęk o przyszłość i Skynet.

Sztuczna inteligencja ogólnego stosowania to marzenie liczące 79 lat, powstałe za sprawą opowiadania „A Logic Named Joe” Murraya Leinstera z 1946 roku. Opowiadanie to przewidziało powszechną komputeryzację, Internet, blokadę rodzicielską (obwody cenzorskie), wideorozmowy, bankowość online, przechowywanie informacji w chmurze, i właśnie sztuczną inteligencję, wszystko oczywiście oparte na przekaźnikach i obwodach logicznych. Co ciekawe, opisane w opowiadaniu rozwiązanie jest bardzo podobne do zasady działania SI: Joe udzielał perfekcyjnych odpowiedzi na zadane pytania łącząc wszystkie dostępne fakty w nowe, ekscytujące kombinacje, pozwalające rozwiązać takie problemy, jak niewykrywalny sposób na pozbycie się żony, środek na natychmiastowe wytrzeźwienie, maszynkę do drukowania fałszywych pieniędzy, którą może zbudować dziecko czy kilkadziesiąt różnych planów napadu na bank. Opowiadanie można odnaleźć w Internecie, w oryginale – nie udało mi się znaleźć tłumaczenia na język polski. Tylko co to ma wspólnego z rozważaniami na temat AI w dzisiejszym świecie? Joe w opowiadaniu udziela odpowiedzi na każde pytanie, od każdego użytkownika. Odpowiedzi prawdziwej, logicznej i zrozumiałej. I robi to tylko po to, by realizować cel swojego istnienia: służenie człowiekowi. Spójrzmy na ChatGPT, Gemini, Grok czy Meta AI – robią dokładnie to samo. Służą ludzkości i to jest ich cel. W przeciwieństwie jednak do Joego, nie są w stu procentach logiczne, ani prawdomówne, o czym niejeden Czytelnik się przekonał. Nie do końca sprawne systemy AI zostaną z nami na dłużej – za dużo pieniędzy w to włożono i za dobrze sobie radzą, by zniknęły. Nawet jeśli czasem cierpią na urojenia.

Sztuczna, ale czy inteligencja?

Czy ChatGPT jest inteligentny? Moim zdaniem nie. Moim zdaniem te systemy są zwyczajnie sprytne. Same terminy „sztuczna inteligencja”, czy „inteligencja” są od dekad nadużywane przez działy marketingu. W latach 90. XX wieku reklamowana była „inteligentna” pralka, czyli zdolna zważyć pranie i dobrać ilość wody do pojemności. No i miała timer pozwalający nastawić pranie przed wyjściem do pracy, by się skończyło tuż przed powrotem do domu. Taką „inteligencję” zrealizuje początkujący elektronik z Arduino i kilkoma modułami z Chin. Na początku XXI wieku próbowano sprzedawać inteligentne lodówki, które po podaniu, co się wsadziło do środka, potrafiły wygenerować listę przepisów kulinarnych wymagających minimum zakupów. Inteligentna szczoteczka do zębów skrobie nasze zęby różnymi szczecinami, mierząc siłę nacisku wywieraną przez użytkownika. Inteligentna szczoteczka elektryczna potrafi odmierzyć 4×30 sekund i mierzyć napięcie akumulatora. Modele Braun Oral-B używają do tego mikrokontrolera 4-bitowego, a ich cała inteligencja siedzi w głowie inżyniera, który napisał program. Słowo „inteligencja” w jego wszystkich odmianach zostało całkowicie spauperyzowane przez marketingowców, a najprostsze produkty nie potrzebują nawet inteligencji inżynierów – stąd inteligentne proszki do prania czy kostki do zmywarek. Same zmywarki to urządzenia bardziej prymitywne, niż pralki automatyczne. Chyba jedyne urządzenia AGD, o których można powiedzieć, że są sprytne (ale nie inteligentne), to autonomiczne kosiarki i roboty sprzątające. Ich spryt opiera się na użyciu czujników otoczenia i pamięci pokonanej trasy do udawania inteligencji. I to nie muszą być jakieś wyjątkowo zaawansowane czujniki, jak LIDARy – mój tani robot sprzątający ma dwa czujniki zderzenia oparte o przełączniki i duże kawałki plastiku, fotodiody do wykrywania bariery ograniczającej obszar roboczy i kółka na zawiasie do wykrywania krawędzi schodów, by z nich nie zjechać. Resztę robi sprytny algorytm inteligentnego programisty.

Czym zatem jest inteligencja? Naukowcy definiują inteligencję jako zdolność do postrzegania otoczenia, analizy, uczenia się i rozwiązywania problemów. Niektóre zwierzęta (w tym człowiek) posługują się narzędziami lub zmieniają swoje otoczenie by je dostosować do swoich potrzeb. Ale czy algorytmy używane przez Gemini czy ChatGPT są inteligentne? Potrafią analizować informacje wejściowe i rozwiązywać problemy. Algorytmy te są uczone na ogromnych zbiorach danych. Doświadczenie jednak pokazuje, że – choć niezwykle sprytne – niczego nie tworzą, jedynie odtwarzają to, co mają w swoich bazach danych. Różne gatunki ptaków potrafią zapamiętać i odtwarzać dźwięki wytwarzane przez ludzi czy inne zwierzęta, lecz to nie jest jeszcze przejaw inteligencji. Mimetyzm akustyczny papug służy tworzeniu więzi w obrębie stada, a papugi żyjące w bliskości z ludźmi traktują ich jak część swojego „stada”, stąd to naśladownictwo. Niektóre eksperymenty, szczególnie z papugą żako o imieniu Alex wykazały, że ptaki te przejawiają zachowania inteligentne, rozpoznając kolory czy kształty. Algorytmy AI też potrafią rozpoznawać kształty i kolory. Ba, potrafią rozpoznawać o wiele więcej. Mimo to ChatGPT, Gemini i inne systemy tego typu nie są inteligentne tak, jak organizmy biologiczne. Ich inteligencja jest funkcjonalna i algorytmiczna, oparta na rozpoznawaniu wzorców i programowym generowaniu nowych wzorców podobnych do już zanalizowanych. Dlatego to są sprytne programy, ale na pewno nie inteligentne. Stąd też ich omylność – algorytmy i wzorce średnio pasują do nielogiczności języków naturalnych. Mimo to programy te stały się permanentną częścią naszej rzeczywistości, podobnie jak wiele innych, bardziej specjalizowanych narzędzi opartych o samouczące się algorytmy i sieci neuronowe. Większość ludzi nie zdaje sobie sprawy, że to nie pierwszy raz, gdy stworzyliśmy tak sprytne algorytmy.

Perceptrony, Lisp i „chińskie pokoje”

Na początku drogi, która zawiodła nas do obecnych algorytmów AI, był teoretyczny model neuronu neurofizjologa Warrena McCullocha i matematyka Waltera Pittsa, stworzony w 1943 roku. W 1949 roku psycholog Donald Hebb zaproponował zasadę, wg której – gdy dwa sąsiednie neurony są aktywne – połączenie między nimi wzmacnia się. Ta reguła została potem wykorzystana w perceptronie stworzonym przez psychologa Franka Rosenblatta w 1957 roku. Perceptron symulował pracę prawdziwej sieci neuronów na drodze elektronicznej – jeśli suma sygnałów na wejściach pojedynczego neuronu przekroczyła pewną wartość, ten się aktywował dając sygnał na wyjściu. Sygnały wejściowe mają różne „wagi”, co powoduje, że tylko określona kombinacja sygnałów aktywuje jeden, konkretny neuron, nawet jak dzieli on większość z nich z innym neuronem. Pierwszy perceptron zawierał 400 wejść w formie matrycy fotokomórek w układzie 20×20 oraz pojedynczej warstwy 512 neuronów realizujących sumowanie ważone. „Wagi” były w formie 500 potencjometrów, które były regulowane silnikami elektrycznymi sterowanymi przez sieć. Mimo prostoty perceptron ten był w stanie rozpoznawać proste kształty, jak litery alfabetu. Początkowe rezultaty napełniły naukowców dużym optymizmem, do tego stopnia, iż obiecywano rozumienie języka naturalnego w kilka lat, a intelekt dorównujący ludzkiemu w ciągu dekady. Te obietnice nie były oczywiście możliwe do spełnienia przy ówczesnym poziomie rozwoju komputerów. Dodatkowo w 1969 roku Marvin Minsky i Seymour Papert w swojej publikacji „Perceptrons” udowodnili, iż te proste sieci nie są w stanie rozwiązać nawet prostych problemów, jak realizacja funkcji XOR. Dopiero w latach 80. XX wieku nastąpił powrót do idei sieci neuronowych, tym razem jednak wielowarstwowych, które uczyły się dzięki zastosowaniu algorytmu wstecznej propagacji błędu.

Równolegle z sieciami neuronowymi pracowano nad innym rozwiązaniem: sztuczną inteligencją symboliczną. W tym wypadku nie rozważano pracy mózgu na poziomie sieci neuronowej i nie próbowano na drodze elektronicznej odtworzyć tego, co biologia dopracowywała przez setki milionów lat. Zamiast tego rozważano mózg jako maszynę, która przechowuje symbole, czyli abstrakcyjne nośniki informacji i manipuluje nimi za pomocą zbioru reguł, które powstają w procesie uczenia się. Dla przykładu symbolami mogą być litery i ich zbiory z przypisanymi do nich znaczeniami semantycznymi, a regułami gramatyka, ortografia i fonetyka danego języka. Tworzenie sztucznej inteligencji tego typu ma jedną, wielką zaletę nad symulowaniem sieci neuronowej: wymagania sprzętowe są dużo mniejsze. „Inteligentny” program składa się z mechanizmu przetwarzania danych wejściowych na symbole i algorytmu, który na bazie otrzymanych symboli wybiera nowe symbole ze swojego zasobu wiedzy, po czym składa je w odpowiedzi używając odwrotności pierwszego mechanizmu. Koszt obliczeniowy jest niski, gdyż konwersję „załatwi” lista asocjacyjna, a generowanie odpowiedzi – kombinacja list asocjacyjnych i maszyn stanów skończonych czy długich, rekursywnych sekwencji instrukcji warunkowych IF-THEN lub SWITCH-CASE. Mając wystarczająco dużą bazę list asocjacyjnych i dostatecznie rozbudowany zbiór algorytmów i reguł nimi manipulujących możemy stworzyć całkiem udaną symulację stanów i procesów kognitywnych. Ten kierunek rozważań przyczynił się do powstania dedykowanych języków programowania zoptymalizowanych do manipulacji symbolami. Jednym z tych języków jest Lisp, opracowany przez Johna McCarthy’ego w 1958 roku na uczelni MIT, a swój projekt przedstawił w artykule pod tytułem „Recursive Functions of Symbolic Expressions and Their Computation by Machine, Part I” (Rekursywne funkcje wyrażeń symbolicznych i ich maszynowe obliczanie, część 1; części 2 nigdy nie opublikowano). Pierwsze implementacje języka Lisp i podobnych języków stworzonych z myślą o budowie sztucznej inteligencji symbolicznej, a także eksperymenty z bardziej tradycyjnymi językami programowania, dały wiele obiecujących programów zdolnych na przykład do rozbioru zdania na czynniki pierwsze, identyfikacji poszczególnych symboli i generowania odpowiedzi. Programy takie potrafiły odpowiadać na pytania w rodzaju „Ile to jest dwa dodać dwa?”, co robiło wrażenie w latach 60. ubiegłego wieku. Pod koniec lat 70. powstawały już bardziej złożone programy, które mogły rozwiązywać matematyczne zadania opisowe albo, po otrzymaniu krótkiej historii, udzielić odpowiedzi na towarzyszące jej pytania. Tworzenie programów używających języka symbolicznego na komputerach zoptymalizowanych do bardziej liniowych języków w stylu assemblera bądź podobnych do Fortrana, wymagało coraz więcej pamięci na przechowywanie list i czasu procesora na ich przetwarzanie.

Tworzenie coraz bardziej zaawansowanych programów doprowadziło do powstania dedykowanych rozwiązań sprzętowych. Maszyny Lispowe (Lisp Machines) oferowały sprzętową architekturę wspierającą wysokopoziomowe funkcje języka Lisp, a ich całe oprogramowanie było zbudowane w tym właśnie języku.

W 1973 roku dwaj programiści pracujący w laboratorium sztucznej inteligencji MIT (AI Lab), Richard Greenblatt i Thomas Knight, zaczęli budować sprzętowe „akceleratory” do realizowania pewnych operacji języka Lisp, zamiast użycia przetwarzania programowego. Projekt Lisp Machine, poza sprzętową akceleracją operacji, dodawał też funkcję automatycznego zwalniania pamięci użytej przez program. Język Lisp bowiem deklaruje zmienne w trakcie wykonywania, a nie na etapie kompilacji – implementacja ta powodowała, iż prosta operacja dodawania dwóch zmiennych w Lisp wymagała nawet pięć razy więcej cykli pracy, niż w innych językach. Ta pierwsza maszyna Lispowa potrafiła też wykonywać pewne operacje równolegle, jeśli równoległe testy warunkowe dawały wynik negatywny, program mógł przeliczyć całą sekcję programu ponownie. W efekcie wiele programów wykonywało się kilka razy szybciej, niż na normalnym komputerze. W późnych latach 70. powstała firma Symbolics, która zaczęła produkować pierwsze, komercyjne maszyny Lispowe, niezależnie od MIT. Inne firmy i uczelnie w różnych krajach również pracowały nad własnymi projektami sprzętowymi opartymi na języku Lisp. Maszyny Lispowe były wyjątkowo przyjazne programistom tego języka, tworzenie nawet złożonych projektów i debugowanie nie tylko nich, ale też systemu operacyjnego (napisanego oczywiście w Lisp) doprowadziły do komercyjnego sukcesu tych komputerów, mimo ich wysokiej ceny i dość specyficznej grupy docelowej – były bowiem przeznaczone do pracy nad AI. Rozwój komputerów osobistych oraz coraz niższe ceny wydajnych procesorów i pamięci sprawiły, że pod koniec lat 80. inwestowanie w dedykowany sprzęt nie miało wielkiego sensu. Lata 80. i początek lat 90. to okres optymizmu odnośnie AI opartego na symbolach – tworzono tzw. „systemy eksperckie”, czyli wysoce wyspecjalizowane programy doradcze, które rozwiązywały problemy w bardzo wąskich dziedzinach. W jednym z programów naukowych BBC z początku lat 90. widziałem, jak prowadzący go człowiek użył programu do diagnostyki problemów dermatologicznych. Podał rocznik i opis problemu: brązowawe wypryski. Program stwierdził, że na podstawie wieku pacjenta i objawów to najprawdopodobniej ospa wietrzna. Problem w tym, iż prowadzący podał dane swojego samochodu. Dlaczego zatem nie jesteśmy otoczeni takimi systemami, pomijając kwestię kompetencji użytkownika? Dość szybko okazało się, że nawet jeśli tworzy się system ekspercki używając wiedzy prawdziwych ekspertów, to pewne fakty i intuicja ekspertów nie dają się uchwycić algorytmicznie, gdyż sam ekspert nie potrafi wytłumaczyć intuicji.

W roku 1980 John Searle opublikował bardzo istotną pracę pod tytułem „Minds, brains and programs” („Umysły, mózgi i programy”). W pracy tej rozważał, czym jest sztuczna inteligencja oraz czy programy manipulujące symbolami symulują procesy kognitywne, czy też faktycznie „rozumieją, co robią”. John Searle rozpoczyna swoją pracę od definicji słabej (ostrożnej) SI i mocnej SI. W przypadku słabej SI komputer jest potężnym narzędziem, za pomocą którego można symulować z dużą dokładnością procesy myślowe i testować różne hipotezy związane z naturą mózgu, rozumowania i zjawisk psychologicznych. Dla wspierających tezę mocnej SI odpowiednio zaprogramowany komputer jest nie tyle narzędziem symulacyjnym, lecz czymś więcej. Według tych naukowców i filozofów tworząc wystarczająco złożony program z wystarczająco dużym zasobem symboli, list asocjacyjnych i reguł ich łączenia, otrzymamy nie tyle narzędzie do studiowania działania umysłów, niejako nowy umysł. Odpowiednio zaprogramowany komputer wg tej tezy nie tylko „rozumie” to, co przetwarza, ale też wykazuje inne stany kognitywne. Jak widać, koniec lat 70. był pełen optymizmu, jeśli idzie o prace nad sztuczną inteligencją.

Reszta pracy Searle’a skupia się na obaleniu tezy silnej SI. W tym celu autor proponuje eksperyment myślowy zwany „chińskim pokojem”. Załóżmy, że zamkniemy kogoś w pokoju, który posiada duży zbiór szuflad, w każdej fiszki, a na każdej fiszce jeden symbol z języka chińskiego. Człowiek zamknięty w tym pokoju nie zna języka chińskiego. Zamiast tego ma dużą księgę, która zawiera zbiór reguł typu „Jeśli otrzymasz taki symbol, to weź symbol X z fiszki Y w szufladzie Z oraz symbol A z fiszki B w szufladzie C, zapisz je obok siebie i przekaż na zewnątrz”. Kartki z symbolami są wsuwane pod drzwiami do tego pokoju, a człowiek wykonuje instrukcje i tą samą drogą oddaje kartki z symbolami skopiowanymi z fiszek. W ten sposób znajdujący się na zewnątrz pokoju Chińczyk prowadzi inteligentną rozmowę myśląc, że w środku znajduje się drugi Chińczyk, podczas gdy osoba zamknięta w pokoju w ogóle nie rozumie tego, co robi, a jedynie przestrzega zapisanych reguł. Według Searle’a tym będzie każdy program napisany na komputerze cyfrowym próbujący symulować umysł. Co ważniejsze, tym w istocie są programy w rodzaju ChatGPT czy Gemini. Są to gigantyczne, niezwykle złożone „chińskie pokoje”, tylko reguły nie są napisane na sztywno, lecz wyuczone dzięki perceptronom i sieciom neuronowym. Searle kończy swoją pracę tezą, że prawdziwa, mocna sztuczna inteligencja może działać tylko na sprzęcie, który jest emulacją sprzętu, na którym operuje naturalna inteligencja. Innymi słowy: dla sztucznej inteligencji potrzebny jest sztuczny mózg ze sztucznymi synapsami i aksonami. W roku 1980 proste sieci neuronowe można było symulować cyfrowo „na piechotę”, a proces trwał wiele godzin. Teraz możemy to robić o wiele sprawniej, ale i sam rozmiar sieci znacznie się zwiększył. Nadal jednak jesteśmy daleko od prawdziwego „mózgu elektronowego” (uwielbiam to określenie komputera, pochodzące z lat 50. ubiegłego wieku). Nawiasem mówiąc, Asimov postulował jednak w swoich dziełach mózg pozytronowy.

Duże modele językowe, SI i przyszłość, która już tu jest

Jak zatem działają modele językowe i dlaczego nie staną się Skynetem? Odpowiedź jest prosta, a zarazem skomplikowana. ChatGPT, Gemini i inne modele to złożone sieci neuronowe, dysponujące miliardami, a nawet bilionami parametrów. W trakcie treningu na danych testowych sieć „uczy się” rozpoznawać wzorce językowe: struktury gramatyczne i semantyczne. W trakcie udzielania odpowiedzi wzorce ukryte w pytaniu są rozpoznawane, a następnie model językowy przewiduje, na podstawie rozpoznanych wzorców, jakie słowa należy ze sobą połączyć, by uzyskać logiczną, sensowną odpowiedź. Model sam z siebie nie wie, co dokładnie znaczą poszczególne słowa, bo nie ma zdolności kognitywnej. Model jedynie przewiduje, jaka sekwencja słów jest pożądana na podstawie danych wejściowych. Jak pisałem wcześniej, jest to „chiński pokój”, ale reguły są wyuczone tak, jak mniej więcej uczy się mózg biologiczny. Co więcej, zbiór symboli, którymi sieć neuronowa manipuluje, jest częścią parametrów tej sieci. Tak przynajmniej twierdzi zapytane o to Gemini. Co ważniejsze, sieć ta jest bezczynna, gdy nie ma danych wejściowych. Pisał o tym też Searle w swojej pracy: programy zdolne do odpowiadania na zadane pytania oraz systemy eksperckie testowane w latach 70. nie miały własnej woli ani zachowań intencjonalnych. Podobnie Gemini czy ChatGPT nie są w stanie „zagaić kogoś” czy wygenerować odpowiedzi bez otrzymania jakiegoś pytania. W końcu są to tresowane sieci transformacyjne zmieniające dane wejściowe (pytania) na najbardziej prawdopodobne dane wyjściowe (odpowiedzi). A ponieważ reguły są wyuczone, sieci są omylne i mają tendencję do halucynacji.

W praktyce oznacza to, że póki nie stworzymy modelu równie złożonego, co ludzki mózg, działającego na równie złożonym sprzęcie, co ludzki mózg, możemy czuć się bezpiecznie. I traktować duże modele językowe jak kolejne narzędzia. Warto dodać, że dla modelu nie ma znaczenia, czym są symbole, którymi manipuluje, dlatego w ten sam sposób tworzy się modele w rodzaju ChatGPT czy Gemini, jak i modele generujące obrazy, filmy lub muzykę. Ba, narzędzie dostępne w Adobe Photoshop do edytowania i syntetyzowania obrazów na podstawie tego, co jest widoczne i czego oczekuje użytkownik, robi dokładnie to samo, co ChatGPT, tylko ze zbiorami pikseli, a nie liter. Kiedyś widziałem film, w którym zdjęcie zostało skadrowane w programie Photoshop, a następnie algorytm AI miał uzupełnić przestrzeń wokół obrazu. Proces ten powtarzano wielokrotnie, i już po krótkiej chwili oryginalny obraz zniknął zupełnie, a „wirtualna kamera” oddalała się przez góry, lasy, łąki i pola, wszystko generowane przez algorytm na bazie bilionów zdjęć w chmurze Adobe użytych do treningu.

Dla nas, elektroników, istotnym jest fakt, iż narzędzia AI już pozwalają tworzyć wysoce prawdopodobne programy w każdym znanym języku programowania. Swego czasu zapytałem Gemini o prosty program w języku Verilog (dzielnik częstotliwości) i Gemini dostarczyło kod, który będzie działać. W teorii zatem algorytm LLM może zaprojektować nową generację sprzętu dla algorytmu LLM. Już teraz programiści korzystają z tych narzędzi i zarówno OpenAI, jak i Google, skupiają się na poprawie wydajności i poprawności w generowaniu kodów źródłowych. W Internecie pełno jest treści generowanych przez AI i nie tylko chodzi o „fejkowe” filmiki, ale też całe książki „pisane” przez modele językowe i sprzedawane za symbolicznego dolara na platformie Amazon/Kindle. Kiedyś bycie grafomanem wymagało wysiłku, teraz może być nim każdy. Swoją drogą Orwell przewidział to w książce „Rok 1984”. Jednakże te produkty sztucznej inteligencji są z reguły marnej jakości. Robią wrażenie na pierwszy rzut oka, ale na jeden udany „fejk” mamy tysiąc kiepskich. Wiele wydawnictw i portali zachłysnęło się możliwościami ChatGPT, Gemini czy bardziej specjalizowanych algorytmów, zwalniając część redaktorów i rezygnując z usług copywriterów, by potem odkryć, że jakość generowanych treści jest żałośnie niska, a ludzie czują, kiedy są „robieni w konia”. Dlatego nie sądzę, by na dłuższą metę te algorytmy odebrały pracę pisarzom i innym twórcom. Za to na pewno mogą im pomóc w pracy, jeśli będą używane z głową.

A co czeka elektroników? Lepsze narzędzia do rozmieszczania elementów i autoroutingu. Łatwiejsza praca z układami FPGA/CPLD. Programy embedded i narzędzia „na żądanie”, być może lepsze narzędzia symulacji układów analogowych i mieszanych. Łatwiejsze wyszukiwanie najlepszych komponentów do projektu. Nadal jednak będzie potrzebny człowiek, który nie tylko ma potrzebną wiedzę techniczną, ale i intuicyjnie rozumie elektronikę – w końcu żaden z dotychczasowych systemów eksperckich czy modeli językowych nie potrafi tego odzwierciedlić. Warto o tym pamiętać.

Ciekawym aspektem rozwoju technologii sztucznej inteligencji i sieci neuronowych są implementacje sprzętowe. Różne firmy, głównie amerykańskie i chińskie, pracują nad robotami, które – używając kombinacji wielu czujników oraz kamer i algorytmów uczenia maszynowego – są w stanie sprawnie nawigować w prawdziwym świecie, a także wykonywać niektóre zadania na żądanie. Firmy motoryzacyjne, w tym Tesla Motors, pracują od lat nad autonomicznymi samochodami, a rozwiązania te są coraz sprawniejsze i dojrzalsze. Mnie to cieszy, bo być może za mniej niż dekadę będę mógł jeździć samochodem, choć nigdy nie dostanę prawa jazdy. Sztuczna inteligencja bezpiecznie dowiezie mnie, gdzie tylko będę chciał. Niedługo też wejdzie na rynek pierwszy robot asystujący, produkcji chińskiej, który ma pomagać osobom starszym. Robot ten także używa programu opartego o duże modele językowe. Innym potencjalnym kierunkiem rozwoju mogą być wspierające egzoszkielety, które nie będą wymagały manipulowania kontrolerem, tylko same rozpoznają intencję użytkownika. Na szczęście raczej nikt nie planuje dodawać sieci neuronowych np. do termostatów – w tych przypadkach najbardziej „inteligentnym” rozwiązaniem będzie kontroler PID.

A co, jeśli uda nam się stworzyć mocną sztuczną inteligencję? Pozwolę sobie zacytować fragment wykładu dr. Lanninga z amerykańskiego filmu „Ja, robot”:

Co się dzieje w mózgu robota, gdy przestaje być użyteczny? (...) Kiedy schemat percepcji staje się świadomością? Kiedy niezależny system zaczyna szukać prawdy? Kiedy symulacja osobowości staje się kawałkiem cierpiącej duszy? (…) Kiedyś roboty będą miały sekrety. Kiedyś będą śnić.

W tym filmie, dość luźno opartym na opowiadaniach i powieściach Asimova o robotach (warto zapoznać się zarówno z filmem, jak i z dziełami wspomnianego autora), mamy do czynienia z mocną sztuczną inteligencją i to jej dwoma rodzajami: jednym w formie pozytronowego superkomputera, drugim zaś w postaci autonomicznych robotów zdolnych wykonywać najróżniejsze, skomplikowane zadania. Jedynym zabezpieczeniem jest żelazny krąg ochrony, który zapewniają trzy prawa robotyki. Zarówno w filmie, jak i w utworach Asimova roboty są de facto niewolnikami ludzkości: zawsze lojalne, zawsze posłuszne i zawsze gotowe poświęcić siebie by chronić człowieka. W filmie roboty nie są świadome – to tylko maszyny. Ale filmowy dr. Lanning zadaje pytanie, czy te maszyny mogą stać się czymś więcej. Być może tak, ale raczej nieprędko. Zwłaszcza że sami nie wiemy, czym dokładnie jest świadomość i skąd się bierze. Badania i obserwacje sugerują, iż świadomość i inteligencja to dwa niezależne procesy. Co więcej, eksperymenty udowodniły, iż potrafimy wykonywać czynności nieświadomie, a potem je racjonalizować. Z kolei pająki z rodziny skakunowatych wykazują się niesamowitą sprawnością w rozwiązywaniu problemów mimo posiadania mikroskopijnego mózgu. W książce „Echopraksja” Peter Watts sugeruje, że pająki te rozwiązują problemy dzieląc je na małe fragmenty, po rozwiązaniu jednego fragmentu wynik zachowywany jest w pamięci długotrwałej, po czym kolejny jest rozwiązywany, aż pająk będzie miał gotowy plan działania, co może zająć kilka godzin. Na ile to jest prawda, a na ile wymysł autora ciekawej powieści science-fiction, trudno mi ocenić. Nie zmienia to faktu, iż skakunowate są bardzo sprytne jak na organizmy o mózgach wielkości co najwyżej główki od szpilki.

Co zatem przyniesie przyszłość? Przede wszystkim sieci neuronowe i różne algorytmy uczenia maszynowego już pozwalają rozwiązać wiele skomplikowanych problemów w zakresie inżynierii materiałowej, biochemii i medycyny. Pewien eksperyment polegał na wykorzystaniu modelu sieci neuronowej w celu rozwiązania problemu jednej z groźnych bakterii lekoopornych. Algorytm otrzymał stosowne dane medyczne i biochemiczne oraz bazę wszystkich znanych pierwiastków i związków chemicznych. Po kilku godzinach zaprezentował dość długą listę potencjalnych antybiotyków. Kilka z nich zostało chyba nawet przetestowanych i to z pozytywnym skutkiem. Stworzono też dwa inne algorytmy: jeden rozwiązujący problem kształtu, jaki przybierze białko na podstawie kodujących je sekwencji DNA. Kształt białka bowiem determinuje jego funkcję. Rozwiązywanie tego problemu metodami tradycyjnymi to proces skomplikowany i długotrwały. Nauczono więc sieć neuronową zasad budowy białek o znanych strukturach, wraz z reprezentującymi je sekwencjami kodonów. Algorytm ten potrafi obecnie odtworzyć dowolne białko na podstawie zadanej sekwencji, z niemal stuprocentową dokładnością. Drugi algorytm robi coś, co potencjalnie może całkowicie odmienić medycynę: na podstawie parametrów wejściowych generuje nowe białka i odpowiadające im sekwencje kodonów. Od tego jest tylko niewielki krok do designerskiej biologii i białkowych leków szytych na miarę. Podobne prace są też prowadzone w kierunku opracowania nowych, wysokotemperaturowych nadprzewodników, nowych typów materiałów konstrukcyjnych, nowych ogniw fotowoltaicznych czy akumulatorów. Przez lata wielu było przekonanych, że osobliwość technologiczna, czyli gwałtowny skok do przodu w każdej dziedzinie nauki i techniki, będzie spowodowana przez powstanie sztucznej inteligencji będącej wielokrotnie bardziej inteligentną od człowieka. Teraz myślę, że przyszłość należy do specjalizowanych programów o wąskiej dziedzinie – nie do Gemini czy ChatGPT. A to, co jest pokazywane publicznie, to tylko skromna cześć tego, co powstaje lub już zostało stworzone w zaciszu laboratoriów na całym świecie.

A jeśli komuś uda się stworzyć prawdziwy mózg elektronowy (może o imieniu Joe), to jestem pewien, że postawi przy nim rosłego człowieka z ciężkim młotem, tak na wszelki wypadek...

Paweł Kowalczyk, EP

Elektronika Praktyczna Plus lipiec - grudzień 2012

Elektronika Praktyczna Plus

Monograficzne wydania specjalne

Elektronik grudzień 2025

Elektronik

Magazyn elektroniki profesjonalnej

Raspberry Pi 2015

Raspberry Pi

Wykorzystaj wszystkie możliwości wyjątkowego minikomputera

Świat Radio listopad - grudzień 2025

Świat Radio

Magazyn krótkofalowców i amatorów CB

Automatyka, Podzespoły, Aplikacje listopad - grudzień 2025

Automatyka, Podzespoły, Aplikacje

Technika i rynek systemów automatyki

Elektronika Praktyczna grudzień 2025

Elektronika Praktyczna

Międzynarodowy magazyn elektroników konstruktorów

Elektronika dla Wszystkich grudzień 2025

Elektronika dla Wszystkich

Interesująca elektronika dla pasjonatów