inhire.ioBlogInneAI w oczach inżyniera: technologia, etyka i przyszłość

AI w oczach inżyniera: technologia, etyka i przyszłość

Inne
Praca w IT
24/09/2025

Sztuczna inteligencja fascynuje, budzi emocje i stawia pytania, na które nie zawsze mamy gotowe odpowiedzi. O jej rozwoju, etycznych wyzwaniach i mitach związanych z technologią rozmawiamy z Wojciechem Ruchlewiczem, Senior Embedded Software Engineerem w ASSA ABLOY. To opowieść o AI widzianej oczami inżyniera, który łączy ciekawość odkrywcy z doświadczeniem praktyka.

AI i pytania, których sobie nie zadajemy

Inhire: Na co dzień pracujesz jako inżynier firmware, ale fascynuje Cię także sztuczna inteligencja. Co Cię w niej najbardziej przyciąga?

Wojtek Ruchlewicz: Od zawsze fascynowały mnie nowe odkrycia, innowacyjne technologie i produkty. Gdy tylko pojawiało się coś nowego, zastanawiałem się, jak można to wykorzystać, by ułatwić sobie życie. Jeśli tylko było to możliwe, sięgałem po zestawy ewaluacyjne i eksperymentowałem. Tak było chociażby w przypadku układów do odzyskiwania energii z fal radiowych emitowanych przez nadajniki komunikacji bezprzewodowej czy chipów radiowych wykorzystywanych w technologii LoRa. To zaspokajało moją ciekawość i dawało ogromną satysfakcję.

Czasem jednak — znacznie rzadziej — pojawia się coś, co wykracza daleko poza zwykłe innowacje. Coś, co dotyka niemal każdego aspektu życia i potrafi je całkowicie odmienić. Zaczyna się niepozornie — jako pomysł jednostek. Później rozwija się na uczelniach i w laboratoriach, przyciąga entuzjastów, mierzy się z ograniczeniami swojej epoki, by w odpowiednim momencie dojrzeć i błyskawicznie zdobyć świat. Tak było z elektrycznością, tranzystorem czy Internetem.

Właśnie to najbardziej fascynuje mnie w sztucznej inteligencji — jej ogromny potencjał, który już dziś zmienia nasze życie, a wkrótce może ponownie zrewolucjonizować świat.

Inhire: Twoja praca dyplomowa dotyczyła rozpoznawania znaków i sieci neuronowych. Jak patrzysz dziś na tamten projekt z perspektywy rozwoju AI?

Wojtek Ruchlewicz: To były wczesne lata 90-te. Moim zadaniem było napisanie programu do rozpoznawania znaków z wykorzystaniem sieci neuronowych.
Jako model zastosowałem sieć RBF (Radial Basis Function Network), opracowaną cztery lata wcześniej. Zrealizowałem ją w oparciu o funkcje Gaussa w przestrzeni 32-wymiarowej. 

Wraz z algorytmem wstecznej propagacji błędu (opublikowanym sześć lat wcześniej) oraz własną wersją algorytmu ekstrakcji cech, udało mi się zamienić 64-pikselową bitmapę na 32-wymiarowy wektor, łatwiejszy do przetwarzania przez komputer. W efekcie powstał zestaw aplikacji do tworzenia par uczących, trenowania sieci oraz rozpoznawania dowolnych znaków na matrycy 8×8 pikseli.

Wszystko uruchomiłem na własnoręcznie złożonym PC z systemem Windows 3.1, procesorem Intel 386SX, dyskiem o – imponującej wówczas dla studenta – pojemności 80 MB i pamięcią RAM wynoszącą całe 2 MB. Takie to były czasy – aż łezka nostalgii kręci się w oku na samo wspomnienie.

Patrząc na to w szerszym kontekście: od powstania pierwszego sztucznego neuronu w 1943 roku, mój projekt znalazł się mniej więcej w połowie drogi rozwoju sztucznej inteligencji.

Z dzisiejszej perspektywy technologia sieci RBF nie zyskała szerszego zastosowania. Obecnie fundamentem AI są głębokie sieci neuronowe, transformery i modele generatywne. Natomiast algorytm wstecznej propagacji błędu, który wtedy wykorzystywałem, pozostaje do dziś podstawową metodą uczenia współczesnych sieci.

Inhire: W powszechnej opinii AI to nowość. Czy rzeczywiście sztuczna inteligencja to wynalazek XXI wieku?

Wojtek Ruchlewicz: Za narodziny sztucznej inteligencji uznaje się konferencję w Dartmouth w 1956 roku, podczas której po raz pierwszy użyto pojęcia „artificial intelligence”. Już wtedy wiedziano, że komputery można zaprogramować tak, aby symulowały procesy myślowe ludzi – takie jak wnioskowanie, uczenie się czy rozwiązywanie problemów. W tamtym okresie rozważano jednak głównie algorytmy oparte na logice i regułach, a nie na strukturach inspirowanych biologicznie. Tak czy owak od tego momentu AI zaczęła funkcjonować jako odrębna dziedzina nauki.

W latach 90. Jej rozwój wciąż hamowały ograniczenia technologiczne – dostępne komputery nie były w stanie efektywnie trenować dużych modeli, brakowało skutecznych algorytmów i odpowiednio dużych zbiorów danych.

Przełom nastąpił dopiero w XXI wieku. Rozwój chmur obliczeniowych (Amazon Web Services, Google Cloud, Microsoft Azure), pojawienie się ogromnych zbiorów danych (Internet, media społecznościowe, smartfony) oraz nowe architektury sieci (np. transformery po 2017 roku) sprawiły, że AI stała się dostępna dla szerokiej grupy odbiorców. Dlatego wiele osób utożsamia jej narodziny właśnie z obecnymi czasami – choć w rzeczywistości historia sztucznej inteligencji sięga ponad pół wieku wstecz.

Inhire: Mówisz, że prawdziwy przełom nastąpił po 2017 roku – dzięki transformerom. Co sprawiło, że właśnie ten model zmienił wszystko?

Wojtek Ruchlewicz: Zmienił wiele. Przede wszystkim, w przeciwieństwie do wcześniejszych modeli sekwencyjnych, w których dane były przetwarzane krok po kroku, transformery potrafią analizować wiele elementów jednocześnie. To szalenie przyspiesza proces uczenia i wspomaga skalowalność.

Po drugie, wprowadziły mechanizm uwagi (attention), który umożliwia modelowi rozumienie kontekstu i powiązań między różnymi elementami w zdaniu.

Warto też podkreślić uniwersalność transformerów – można je stosować nie tylko w przetwarzaniu języka naturalnego, lecz także w analizie obrazów, dźwięku, danych liczbowych, oraz w łączeniu tych obszarów.

To przewaga, której wcześniejsze modele nie były w stanie zapewnić.

Filozofia, etyka, świadomość

Inhire: AI coraz częściej wspiera decyzje, które mają realne skutki – w sądach, medycynie, a nawet wojsku. Jak oceniasz etyczne ryzyko takiego rozwoju?

Wojtek Ruchlewicz: AI to wciąż narzędzie, które w obecnej postaci nie daje gwarancji pełnej nieomylności. Odpowiedzialność za jego działanie zawsze musi ponosić człowiek.
Etyczne podejście wymaga kilku kluczowych elementów: transparentności algorytmów, kontroli człowieka na którymś etapie procesu, rzetelnych danych do trenowania sieci i jasnego podziału odpowiedzialności.
Nie wszystkie te punkty są proste do realizacji. Na przykład złożona natura sieci głębokich sprawia, że pełne zrozumienie jej algorytmu jest praktycznie nieosiągalne, choć istnieją narzędzia pozwalające częściowo to ograniczenie niwelować. Najłatwiej wprowadzić kontrolę człowieka stosując systemy „human in the loop”. Rzetelność danych można kontrolować, a podział odpowiedzialności powinien obejmować producentów, użytkowników oraz regulatorów prawa i standardów.
Choć dla opinii publicznej etyka AI to temat stosunkowo nowy, w środowisku eksperckim dyskusje na ten temat toczą się od dawna – z udziałem inżynierów, specjalistów ds. bezpieczeństwa, prawników, etyków czy filozofów. I szczerze mówiąc, jestem spokojny o ich wyniki… dopóki do stołu nie dosiądzie się urzędnik z pomysłem na nowy podatek. 😉

Aby pokazać, jak rozumiem podział odpowiedzialności, posłużę się przykładem. Kupuję autonomicznego robota-ogrodnika AI. Programuję go do koszenia trawnika, przycinania żywopłotu i pielenia grządek. On zabiera się do pracy, a ja oddaję błogiemu lenistwu. Po chwili wszystko wygląda idealnie, aż słyszę, że moja kosiarka wycina kwiaty… na publicznym skwerku. Producent odrzuca reklamację, bo to ja nie poinformowałem robota o granicach mojej posesji.

Innym razem wracam do domu i widzę, jak zamiast pielęgnować petunie, mój AI śpiewa włoskie arie do sąsiadki za płotem – tym razem wina leży po stronie producenta.

Jeszcze innym razem odblokowuję eksperymentalną opcję „auto-świadomość”. Robot okazuje emocje, zna trendy w ogrodnictwie, dba o ciszę, a nawet współodczuwa mój nastrój. Jednak po powrocie z wakacji odkrywam cały ogród pełen nowych robotów, rozłożonych na leżakach, relaksujących się i… próbujących płacić moją kartą kredytową za kolejne zamówienia online. To już przykład sytuacji, w której konsekwencje powinny ponieść instytucje regulacyjne, które dopuściły produkt do użytku – wbrew zakazom dotyczącym autonomicznej interakcji AI z systemem finansowym.

Inhire: Czy uważasz, że AI może kiedykolwiek stać się naprawdę świadome – czy to tylko science fiction?

Wojtek Ruchlewicz: To pytanie od lat budzi skrajne opinie i dlatego jest tak ciekawe, a zarazem kontrowersyjne.
Jeśli zapytasz filozofa, czym właściwie jest świadomość, prawdopodobnie wprawisz go w zakłopotanie. Z jednej strony każdy człowiek „wie”, że jest świadomy – bo doświadcza myśli i emocji. Z drugiej jednak, nie potrafimy w pełni wyjaśnić, czym jest świadomość w sensie naukowym, jak powstaje w mózgu ani jak – i czy w ogóle – można ją odtworzyć.
Z perspektywy „materialistycznej” zakłada się, że świadomość wynika z funkcjonowania skomplikowanych sieci neuronowych. Gdyby tak było, to w przyszłości powstanie świadomej AI teoretycznie byłoby możliwe.

Przeciwnicy takiego podejścia twierdzą jednak, że świadomości nie da się osiągnąć za pomocą metod obliczeniowych – a na nich właśnie obecnie bazuje sztuczna inteligencja. I dopóki natura świadomości pozostaje nieodgadniona, ten punkt widzenia wydaje się równie uzasadniony. Osobiście skłaniam się właśnie ku niemu.

Jak widać, opinie w tej sprawie są mocno podzielone i opierają się raczej na intuicji niż na twardych dowodach naukowych.

Inhire: Niektórzy przywołują nawet twierdzenie Gödla i fizykę kwantową, by dowieść, że maszyna nie zrozumie świata jak człowiek. Co o tym sądzisz jako inżynier?

Wojtek Ruchlewicz: Jako świeży inżynier po studiach, pewnie powiedziałbym, że wszystko da się obliczyć i matematycznie udowodnić, więc „ludzkie” zrozumienie świata przez maszynę to tylko kwestia złożoności algorytmu. Dziś nie jest to dla mnie już takie oczywiste…

Twierdzenie Kurta Gödla mówi w uproszczeniu, że nie wszystko da się formalnie udowodnić w ramach systemu matematycznego.

Z kolei “problem stopu” mówi, że nie wszystko da się przewidzieć w systemach obliczeniowych, takich jak maszyna Turinga.

Oba te zagadnienia wskazują na fundamentalne granice matematyki i maszyn algorytmicznych, na których dziś bazuje AI.

Roger Penrose interpretując twierdzenie Gödla twierdzi, że skoro rozum ludzki potrafi zauważyć prawdy, których nie da się wyprowadzić w ramach tych systemów, to umysł nie jest czysto algorytmiczny stąd niemożliwy do zrealizowania przy pomocy obecnych maszyn.

W poszukiwaniu źródeł ludzkiej świadomości Penrose wspólnie ze Stuartem Hameroffem tworzy teorię Orkiestrowanej Obiektywnej Redukcji (Orch-OR) która zakłada, że świadomość nie powstaje wyłącznie w wyniku klasycznych procesów neurobiologicznych, lecz z niealgorytmicznych procesów kwantowych zachodzących wewnątrz neuronów. 

Podejście to bardzo przemawia do mojej inżynierskiej wyobraźni, choć wiem, że istnieją także krytycy, którzy uważają, że wspomniane ograniczenia nie stanowią przeszkody. 

Inhire: Czy AI może być odpowiedzialna moralnie za swoje decyzje? A jeśli nie – kto powinien być?

Wojtek Ruchlewicz: Tak długo, jak nie wykażemy, że AI posiada świadomość, odpowiedzialnym moralnie za jej decyzje zawsze będzie człowiek.

Mity, uproszczenia i codzienność AI

Inhire: Jakie Twoim zdaniem są najczęstsze mity, jakie powielamy na temat AI w mediach i popkulturze?

Wojtek Ruchlewicz: Media i popkultura bazują głównie na emocjach, dlatego najczęstszym mitem jest przedstawianie AI jako istoty świadomej – posiadającej własne plany, cele i „uczucia”.

Przykładów jest mnóstwo. W Terminatorze system Skynet osiąga samoświadomość, dostrzega zagrożenie dla swojego istnienia i wywołuje globalną wojnę nuklearną. Świadomość posiadają też replikanci w Łowcy Androidów – rodzi ona w nich wolę życia, sprzeciw wobec wykorzystywania i nierównego traktowania. Choć nie przechodzą testu Turinga, potrafią mówić o swoich uczuciach, marzeniach i cierpieniach. Moimi ulubieńcami są jednak R2-D2 i C-3PO z Gwiezdnych Wojen – prawdziwi przyjaciele na dobre i złe. Jeden jest nerwowy i ostrożny, drugi odważny i zadziorny. Choć często się kłócą, zawsze wspierają się w niebezpieczeństwie.

Na drugim biegunie mamy mit AI jako zimnego, perfekcyjnego narzędzia. Tu świadomość również istnieje, ale emocje nie są mile widziane. Przykładem jest sam Terminator – maszyna zaprogramowana wyłącznie do eliminacji celu. Bardziej sympatyczny, choć również pozbawiony emocji (przynajmniej na początku), jest Data ze Star Treka. Jego pamięć, inteligencja, sprawność analityczna i moduł etyczny czynią go niezastąpionym członkiem załogi, która wyrusza „odważnie tam, gdzie żaden człowiek wcześniej nie dotarł”.

Mit ten jest o tyle mylący, że w rzeczywistości AI nie jest wolna od ludzkich słabości. Uczy się bowiem na danych stworzonych przez ludzi, a więc z konieczności naznaczonych naszymi błędami, uprzedzeniami i niedoskonałościami. To wszystko znajduje później odzwierciedlenie w jej działaniu.

Inhire: Dlaczego Twoim zdaniem AI nie „odbierze nam pracy”? Co najczęściej ludzie źle rozumieją w tej debacie?

Wojtek Ruchlewicz: W debacie o przyszłości miejsc pracy pojawia się wiele nieporozumień, które budzą strach i niepewność. Jeśli jednak spojrzymy na AI jako narzędzie wspierające człowieka, wiele obaw znika.
Sztuczna inteligencja świetnie radzi sobie z powtarzalnymi zadaniami i analizą dużych ilości danych, automatyzując je w znacznym stopniu. Dzięki temu człowiek zyskuje przestrzeń na działania wymagające kreatywności i indywidualnego podejścia.
AI pozwala pracownikom skupić się na zadaniach opartych na krytycznym myśleniu, rozwiązywaniu problemów czy budowaniu relacji. Zamiast odbierać miejsca pracy, technologia tworzy nowe zawody i podnosi jakość pracy człowieka.

Nawet jeśli w jakimś obszarze maszyna całkowicie zastąpi człowieka, nadal będzie potrzebny nadzór, serwis i kontrola – a to oznacza kolejne miejsca pracy.

Branża związana z AI jest w zasadzie nowym sektorem gospodarki, pełnym ról związanych z wprowadzaniem danych, uczeniem maszynowym, zarządzaniem, obsługą prawną, etyką i kontrolą jakości.

Inhire: Często mówisz, że AI to narzędzie – jak łuk, którego nie trzeba w pełni rozumieć, by z niego korzystać. Czy nie ma w tym jednak niebezpieczeństwa?

Wojtek Ruchlewicz: Powiedziałbym nawet, że to łuk sporządzony z „myślącej gruszy”. 😊 Dopóki działa zgodnie z moją wolą, z pewnym poziomem przewidywalności i niezawodności, nie bałbym się go używać.

Problem pojawiłby się wtedy, gdyby nagle zaczął zachowywać się w sposób nieoczekiwany – wypuszczał strzały z opóźnieniem, znosił je w bok albo samoczynnie napinał cięciwę i strzelał (a trzeba przyznać, że myśląca grusza potrafi być nieprzewidywalna 😉). Wtedy, w razie wypadku, winiłbym wyłącznie samego siebie za to, że w porę się go nie pozbyłem.

Inhire: Na koniec: jak Ty sam jako inżynier, chciałbyś, żeby wyglądała przyszłość AI?

Wojtek Ruchlewicz: Życzyłbym sobie tylko żeby na każdym etapie rozwoju tej technologii najwyższy priorytet miały prawda, wolność i transparentność. Te wartości zawsze dobrze służyły człowiekowi i warto o nich pamiętać. Na szczęście do tej pory nie zauważyłem w tym zakresie niczego niepokojącego i bardzo bym chciał, żeby tak pozostało.


Nazywam się Wojtek Ruchlewicz i od ponad 10 lat pracuję jako inżynier firmware w firmie ASSA ABLOY. Na co dzień tworzę oprogramowanie do naszych zamków, a przez pewien czas byłem również zaangażowany w działania zespołu PPI (Pre-Product Innovation), gdzie oceniałem potencjał dostępnych technologii pod kątem ich zastosowania w przyszłych produktach. Jedną z moich niezmiennych pasji jest odkrywanie nowych technologii i przewidywanie, jaki wpływ mogą mieć na nasze życie w przyszłości.