Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

[wpdevart_countdown text_for_day="Dni" text_for_hour="Godzin" text_for_minut="Minut" text_for_second="Sekund" countdown_end_type="date" font_color="#000000" hide_on_mobile="show" redirect_url="" end_date="21-09-2020 12:00" start_time="1600339301" end_time="0,1,1" action_end_time="hide" content_position="center" top_ditance="10" bottom_distance="10" ][/wpdevart_countdown]

Strona w budowie, zapraszamy wkrótce...

“Po co w ogóle kształcić ludzi? Ku czemu?” – powiedział o edukacji w dobie AI Jacek Dukaj podczas debaty na UEP

Podczas obchodów Dni Uniwersytetu Ekonomicznego w Poznaniu, 19 maja, miała miejsce debata “Sztuczna Inteligencja w gospodarce” z udziałem przedstawicieli świata nauki i biznesu. Wśród uczestników znalazł się także Jacek Dukaj, najczęściej nagradzany polski pisarz zajmujący się fantastyką naukową. 

Przyznaję, że o debacie dowiedziałem się późno, tylko dzięki znajomym o podobnych zainteresowaniach (Magda, Kamil – dzięki). Uniwersytet Ekonomiczny wydarzenia specjalnie nie promował, zapewne, obawiając się popularności jednego z uczestników, zbyt dużego zainteresowania ze strony uczestników. W rezultacie, chociaż spodziewałem się tłumów, sala nie była nawet wypełniona w pełni. 

Wydarzenie rozpoczął Maciej Żukowski, rektor Uniwersytetu Ekonomicznego. W spotkaniu wzięli natomiast udział: prof. dr hab. inż. Witold Abramowicz z Katedry Informatyki Ekonomicznej UEP, dr hab. Maciej Ławrynowicz z Katedra Pracy i Polityki Społecznej UEP, Paulina Bzymek-Iwanowicz, Partner z działu Podatkowego Ernst & Young Audyt Polska oraz  Karim Sylla, Dyrektor Analityki i Data Science Żabka Polska. Swoistym wyróżnikiem debaty był jednak udział Jacka Dukaja. 

Moim zdaniem to właśnie udział autora książek takich jak “Lód” czy “Perfekcyjna niedoskonałość” miał kluczowe znaczenie dla jakości debaty. Nie chodzi o słowną ekwilibrystykę, która oczywiście mogłaby być domeną literata, ale inne niż pozostałych uczestników podejście do przedmiotu rozmowy. Bardziej pesymistyczne – chociaż sam zainteresowany pod koniec debaty określił się raczej jako optymista w przewidywaniach dotyczących AI. Pozostali uczestnicy spotkania byli bowiem, z racji pełnionych funkcji, w znacznym stopniu zobligowani do “zawodowego optymizmu”. Nawet dr hab. Maciej Ławrynowicz, kilka razy wyrażający pewne, jak sądzę, uzasadnione obawy dotyczące wpływu AI na rynek pracy, ostatecznie starał się ów przekaz łagodzić, rozmywać tak, aby nie wydał się zbyt krytyczny. Największy entuzjazm, co zrozumiałe, wyrażali przedstawiciele biznesu. 

To właśnie szeroko rozumiany wpływ społeczny masowego zastosowania AI wydawał się tym, który starano się nieco ominąć lub przynajmniej złagodzić. Na pojawiający się często argument mówiący, że sztuczna inteligencja znacznie ograniczy zatrudnienie w części zawodów, inne w ogóle pozbawiając racji bytu, pojawiły się dwie, w mojej ocenie dalece niewystarczające odpowiedzi. 

Pierwsza to popularna narracja mówiąca, że 150 lat temu jednym z najpopularniejszych zawodów był dorożkarz. Dziś, jeśli nie licząc krakowskiego starego miasta, ten zawód już nie istnieje – i nic złego w wyniku tej zmiany się nie wydarzyło. To prawda. Jednocześnie uważam osobiścię tę narrację za wręcz obraźliwą wobec inteligencji słuchacza. Woźniców czy dorożkarzy zastąpili kierowcy taksówek, a tych z czasem pracownicy aplikacji takich jak Uber czy Bolt. Stały element? Człowiek. Z czasem autonomiczne auta zastąpią zarówno klasycznych taksówkarzy raczących swoich pasażerów opowieściami o tym, że “Uber zły”, jak i ludzi, którym ów “zły Uber” daje pracę. Wspólnym mianownikiem będzie dla nich albo bezrobocie, albo przekwalifikowanie.  

Nie ma się co łudzić, że za 10 czy 15 lat, w horyzoncie czasowym, w którym autonomiczne pojazdy mogą zacząć pojawiać się w niektórych krajach (wątpię by Polska nadążyła legislacyjnie), 40-letni dziś kierowca taksówki będzie w stanie przekwalifikować się, jak często się sugeruje, na programistę. Ba, to, że dziś programistów brakuje, to nie znaczy, że ich deficyt będzie widoczny też za dekadę – a to poniekąd stara się nam wszystkim wpoić wielu entuzjastów AI. Narracja “na dorożkarzy” ma sens tylko pod warunkiem, że istniałoby pole zawodowe, na które ludzie będą mogli “uciec” z obszarów zajmowanych przez technologię. Kiedyś, w czasie pierwszej i drugiej rewolucji przemysłowej, praca ludzi stawała się, właśnie dzięki technologii, w coraz mniejszym stopniu fizyczna, coraz częściej intelektualna. Kiedy AI zacznie przynosić podobne rezultaty jak pracownik umysłowy, co pracodawcy, po jego “białkowym” umyśle? Biznes dąży do optymalizacji kosztów i nietrudno będzie policzyć, co opłaca się bardziej. Mówiąc wprost: przed maszyną parową, silnikiem spalinowym, elektrycznością, które zastępowały pracę fizyczną, było dokąd uciekać. Przed sztuczną inteligencją – nie. 

Inny argument, który pojawił się w debacie, mający niejako osłodzić wizję rynku pracy przy rosnącej adaptacji AI, odnosił się do pracy lektorów nagrywających audiobooki czy podcasty. Przykładem miał być Jarosław Kuźniar, którego podcast w ostatnim czasie jego własnym głosem czytała sztuczna inteligencja. Jeśli zastanowić się nad tym przykładem, to jest on raczej potwierdzeniem potencjalnego problemu niż jego zaprzeczeniem. Pomijając już fakt, że telewizyjny celebryta nie stanowi dobrego odniesienia do życia i pracy większości ludzi, to i jego AI może pewnego dnia postawić w wyjątkowo niewygodnym punkcie. Czy tak trudno wyobrazić sobie sytuację, w której celebryci zostaną zmuszeni przez dużych, globalnych i regionalnych wydawców do sprzedania licencji na swój głos lub wizerunek? Po co opłacać udział znanej osoby w telewizyjnym czy internetowym show, skoro można sobie go wygenerować? Przyszłością i tak zapewne będą celebryci całkowicie cyfrowi – idealne modelki i modele z instagrama okażą się jednak nie tacy znowu idealni w porównaniu z wykreowanymi cyfrowo odpowiednikami. Po co tracić czas i pieniądze na sesję fotograficzną na egzotycznej plaży, skoro pożądany obraz czy klip można wygenerować? 

Jednocześnie ludzie świata biznesu i świata nauki akademickiej muszą zachować “zawodowy optymizm”. Ci pierwsi – bo już zaczynają zastępować żywych pracowników systemami wysokiej automatyzacji. Ci drudzy, bo nie są w stanie zapewnić odpowiedniej recepty na rodzący się problem. Stąd udział Jacka Dukaja w debacie na Uniwersytecie Ekonomicznym był dobrym pomysłem ze strony organizatorów. Przede wszystkim dlatego, że pisarz nie jest związany swoistym obowiązkiem entuzjazmu wobec AI, czy nawet ostrożnego optymizmu. Jego diagnoza nie jest nawet pesymistyczna. Ba, sądzę, że olbrzymia część ludzkości byłaby z jednego ze scenariuszy nakreślonych przez Dukaja całkiem zadowolona. 

Punkt, w którym ów “zawodowy optymizm” pozostałych uczestników wyraźnie osłabł, to przede wszystkim regulacja rozwoju AI. Słusznie większość nie ukrywała, że dziś nie istnieją podmioty, które taki nadzór mogłyby w ogóle sprawować. Jednocześnie, nie ma wątpliwości, że jest on potrzebny i poświęcono chwilę na odniesienie się do tworzonych przez UE regulacji. Liczenie na moralność wielkiego biznesu jako recepta na potencjalne nadużycia? Powiedzmy, że nie jestem przekonany. 

“Czy istnieje jakakolwiek siła w społeczeństwach współczesnych, która presją polityczną, demokratyczną, czy jakąkolwiek inną, przeorientować postęp naukowy i dążenia tych, którzy kończą najlepsze uczelnie i pracują w Dolinie Krzemowej. Nie sądzę. Nie chcę być fatalistą. Istnieje szansa. Niedawno Google zapowiedział, że wprowadzi swojego Barda (red. generatywna AI Google) na szereg rynków, ale nie na europejskie, bo UE pierwsza ogłosiła, że zamierza AI regulować. To pokazuje, chociaż nie mam pewności, ale chciałbym wierzyć w to, że jest to wyraz obawy olbrzymiej firmy, że może lepiej testować to gdzie indziej.” – powiedział dr hab. Maciej Ławrynowicz

 

“Jak jest obecnie, jeśli chodzi o regulacje prawne? Kwestie AI specjal;nie nie jest obecnie chroniona prawnie. EU pracuje od 2018 roku nad rozporządzeniem w tym zakresie. Mamy jednak rok 2023 i prace trwają nadal, jest sporo kwestii, które trzeba zaadresować. To co jest ważne, w zakresie AI, ale też np. danych osobowych, to rozpoznanie z czym mamy do czynienia. To, na czym twórcy regulacji się skupiają, to aby podzielić z jakimi rodzajami AI mamy do czynienia: co powinno być w pełni zakazane, co może być ryzykowne, co dostępne, a co nie wymaga restrykcji. To wiąże się z tym, jak AI może bardzo ingerować w życie człowieka. To, co na pewno zostanie zakazane to np. social scoring. (…)” – powiedziała Paulina Bzymek-Iwanowicz

 

“Wartość rynkowa dużej firmy zderzona z PKB krajów – Apple jest przed m.in. Włochami, Brazylią, Kanadą, Rosją czy Hiszpanią. Microsoft, przed Kanadą i Brazylią, Amazon podobnie. Te firmy nie zależą od rządów” – powiedział prof. dr hab. inż. Witold Abramowicz słusznie wskazując na dysproporcję między regulującymi, a potencjalnie regulowanymi – “Przez stawianie dodatkowych ograniczeń, zapłacimy karę postępu. To pesymistyczny obraz. Jeżeli nie mamy wpływu na kraje takie jak Chiny czy Indie, to czy mamy w ogóle szansę na bycie apostołem poprawności politycznej, społecznej, humanistycznej, w wyścigu gospodarczym?” 

 

“Mamy inną etykę w Europie, na Zachodzie, a inną w Azji, w Chinach. (…) To było widać jeszcze przed “wybuchem AI”, wraz z rozwojem Big Data i rozwoju tzw. social credit system, im więcej masz danych o ludziach, tym lepiej jesteś w stanie optyymalizować różne systemy, komercyjne i niekomercyjne, pod obsługę tych ludzi. W systemie kapitalistycznym ta obsługa przekłada się na zysk. Wobec tego, także na zwycięstwo w wyścigu konkurencyjnym. Jakiekolwiek bariery będziemy stawiać dla zbierania informacji o ludziach i włączania ich do uczenia AI np. do dostarczania produktów – będziemy przegrywać w wyścigu. Możemy oczywiście stosować te ograniczenia i przez jakiś czas będziemy szczycili się, że pracujemy etycznie, ale potem ci w Chinach, czy Ameryce, którzy nie mają podobnych ograniczeń wyprzedzą nas, i tak tu wejdą, tylko już na swoich warunkach. Wyłania się więc pewien model determinizmu technologicznego, który prowadzi nas w tym kierunku, w którym sama natura rzeczywistości.” – powiedział Jacek Dukaj – “(…) Nie ma realistycznego scenariusza, (…) który zatrzymuje ten wyścig. Możemy najwyżej stworzyć sobie enklawę na jakiś czas, i cieszyć się, że żyjemy w niej “na stary sposób”. 

 

Dość pesymistycznie zakończyła się także część, w której omawiano wpływ na edukację. Pojawiały się tu różne koncepcje roli AI w systemie edukacyjnym, jednak w znaczniej mierze skupiono się na problemach związanych z niedostosowaniem systemu do takiego narzędzia jak choćby ChatGPT. Interesujące, przewrotne podejście zaprezentował natomiast Jacek Dukaj: 

“Trzeba obrócić to pytanie. Wszystkie odpowiedzi, które słyszałem, odpowiadały na pytanie: jak zastosować sztuczną inteligencję do procesu nauczania, takiego, jakim obecnie jest, gdzie kształci się ludzi do takiego świata, jaki obecnie jest – po to, by znaleźli pracę. Ale, moim zdaniem, pytanie powinno brzmieć: nie jak wykorzystywać AI w nauce, tylko: po co w ogóle kształcić ludzi do świata, w którym sztuczna inteligencja przeformatowała warunki życia, pracy, wartości kulturowe i lifestyle. Po co w ogóle kształcić ludzi? Ku czemu?” – zapytał pisarz pozostałych panelistów, nie otrzymując przy tym odpowiedzi. Prawdopodobnie dlatego, że trudno o właściwą. 

 

Podsumowując, wszyscy uczestnicy zostali poproszeni o określenie się, jako optymistów lub pesymistów w podejściu do rozwoju AI. Pesymistów zabrakło, chociaż gdy Jacek Dukaj określił się jako “zasadniczo optymistę”, na sali zapanowała wesołość. Autor “Perfekcyjnej Niedoskonałości” wyjaśnił przedstawiając dwa scenariusze: 

“Jeden jest taki, że AI zrobi nam wszystkim dobrze i nie będziemy zdolni, do bycia nieszczęśliwymi, a drugi jest taki, że nas zniszczy, więc nic nie będziemy czuli.” – powiedział Jacek Dukaj

 

Dodaj komentarz

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

POLECANE

3,272FaniLubię
10,608ObserwującyObserwuj
1,570SubskrybującySubskrybuj

NOWE WYDANIE

POLECANE

NAJNOWSZE