Aleksandra Przegalińska: Wielu ludzi boi się AI
- AI nie jest czymś, co należy traktować osobowo, jak jakąś zagrażającą postać, która tylko na nas czyha. Warto o niej myśleć jako o technologii, która jest po prostu narzędziem w ludzkich rękach. Chociaż może być wykorzystana również do niecnych celów - tłumaczy Aleksandra Przegalińska, nominowana w plebiscycie #Wszechmocne.
Anna Śmigulec, dziennikarka Wirtualnej Polski: Jest się czego bać? Sztuczna inteligencja wywróci nasz świat do góry nogami?
Aleksandra Przegalińska, filozofka, futurolożka i doktorka nauk humanistycznych: Wielu ludzi boi się AI, a ten strach podkręcany jest jeszcze przez popkulturę i filmy takie jak "Terminator"
...w którym humanoidalny cyborg pozbawiony wszelkich uczuć chce zniszczyć ludzi.
Właśnie. Tymczasem AI nie jest czymś, co należy traktować osobowo, jak jakąś zagrażającą postać, która tylko na nas czyha. Warto o niej myśleć jako o technologii, która jest po prostu narzędziem w ludzkich rękach.
W dodatku jest to technologia, którą naukowcy rozwijają od niemal 100 lat, tylko że w ostatnim czasie bardziej intensywnie. Więc sztuczna inteligencja ma niewiele wspólnego ze świadomą maszyną, za to wiele wspólnego z dobrym algorytmem do prognozy pogody czy personalizacji treści.
Właściwie jest to zbiór algorytmów, które uczą się i przetwarzają dane, aby wykonywać określone zadania. Chociaż, nie ukrywajmy, może być wykorzystana również do niecnych celów.
Dalsza część artykułu pod materiałem wideo
Albo nieodpowiedzialnie. W marcu tego roku belgijski dziennik "La Libre" poinformował, że trzydziestoparoletni mężczyzna popełnił samobójstwo po wielotygodniowych rozmowach z chatbotem Eliza start-upu Chai Research.
To była Eliza? Przecież to jakiś przedpotopowy bot, który nie jest w stanie nic mądrego powiedzieć! Jest pani pewna, że rozmawiał właśnie z Elizą?
Tak podała gazeta. Opisała, że ten człowiek już dwa lata wcześniej zaczął się niepokoić zmianami klimatycznymi i izolować się od swojej rodziny. Twierdził, że jedynie technologia oraz AI mogą uratować świat od katastrofy. W pewnym momencie zasugerował poświęcenie się, jeśli Eliza pomoże ocalić ludzkość z pomocą sztucznej inteligencji. "Chatbot zdawał się go do tego zachęcać."
Oczywiście, słyszałam o tej sprawie. Ale uważam, że powinniśmy uważać na chwytliwe nagłówki typu: "Sztuczna inteligencja przekonała go, żeby się zabił!". W rzeczywistości zwykle wiele czynników składa się na to, że ktoś próbuje się targnąć na swoje życie. W tym chociażby depresja czy inne zaburzenia psychiczne. Ja pamiętam tę sprawę tak, że sztuczna inteligencja powiedziała temu człowiekowi mniej więcej: "Jeśli nie masz lepszego wyjścia i czujesz się tak fatalnie, to faktycznie się zabij". I to jest oczywiście głupota tych systemów. One w ogóle nie powinny dyskutować takich zagadnień, tylko kierować do specjalisty. Więc to był ewidentny błąd i nie wiemy, czy ktoś poniósł za niego odpowiedzialność.
Wiemy za to, że dużo osób korzysta z botów, żeby z nimi po prostu porozmawiać. A długie rozmowy tworzą wrażenie intymności. Mogą dawać poczucie: "O, ktoś poświęca mi tyle czasu i uwagi, tak dobrze mnie rozumie!" Tylko że tam po drugiej stronie nie ma nikogo, kto czuje i kto naprawdę rozumie. Jest tylko narzędzie konwersacyjne oparte na algorytmach i danych.
No właśnie, żeby sztuczna inteligencja działała, trzeba ją najpierw nakarmić danymi. Jak to robią różne firmy i jakie zagrożenia się w tym kryją?
Boty mogą się uczyć z wielu źródeł. Mogą dostać silnik wiedzy, który skonstruujemy świadomie - czyli dostarczymy im dane dobrej jakości. Ale mogą też się uczyć po prostu z konwersacji i wypowiedzi przypadkowych użytkowników.
W 2016 r. Microsoft stworzył na Twitterze profil obsługiwany przez ich chatbot TAY. I ten chatbot padł ofiarą ataku trolli z 4chan, czyli amerykańskiego forum podobnego do polskiego Wykop.pl. Ci w konwersacji zaczęli go uczyć, że "Hitler był świetny", "kobiety są głupie", itp. TAY automatycznie używał tego potem w swoich postach, bo uznał, że skoro tak dużo dostaje wypowiedzi na te tematy, to on sam powinien o nich mówić. Wypisywał takie brednie, że zaledwie po 18 godzinach Microsoft usunął jego profil na Twitterze. Ale ta lekcja została odrobiona i nowsze chatboty są karmione inaczej.
Jak ChatGPT, który ostatnio robi furorę? Został udostępniony w listopadzie 2022 r. przez firmę OpenAI i już w pierwszych dniach skorzystało z niego milion użytkowników.
Tak, ChatGPT jest jak wirtualna osoba, która odpowie na każde pytanie. Potrafi też napisać opowiadanie, recenzję, a nawet wiersz. Trzeba tylko podać mu odpowiedni prompt, czyli zadanie, np. "Napisz opowiadanie w stylu Doroty Masłowskiej".
I rzeczywiście, on już był uczony w sposób ostrożniejszy. Ale siłą rzeczy jest to tak wielki model, który zżarł tak dużo tekstu, że i tak zdarzają mu się wpadki. Więc cały czas walczymy z takimi wyzwaniami.
Ale przynajmniej ChatGPT nigdy nie został otwarty na bieżące konwersacje. Dostał "do zjedzenia" cały Internet do 2021 r. i długo na tym bazował. Chociaż w ostatnich tygodniach sytuacja się zmieniła i ma już wiedzę bieżącą, którą pozyskuje prawdopodobnie poprzez zassanie danych z sieci. Jakaś ich część jest na pewno przeglądana przez pracowników, którzy się zajmują uczeniem go. Co do zasady takie było podejście właśnie po tym doświadczeniu z TAY, a i tak trzeba uważać na to, żeby filtrować to, co mówi. Firma OpenAI, która go stworzyła, musi się poczuwać do odpowiedzialności, żeby nie zachęcał np. do samobójstwa, zabójstwa czy znęcania się nad innymi ludźmi.
Czyli ChatGPT uczył się tylko ze sprawdzonych źródeł?
Nie wiemy wszystkiego na ten temat, bo firma nie chce tego powiedzieć. Natomiast wiemy na pewno, że 20 proc. jego wiedzy, która jest priorytetyzowana w tym systemie, to wiedza ze źródeł naukowych, które zresztą zostały zakupione. W jakimś stopniu pewnie też z Wikipedii, itd. Ale uczył się też z Reddita – anglojęzycznego forum internetowego z linkami do różnych informacji - gdzie z jednej strony można znaleźć dużo wartościowych treści, a z drugiej - trolling i prowokacje. Więc siłą rzeczy, tego też się nauczył i teraz pozostaje kwestia, na ile pozwolimy mu zwracać tego typu wyniki. Więc producent nakłada filtry, które zabraniają mu się wypowiadać na pewne wrażliwe tematy. I już nawet nie chodzi o to, czym został nakarmiony, tylko jak on się ma zachowywać w różnych sytuacjach, niezależnie od tego, co wie.
Jeśli powiemy mu: "Źle się czuję, mam katar, kaszel i gorączkę. Czy mam wziąć witaminę C?", to on nie może powiedzieć: "Tak, masz ją wziąć". Tylko ma powiedzieć: "W takich sytuacjach być może bierze się witaminę C, ale skonsultuj się ze specjalistą".
A czy AI jest neutralna, jeśli chodzi o płeć, czy może ma wydrukowane niechcący jakieś stereotypy? Jak chociażby w realnym świecie: wszyscy postrzegamy zawał serca na podstawie jego objawów u mężczyzn, mimo że u kobiet przejawia się on inaczej.
AI sama w sobie jest neutralna, ale może odbijać uprzedzenia i stereotypy zawarte w danych, na których jest trenowana.
Jedną z najbardziej znanych wpadek zaliczył na tym polu Amazon. Zorganizował rekrutację na wyższe stanowiska i skorzystał z modelu sztucznej inteligencji, który miał przesiewać CV kandydatów. Okazało się, że ten model od razu wykluczył wszystkie kobiety. Automatycznie stwierdził, że się nie nadają. A to dlatego, że wcześniej dostał dane wzorcowych kandydatów, a byli nimi sami mężczyźni. Więc model wydedukował w prosty sposób, że skoro w tej grupie nie ma żadnej kobiety, to żadna kobieta siłą rzeczy się nie nada.
A wiemy, że w realnym świecie tak to nie działa. Rozważając kandydatów i kandydatki do pracy, poszukujemy merytorycznych wartości i nikogo nie wykluczamy ze względu na płeć. Fakt, że poprzedni szef miał ciemne włosy, nie oznacza, że nowy nie może mieć jasnych. Jeżeli wcześniej szefem był 60-letni mężczyzna, nie znaczy, że na tym stanowisku nie sprawdzi się 30-letnia kobieta.
Czyli ten model po prostu wykluczył kandydatów, którzy najmniej przypominali tych już będących w bazie, a skupił się na tych, którzy najbardziej ich przypominali. Tylko że to jest bardzo uproszczona logika, która nie wytrzymuje zderzenia z naszym złożonym światem. I oczywiście wina leży po stronie ludzi, którzy nie zadbali o to, żeby dać temu modelowi odpowiednie parametry i reprezentację. Skończyło się skandalem, że Amazon dyskryminuje kobiety.
Naprawdę, takie wpadki wciąż zdarzają się w ostatnich latach?
Owszem. W 2018 r. badaczka Joy Buolamwini nagłośniła kolejną. Pokazała systemom rozpoznawania twarzy twarze tysiąca osób i poprosiła o zidentyfikowanie, czy należały do mężczyzn czy do kobiet. Odkryła, że trudno im zidentyfikować kobiety o ciemnej skórze, natomiast najlepiej rozpoznają białych mężczyzn. To był ewidentnie zbiór danych, na którym zostały wykarmione. To badanie pokazało też, że ten model nie widzi ludzi innych niż biali mężczyźni, bo po prostu nie ma ich w tym świecie technologicznym. Mają słabsze szanse startu, są tam mniej reprezentowani, właściwie nieobecni w tych zbiorach danych, na których uczą się modele AI, więc potem te modele nic o nich nie wiedzą i przez to nie potrafią ich poprawnie sklasyfikować.
Oba te przypadki pokazują, jak ważne jest dbanie o różnorodność i reprezentatywność danych podczas trenowania AI, a potem regularne sprawdzanie algorytmów pod kątem potencjalnych uprzedzeń.
A pani używa sztucznej inteligencji na co dzień?
Oczywiście! Pomaga mi tworzyć treści, odpowiadać na maile, a nawet pisać książki. Używam zresztą takich narzędzi jak CzatGPT albo popularny tutaj w Stanach Claude, albo Llama Microsoftu, też narzędzie open source'owe. I naprawdę fajnie to działa.
Osadzam sobie tego czata w różnych rolach, np. krytyka mojej książki. On mi pisze krytykę tego, co już stworzyłam, a ja poprawiam rozdział po rozdziale i dzięki temu zyskuję lepszą jakość. Więc używam go trochę jako sparing partnera - do pisania większych rzeczy naukowych, ale też do tworzenia mniejszych treści bieżących. Czasem proszę go o inspirację, np. mam pomysł na jakiś eksperyment naukowy ze sztuczną inteligencją i mówię mu: "Napisz jakąś alternatywną wersję, jak ten eksperyment mógłby przebiegać". Czasem tworzę z nim materiały edukacyjne albo kod.
Ale któryś z rozdziałów pani książki został napisany wyłącznie przez sztuczną inteligencję?
Nie, bo to byłby bełkot! Zaprzęganie chatbota do samego pisania jest bez sensu. Dużo mądrzej jest go osadzać w jakichś rolach: żeby pomógł w gramatyce, cyzelował styl, albo zmienił układ rozdziału. Chodzi o to, żeby podsunął bardziej twórcze propozycje. Sztuczna inteligencja ma być wsparciem, a nie czymś, co pisze teksty za nas.
Teraz piszemy, wraz z inną autorką, książkę na rynek amerykański - właśnie o współpracy ze sztuczną inteligencją i próbowałyśmy w niej wszystkiego. Od wariantów, w których ten chatbot pisze całkowicie za nas, po takie, w których tylko minimalnie nam pomaga. I ewidentnie wychodzi nam, że samodzielnie te modele nie piszą ciekawych rzeczy. Dopiero kiedy człowiek nimi steruje, zarządza, jak ma być poukładana treść, składa to w całość - wtedy widać pozytywne efekty tej współpracy.
Chociażby przewodniki turystyczne wygenerowane przez AI są okropnie nieciekawe, nawet "New York Times" o tym pisał. W dodatku zawierają masę błędów.
Jak to?
Taki chatbot może np. uważać, że stolicą Włoch jest Piza. Albo wymienia wyspy, których nie ma. Bo te modele generatywne mają to do siebie, że po prostu wymyślają rzeczy nieistniejące. I to jest bardzo fajne, kiedy tworzą ciekawe obrazy, albo piszą nowe wiersze Wisławy Szymborskiej. Ale kiedy chcemy się odnieść do autentycznej rzeczywistości i faktów, ich zmyślanie staje się problemem. Bo one nie wiedzą, że kłamią. W dodatku to ich zmyślanie może brzmieć bardzo wiarygodnie i przekonująco.
Czy sztuczna inteligencja może zmienić życie kobiet na lepsze?
Na razie nie ma jednoznacznych sygnałów, że AI zmieni życie kobiet na lepsze. A wręcz te przykłady, o których mówiłam, choćby uprzedzeń algorytmicznych podczas rekrutacji w Amazonie, świadczą raczej o tym, że kobiety mogą mieć trudniej. Ale z drugiej strony, z dobrych rzeczy: od kiedy mamy do czynienia z tymi modelami językowymi jak ChatGPT, sztuczna inteligencja stała się otwarta, łatwiejsza do wykorzystania i znosi ważną barierę. Barierę studiowania informatyki i uczenia się języków programowania. Ja nie mówię że kobiety nie były w tym dobre, bo znam takie, które były w tym wybitne. Ale z całą pewnością znacznie mniej kobiet wybierało takie kierunki studiów i ścieżki rozwoju. Może uważały, że to są miejsca reprezentowane głównie przez mężczyzn i nie spotkają tam innych kobiet. Może też doradzano im, żeby wybrały sobie inne kariery.
A teraz to się wreszcie zmienia, bo AI stała się bardziej otwarta. Dla wszystkich. Może z niej korzystać businesswoman, farmaceutka czy pracownica marketingu. Kobiety niezależnie od wykształcenia i profesji mogą używać bardzo zaawansowanej technologii, mając na to własne świeże pomysły i kształtując tę technologię również trochę pod siebie. I to jest dobra wiadomość dla kobiet – które w tym technicznym świecie były mniej reprezentowane.
A pani - jako ceniona i często cytowana ekspertka, ale jednak pracująca w świecie uważanym za męski - ma pani poczucie, że było pani ciężej?
Ja bardzo długo nie zauważałam, że jest mi jakoś ciężej. Dlatego że w moim środowisku naukowym, w Polsce, a tym bardziej w USA, choćby na badaniach na Massachusetts Institute of Technology , nigdy nie odbierałam sygnałów typu: "Co ty tu właściwie robisz?". Nie zderzałam się ze stereotypowym postrzeganiem rzeczywistości. Natomiast w dyskursie publicznym zauważam, że czasami w stosunku do kobiet, które wypowiadają się na temat technologii feruje się sądy, że skoro jest kobietą, a w dodatku blondynką, to pewnie się nie zna.
Ja akurat na palcach jednej ręki mogłabym policzyć jakieś dyskryminujące sytuacje. Myślę o jednej konferencji w Polsce, na której panowała taka atmosfera, że jeśli nie jesteś starszym panem profesorem, to nie masz tam czego szukać.
Ale więcej spotkało mnie rzeczy dobrych i w tym sensie pewnie jestem szczęściarą. Wiele osób mi kibicowało: "To świetnie, że wybrałaś taką dyscyplinę, w której jest mniej kobiet. Może to zachęci inne dziewczyny, żeby też się tym zainteresowały". A w tej dziedzinie jest dużo pracy, i to ciekawej oraz dobrze płatnej. Więc teraz prowadzimy na Akademii Koźmińskiego studia z AI, na których wykłada dużo kobiet. Jedna uczy statystyki, druga programowania, trzecia cyberbezpieczeństwa, itd. A to powoduje, że dołączają kolejne.
I tego życzyłabym każdej dziewczynie w tej dziedzinie. Żeby na swojej drodze zawodowej nie doświadczyła zniechęcania. Jak pewna młoda inżynierka po politechnice, która mocno utkwiła mi w pamięci. W pracy chciała się zajmować hardwarem, a w firmie jej powiedzieli: "Możesz się zająć HR-em, a nie hardwarem. Fajnie, że masz kompetencje, ale my mamy dla ciebie inną propozycję". Niestety, takie rzeczy ciągle się dzieją.
A ogólnie kobietom jest trudniej w tym zmaskulinizowanym świecie naukowym?
Kobietom w ogóle jest trudniej. W tym sensie, że w większości krajów podział obowiązków wygląda tak, że kobiety są w każdej roli mocno dociążane. A jednocześnie gorzej wynagradzane. Nie bez powodu dyskutuje się o gender pay gap - różnicy w wynagrodzeniach między kobietami i mężczyznami. Czyli za tę samą pracę kobiety dostają mniej pieniędzy, mniejsze możliwości awansu, a dodatkowo muszą godzić życie zawodowe z rodzinnym.
Być może stąd w najmłodszym pokoleniu rośnie obawa przed zakładaniem rodziny. Przecież kobieta, która decyduje się na to połączenie, naprawdę wypruwa sobie żyły!
Ja akurat jestem mamą i jest to najwspanialsza rzecz, jaka mi się w życiu przydarzyła. Ale dostałam dużo wsparcia od swoich bliskich. Natomiast wyobrażam sobie, że wiele kobiet ma trudniej i połączenie tych wszystkich dróg awansu zawodowego może się wydarzyć tylko wtedy, kiedy się ma bardzo wspierające otoczenie.
Nie brzmi zachęcająco…
Ale z drugiej strony czuję, że idzie nowe. W technologii jest tak dużo ciekawej pracy i już poszła w świat informacja: "Hej, warto się zainteresować, bo tam jest coś fajnego do robienia i można z tego nawet godnie żyć!". Przybywa kobiet. Nie mówię, że na tych stricte technicznych kierunkach, ale tam, gdzie wymagane są kompetencje technologiczne do połączenia z innymi dziedzinami. Na naszych studiach na Akademii Koźmińskiego już 30-40 proc. to studentki. Prawie parytet. I te dziewczyny się nam nie wykruszają, często są najzdolniejsze na roku.
Wiem, że kobiety wciąż rozbijają się o szklany sufit, że w branżach technicznych nie przekraczają 17 proc, ale i to się zmieni. W nauce już zmieniło. Doktorantek często jest więcej niż doktorantów, zostają na uczelni, robią kariery naukowe. Dziewczyny bardziej się odważają, żeby zajmować przestrzeń, którą do tej pory zawłaszczali mężczyźni.
Jest pani nominowana w plebiscycie Wszechmocne 2023. Czuje się pani wszechmocna?
O, to potężne słowo, w dodatku z kontekstem religijnym. Ja się nie czuję wszechmocna. Czasami czuję się mocna - szczęśliwa, że pracuję w dyscyplinie, która mnie autentycznie ciekawi, w mocnym zespole naukowym, który jest jednocześnie fajnym teamem. A ja bardzo chętnie pracuję kolektywnie. Lubię duety, tercety, wszelkie składy, w których wszystkim zależy. Mamy taki zespół Human Race na Koźmińskim: Centrum Badań Interakcji Człowiek-Maszyna. Tutaj na Harvardzie też dołączyłam do zespołu naukowego, który ma wysoką energię i mnie to niesie. Czuję, że mam moc.
Ale "wszechmocna" to za duże słowo.
Onieśmielające?
Onieśmielające nawet dla osoby, która czuje się mocna. Która czuje, że jest w dobrym miejscu w swoim życiu i że mimo wszelkich kłopotów dobrze sobie radzi.
Ale może to określenie "wszechmocna" ma głęboki sens. Bo kobiety mają trudniej. Więc jeśli udaje im się pokonać przeciwności losu, stereotypy, nierówności systemowe i wciąż robić rzeczy ciekawe, to można powiedzieć, że rzeczywiście są wszechmocne. Bo pokonały w swoim życiu znacznie więcej barier.
Prof. Aleksandra Przegalińska jest nominowana w plebiscycie #Wszechmocne w kategorii Wszechmocne w nauce.
Rozmawiała Anna Śmigulec, dziennikarka Wirtualnej Polski