Stopniowo tracimy autonomię i podmiotowość na rzecz rosnącej roli AI w codziennym życiu
Dr Berenika Dyczek – doktor nauk społecznych, adiunkt w Instytucie Socjologii Uniwersytetu Wrocławskiego. Naukowo zajmuje się socjologią kultury i sztuki, a przede wszystkim socjologią cyberprzestrzeni i socjoinformatyką. Prowadzi badania nad wpływem sztucznej inteligencji na społeczeństwo. Autorka dwóch monografii i licznych artykułów publikowanych w czasopismach międzynarodowych.
W jak dużym stopniu sztuczna inteligencja oddziałuje dziś na społeczeństwo?
– Z moich badań wynika, że stopniowo tracimy autonomię i podmiotowość na rzecz rosnącej roli sztucznej inteligencji w codziennym życiu. Wpływa to na organizację naszego dnia, który coraz częściej kształtują technologie. „Pamięć ciała” wymusza na nas sprawdzanie telefonu, w którym czeka już gotowy scenariusz: zaplanowane zadania, artykuły do przeczytania czy treści, które będziemy oglądać. Wielu już się nie zastanawia, co będą dzisiaj robić, czytać i myśleć.
Zdecydowanie coraz mniej osób odwiedza strony konkretnych redakcji, żeby czegoś się dowiedzieć. I sprawdza kilka, aby zobiektywizować sobie przekaz.
– Przegląd codziennej prasy staje się reliktem przeszłości. To media społecznościowe – za pomocą precyzyjnie zaprogramowanych algorytmów – decydują, co zostanie nam „podane na tacy”. Inaczej mówiąc, to one dyktują, czym dziś nasycimy umysły. Obecnie mamy do czynienia z zaawansowanymi systemami manipulacji – zwanymi systemami rekomendacyjnymi – które w rzeczywistości sprawują nad nami kontrolę. Jednak utrzymuje się nas w iluzji, że to my mamy władzę. Bo decydujemy, w który artykuł klikniemy. Tymczasem nasze cyfrowe „ja” jest już nakarmione. Moje badania pokazują, że ludzie rzadko analizują ten wpływ sztucznej inteligencji na swoje życie.
Coraz więcej osób korzysta również z czatów GPT. Wydaje się jednak, że mamy małą świadomość tego, jak one działają. Ta technologia wcale nie jest neutralna i bezstronna.
– Przede wszystkim czat GPT wciąż się zmienia, ponieważ ciągle się uczy. Na początku model ten był trenowany na ogromnych ilościach danych pochodzących z różnorodnych źródeł, takich jak teksty z internetu, artykuły czy książki. W pewnym momencie do poprawy jego działania zaczęto wykorzystywać również crowdsourcing. To proces, w którym grupy ludzi oceniają i poprawiają odpowiedzi AI.
Poglądy ludzi z tych grup wpływają więc na „światopogląd” AI?
– Z naukowego punktu widzenia w crowdsourcingu
Post Sztuczna inteligencja nie boi się autorytetów pojawił się poraz pierwszy w Przegląd.