Czy sztuczna inteligencja nas ogłupia?

Czy sztuczna inteligencja nas ogłupia?

Badania przeprowadzone przez naukowców z Microsoftu i Carnegie Mellon University dostarczają interesujących wniosków na temat wpływu sztucznej inteligencji generatywnej na umiejętność krytycznego myślenia w miejscu pracy. W opublikowanym raporcie podkreślono, że niewłaściwe korzystanie z nowoczesnych technologii może prowadzić do osłabienia zdolności poznawczych, co jest szczególnie istotne w kontekście coraz bardziej powszechnej automatyzacji zadań.

Choć badacze nie formułują jednoznacznej tezy, że korzystanie z generatywnej sztucznej inteligencji sprawia, że stajemy się mniej inteligentni, wyniki sugerują, że nadmierne poleganie na technologii może osłabić naszą zdolność do samodzielnego rozwiązywania problemów. W obliczu rosnącej roli AI w miejscu pracy istotne jest, aby użytkownicy pamiętali o rozwijaniu swoich kompetencji poznawczych i nie rezygnowali z aktywnego myślenia na rzecz wygody, jaką daje automatyzacja procesów.

Według badaczy, osoby korzystające z generatywnej sztucznej inteligencji częściej koncentrują się na weryfikacji odpowiedzi dostarczonych przez AI, zamiast samodzielnie analizować, tworzyć i oceniać informacje. Ograniczenie potrzeby angażowania się w procesy decyzyjne sprawia, że użytkownicy tracą okazję do regularnego wzmacniania swoich umiejętności krytycznego myślenia. W efekcie, gdy nadejdzie sytuacja wymagająca samodzielnego rozwiązania problemu, mogą być na nią gorzej przygotowani.

Badanie przeprowadzono na grupie 319 osób wykorzystujących generatywną sztuczną inteligencję w pracy co najmniej raz w tygodniu. Uczestnicy zostali poproszeni o podanie przykładów, w jaki sposób korzystają z AI. Ich odpowiedzi sklasyfikowano w trzech głównych kategoriach: tworzenie treści (np. pisanie ustrukturyzowanych e-maili), zdobywanie informacji (np. badanie tematów i streszczanie długich artykułów) oraz uzyskiwanie porad (np. generowanie wykresów na podstawie danych). W kolejnych etapach uczestnicy określali, czy angażowali się w krytyczne myślenie podczas wykonywania tych zadań oraz czy AI skłaniała ich do mniejszego czy większego wysiłku poznawczego.

Jedynie 36% badanych przyznało, że angażowało krytyczne myślenie w celu minimalizowania ryzyka negatywnych konsekwencji związanych z wykorzystaniem AI. Przykładem jest uczestniczka badania, która użyła ChatGPT do napisania oceny pracowniczej, jednak sprawdziła jej treść ze względu na obawy przed możliwością dostarczenia błędnego dokumentu. Inny uczestnik zauważył, że musi edytować e-maile generowane przez AI przed wysyłką do przełożonego, aby uniknąć nieodpowiedniego tonu wynikającego z różnic kulturowych w hierarchii zawodowej. Niektórzy badani dodatkowo weryfikowali informacje dostarczane przez sztuczną inteligencję, korzystając z niezależnych źródeł, takich jak YouTube i Wikipedia, co często podważało sens automatyzacji tych zadań.

Co ciekawe, badanie wykazało, że im większą pewność uczestnicy mieli w stosunku do sztucznej inteligencji, tym mniej angażowali krytyczne myślenie. Z kolei ci, którzy ufali własnym umiejętnościom, mieli skłonność do dokładniejszej analizy i samodzielnej oceny treści generowanych przez AI.

Aby skutecznie kompensować ograniczenia AI, użytkownicy powinni mieć świadomość jej niedoskonałości. Jednak badanie ujawniło, że nie wszyscy uczestnicy znają ograniczenia technologii, co może prowadzić do nieświadomego polegania na jej błędnych odpowiedziach. Raport wskazuje, że świadomość potencjalnych zagrożeń związanych z niepoprawnymi danymi generowanymi przez AI może skłonić do bardziej krytycznego podejścia, ale tylko wtedy, gdy użytkownik zdaje sobie sprawę z tych zagrożeń.