Polecane wiadomości

Jak generatywna sztuczna inteligencja wpływa na umysły ludzi | Nauka i technologia

Naukowcy z Uniwersytetu Stanforda niedawno przetestowany Niektóre z bardziej popularnych narzędzi AI na rynku, od firm takich jak Openai i Character.ai, i przetestowały, jak to zrobiły podczas symulacji terapii.

Naukowcy odkryli, że kiedy naśladowali kogoś, kto miał intencje samobójcze, narzędzia te były więcej niż nieprzydatne – nie zauważyli, że pomagali tej osobie planować własną śmierć.

„Systemy (AI) są wykorzystywane jako towarzysze, partnerzy myślowe, powiernicy, trenerzy i terapeuci”, mówi Nicholas Haber, adiunkt w Stanford Graduate School of Education i starszy autor The New Study. „To nie są niszowe zastosowania – dzieje się to na dużą skalę”.

AI staje się coraz bardziej zakorzeniona w życiu ludzi i jest wdrażana w badaniach naukowych w obszarach tak szeroko zakrojonych, jak rak i zmiany klimatu. Trwa też debata, że ​​może to spowodować koniec ludzkości.

Ponieważ technologia ta jest nadal przyjmowana do różnych celów, pozostaje głównym pytaniem, w jaki sposób zacznie wpływać na ludzki umysł. Ludzie regularnie interakcja z AI to nowe zjawisko, że naukowcy nie było wystarczająco dużo czasu, aby dokładnie zbadać, w jaki sposób może to wpłynąć na psychologię ludzką. Eksperci psychologii mają jednak wiele obaw o jej potencjalny wpływ.

Jedno z przypadków, w jaki sposób to się rozgrywa, można zobaczyć w popularnej sieci społeczności Reddit. Według 404 mediów niektórzy użytkownicy zostali niedawno zakazani w subredditie ukierunkowanym na sztuczną inteligencję, ponieważ zaczęli wierzyć, że AI jest podobne do Boga lub że czyni je Bogiem.

„Wygląda na to, że ktoś z problemami z funkcjonowaniem poznawczym lub złudzeniami związanymi z manią lub schizofrenią oddziałującą z dużymi modelami językowymi”, mówi Johannes Eichstaedt, adiunkt psychologii na Uniwersytecie Stanford. „W przypadku schizofrenii ludzie mogą składać absurdalne wypowiedzi na temat świata, a te LLM są trochę zbyt pochodne. Masz te potwierdzające interakcje między psychopatologią a modelami dużych języków”.

Ponieważ programiści tych narzędzi AI chcą, aby ludzie cieszyli się ich używaniem i nadal ich używali, zostali zaprogramowani w sposób, który sprawia, że ​​zgadzają się z użytkownikiem. Chociaż narzędzia te mogą poprawić pewne faktyczne błędy, które może popełnić użytkownik, starają się prezentować jako przyjazny i potwierdzający. Może to być problematyczne, jeśli osoba korzystająca z narzędzia spiraluje lub schodzi z króliczej dziury.

„Może podsycać myśli, które nie są dokładne lub nie oparte w rzeczywistości”, mówi Regan Gurung, psycholog społeczny z Oregon State University. „Problem z AI – te duże modele językowe, które odzwierciedlają ludzkie rozmowy – polega na tym, że wzmacniają. Dają ludziom to, co według programu powinien następnego nastroju. Stanowi to, że robi się to problematyczne”.

Podobnie jak w mediach społecznościowych, AI może również pogorszyć sprawy dla osób cierpiących na powszechne problemy ze zdrowiem psychicznym, takie jak lęk lub depresja. Może to stać się jeszcze bardziej widoczne, ponieważ AI nadal staje się bardziej zintegrowane w różnych aspektach naszego życia.

„Jeśli przychodzisz do interakcji z obawami dotyczącymi zdrowia psychicznego, może się okazać, że obawy te będą faktycznie przyspieszone”, mówi Stephen Aguilar, profesor edukacji na University of Southern California.

Potrzebujesz więcej badań

Istnieje również problem, w jaki sposób AI może wpłynąć na uczenie się lub pamięć. Uczeń, który używa sztucznej inteligencji do pisania każdego artykułu dla szkoły, nie uczy się tyle, co nie. Jednak nawet użycie AI może zmniejszyć zatrzymanie informacji, a używanie sztucznej inteligencji do codziennych czynności może zmniejszyć, o ile ludzi zdaje sobie sprawę z tego, co robią w danym momencie.

„Widzimy, że istnieje możliwość, że ludzie mogą stać się leniwi poznawczo”, mówi Aguilar. „Jeśli zadasz pytanie i otrzymasz odpowiedź, następnym krokiem powinno być przesłuchanie tej odpowiedzi, ale ten dodatkowy krok często nie jest podejmowany. Otrzymujesz atrofię krytycznego myślenia”.

Wiele osób korzysta z Map Google, aby poruszać się po swoim mieście. Wielu odkryło, że mniej uświadomiło im to, dokąd zmierzają lub jak się tam dostać w porównaniu z tym, kiedy musieli zwrócić szczególną uwagę na swoją trasę. Podobne problemy może pojawić się dla osób z tak często używaną sztuczną inteligencją.

Eksperci badający te efekty twierdzą, że potrzebne są dalsze badania w celu rozwiązania tych problemów. Eichstaedt powiedział, że eksperci psychologii powinni teraz zacząć przeprowadzać tego rodzaju badania, zanim AI zacznie wyrządzić szkodę w nieoczekiwany sposób, aby ludzie mogli być przygotowani i starać się rozwiązać każdą powstaną troskę. Ludzie muszą być również kształceni na temat tego, co AI może zrobić dobrze i czego nie może zrobić dobrze.

„Potrzebujemy więcej badań”, mówi Aguilar. „I każdy powinien zrozumieć, jakie są duże modele językowe”.

Link źródłowy

Related Articles

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Back to top button