Badanie mówi, że AI ma ludzkie procesy myślowe

Ich uprawnienia wykraczają poza mpersoncję AI.
Sztuczna inteligencja nie tylko wygląda i zachowuje człowieka – podobno myśli też jak my.
Chińscy naukowcy znaleźli pierwszy w historii dowody, że modele AI takie jak informacje Chatgpt przetwarzają podobnie jak ludzki umysł, szczegółowo opisujący odkrycie dystopijne w czasopiśmie „Inteligencja maszynowa natury”.
„Dostarcza to przekonujących dowodów na to, że reprezentacje obiektowe w LLM (duże modele językowe), choć nie są identyczne z ludzkimi, dzielą podstawowe podobieństwa, które odzwierciedlają kluczowe aspekty ludzkiej wiedzy pojęciowej”, napisał zespół stojący za badaniem, który był współpracą między chińską Akademią Nauk i Południowochińskim Uniwersytecie Technologii, a Niezależne zgłoszone.
Zespół podobno chciał sprawdzić, czy modele LLM mogą „opracować reprezentacje obiektów ludzkich z danych językowych i multimodalnych (dane w różnych formach, takich jak tekst, audio itp.)”.
Aby dowiedzieć się, czy „proces botowy” AI odzwierciedla nasze poznanie, naukowcy mieli Chatgpt-3.5 Openai, a Google’s Gemini Pro Vision wykonał serię prób „dziwnych”, w których otrzymali trzy elementy i za zadanie wybrać ten, który nie pasuje, Południowe poranne słupki poinformowały.
Co ciekawe, sztuczna inteligencja stworzyła 66 wymiarów koncepcyjnych do sortowania obiektów.
Po porównaniu tego cybernetycznego sortowania obiektów z analizą ludzkich tych samych obiektów, znaleźli uderzające podobieństwa między „percepcją” modeli a poznaniem człowieka – szczególnie jeśli chodzi o grupowanie języków.
Z tego naukowcy wydedukowali, że nasi psychologiczni doppelgangowie „rozwijają ludzkie koncepcyjne reprezentacje obiektów”.
„Dalsza analiza wykazała silne dostosowanie między osadzaniem modelu a wzorami aktywności nerwowej” w regionie mózgu związanego z rozpoznawanie pamięci i sceny.
Naukowcy zauważyli, że oparte na języku LLM nieco brakowało w odniesieniu do kategoryzacji aspektów wizualnych, takich jak kształt lub właściwości przestrzenne.
Tymczasem badania wykazały, że AI zmaga się z zadaniami wymagającymi głębszego poziomu poznania człowieka, takich jak myślenie analogiczne – porównywanie różnych rzeczy do zakończenia – chociaż nie jest jasne, czy rozumieją znaczenie lub wartość emocjonalną niektórych obiektów.
„Obecna sztuczna inteligencja może rozróżniać zdjęcia kota i psa, ale istotna różnica między tym„ rozpoznawaniem ”a ludzkim„ zrozumieniem ”kotów i psów pozostaje do ujawnienia”, powiedział Huiguang, profesor chińskiej Akademii Nauk (CAS) Institute of Automation.
Niemniej jednak naukowcy mają nadzieję, że te odkrycia pozwolą im rozwinąć „bardziej ludzkie sztuczne systemy poznawcze”, które mogą lepiej współpracować z braciami mięsno-krwinkami.