Styl życia

Badanie mówi, że AI ma ludzkie procesy myślowe

Ich uprawnienia wykraczają poza mpersoncję AI.

Sztuczna inteligencja nie tylko wygląda i zachowuje człowieka – podobno myśli też jak my.

Chińscy naukowcy znaleźli pierwszy w historii dowody, że modele AI takie jak informacje Chatgpt przetwarzają podobnie jak ludzki umysł, szczegółowo opisujący odkrycie dystopijne w czasopiśmie „Inteligencja maszynowa natury”.

„Dostarcza to przekonujących dowodów na to, że reprezentacje obiektowe w LLM (duże modele językowe), choć nie są identyczne z ludzkimi, dzielą podstawowe podobieństwa, które odzwierciedlają kluczowe aspekty ludzkiej wiedzy pojęciowej”, napisał zespół stojący za badaniem, który był współpracą między chińską Akademią Nauk i Południowochińskim Uniwersytecie Technologii, a Niezależne zgłoszone.

Modele AI wykazywały niezwykłe moce kategoryzacji. Malambo C/Peopleimages.com – stock.adobe.com

Zespół podobno chciał sprawdzić, czy modele LLM mogą „opracować reprezentacje obiektów ludzkich z danych językowych i multimodalnych (dane w różnych formach, takich jak tekst, audio itp.)”.

Przed badaniem wielu ekspertów technologicznych po prostu założyło, że modele językowe, takie jak Chatgpt naśladowały ludzkie reakcje poprzez rozpoznawanie wzorców. Alexphotostock – stock.adobe.com

Aby dowiedzieć się, czy „proces botowy” AI odzwierciedla nasze poznanie, naukowcy mieli Chatgpt-3.5 Openai, a Google’s Gemini Pro Vision wykonał serię prób „dziwnych”, w których otrzymali trzy elementy i za zadanie wybrać ten, który nie pasuje, Południowe poranne słupki poinformowały.

Naukowcy nie są pewni, czy AI rozumie znaczenie lub wartość emocjonalną kotów i innych bytów na poziomie ludzkim. Antonkhrupinart – stock.adobe.com

Co ciekawe, sztuczna inteligencja stworzyła 66 wymiarów koncepcyjnych do sortowania obiektów.

Po porównaniu tego cybernetycznego sortowania obiektów z analizą ludzkich tych samych obiektów, znaleźli uderzające podobieństwa między „percepcją” modeli a poznaniem człowieka – szczególnie jeśli chodzi o grupowanie języków.

Z tego naukowcy wydedukowali, że nasi psychologiczni doppelgangowie „rozwijają ludzkie koncepcyjne reprezentacje obiektów”.

„Dalsza analiza wykazała silne dostosowanie między osadzaniem modelu a wzorami aktywności nerwowej” w regionie mózgu związanego z rozpoznawanie pamięci i sceny.

Naukowcy zauważyli, że oparte na języku LLM nieco brakowało w odniesieniu do kategoryzacji aspektów wizualnych, takich jak kształt lub właściwości przestrzenne.

Tymczasem badania wykazały, że AI zmaga się z zadaniami wymagającymi głębszego poziomu poznania człowieka, takich jak myślenie analogiczne – porównywanie różnych rzeczy do zakończenia – chociaż nie jest jasne, czy rozumieją znaczenie lub wartość emocjonalną niektórych obiektów.

„Obecna sztuczna inteligencja może rozróżniać zdjęcia kota i psa, ale istotna różnica między tym„ rozpoznawaniem ”a ludzkim„ zrozumieniem ”kotów i psów pozostaje do ujawnienia”, powiedział Huiguang, profesor chińskiej Akademii Nauk (CAS) Institute of Automation.

Niemniej jednak naukowcy mają nadzieję, że te odkrycia pozwolą im rozwinąć „bardziej ludzkie sztuczne systemy poznawcze”, które mogą lepiej współpracować z braciami mięsno-krwinkami.

Link źródłowy

Related Articles

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Back to top button