Polecane wiadomości

Elon Musk chce użyć sztucznej inteligencji, aby prowadzić nas, ale eksperci mówią „bardzo zły” pomysł | Elon Musk News

Czy Elon Musk planuje wykorzystać sztuczną inteligencję do prowadzenia rządu USA? To wydaje się być jego plan, ale eksperci twierdzą, że to „bardzo zły pomysł”.

Musk zwolnił dziesiątki tysięcy pracowników rządu federalnego za pośrednictwem swojego Departamentu Rządowego (DOGE) i podobno wymaga od pozostałych pracowników wysyłania działu cotygodniowego e -maila z pięcioma punktami opisującymi to, co osiągnęli w tym tygodniu.

Ponieważ bez wątpienia powodzi psów setkami tysięcy tego rodzaju e -maili, Musk polega na sztucznej inteligencji w celu przetwarzania odpowiedzi i pomoże ustalić, kto powinien pozostać zatrudniony. Podobno częścią tego planu jest również zastąpienie wielu pracowników rządowych systemami AI.

Nie jest jeszcze jasne, jak wygląda którykolwiek z tych systemów AI ani jak działają – coś, co Demokraci w Kongresie Stanów Zjednoczonych domagają się wypełnienia – ale eksperci ostrzegają, że wykorzystanie AI w rządzie federalnym bez solidnych testów i weryfikacji tych narzędzi może mieć katastrofalne konsekwencje.

„Aby odpowiedzialnie korzystać z narzędzi AI, należy je zaprojektować z myślą o określonym celu. Muszą być przetestowane i zatwierdzone. Nie jest jasne, czy coś z tego się tutaj robi ” – mówi Cary Coglianese, profesor prawa i nauk politycznych na University of Pennsylvania.

Coglianese mówi, że jeśli AI jest wykorzystywane do podejmowania decyzji o tym, kto powinien zostać rozwiązany z pracy, byłby „bardzo sceptyczny” z tego podejścia. Mówi, że istnieje bardzo realny potencjał na popełnienie błędów, aby sztuczna inteligencja była stronnicza i innych potencjalnych problemów.

„To bardzo zły pomysł. Nie wiemy nic o tym, jak AI podejmowałaby takie decyzje (w tym sposób, w jaki została wyszkolona i bazowe algorytmy), danych, na których takie decyzje byłyby oparte, lub dlaczego powinniśmy uważać, że jest to godne zaufania ”, mówi Shobita Parthasarathy, profesor polityki publicznej na Uniwersytecie Michigan.

Wydaje się, że te obawy nie powstrzymują obecnego rządu, zwłaszcza z Musk – miliardera biznesmena i bliskiego doradcy prezydenta USA Donalda Trumpa – prowadzącego za te wysiłki.

Na przykład Departament Stanu USA planuje wykorzystać sztuczną inteligencję do skanowania konta w mediach społecznościowych obcych obywateli, aby zidentyfikować każdego, kto może być zwolennikiem Hamas w celu odwołania wizy. Rząd USA do tej pory nie był przejrzysty co do tego, jak mogą działać tego rodzaju systemy.

Niewykryte szkody

„Administracja Trumpa jest naprawdę zainteresowana dążeniem do AI za wszelką cenę i chciałbym zobaczyć uczciwe, sprawiedliwe i sprawiedliwe użycie AI”, mówi Hilke Schellmann, profesor dziennikarstwa na New York University i ekspert od sztucznej inteligencji. „Może być wiele szkód, które pozostaną niewykryte”.

Eksperci AI twierdzą, że istnieje wiele sposobów, w jakie rząd rządowy może się pomylić, dlatego należy je ostrożnie i sumiennie przyjąć. Coglianese twierdzi, że rządy na całym świecie, w tym Holandia i Wielka Brytania, miały problemy ze słabo wykonaną sztuczną inteligencją, które mogą popełniać błędy lub okazywać stronniczość, w wyniku czego bezprawnie odmówiły mieszkańcom korzyści dobrobytu, których potrzebują.

W Stanach Zjednoczonych stan Michigan miał problem z AI, która została wykorzystana do znalezienia oszustwa w systemie bezrobocia, gdy niepoprawnie zidentyfikował tysiące przypadków domniemanego oszustwa. Wiele z tych, którzy odmówiono korzyści, zostało surowych, w tym uderzanie wielu kar i oskarżono o oszustwo. Ludzie zostali aresztowani, a nawet złożeni wniosku o upadłość. Po pięcioletnim okresie państwo przyznało, że system był wadliwy, a rok później ostatecznie zwrot 21 mln USD mieszkańcom niesłusznie oskarżony o oszustwo.

„Przez większość czasu urzędnicy kupujący i wdrażające te technologie niewiele wiedzą o tym, jak działają, ich uprzedzenia i ograniczenia oraz błędy”, mówi Parthasarathy. „Ponieważ społeczności o niskich dochodach i w inny sposób marginalizowane mają najwięcej kontaktu z rządami poprzez usługi społeczne (takie jak świadczenia bezrobocia, opieka zastępcza, organy ścigania), zwykle wpływają na nie problematyczna sztuczna inteligencja”.

AI spowodowało również problemy w rządzie, gdy zostały użyte w sądach w celu ustalenia rzeczy, takich jak czyjąś kwalifikowalność zwolnienia warunkowego lub w departamentach policji, gdy zastosowano do przewidywania, gdzie prawdopodobnie nastąpi przestępstwa.

Schellmann twierdzi, że sztuczna inteligencja stosowana przez departamenty policji jest zazwyczaj szkolona w zakresie danych historycznych od tych działów, co może powodować, że AI zalecają nadpoliczkowe obszary, które od dawna były przepełnione, zwłaszcza społeczności kolorów.

AI nic nie rozumie

Jednym z problemów z potencjalnym użyciem sztucznej inteligencji do zastąpienia pracowników w rządzie federalnym jest to, że w rządzie jest tak wiele różnych rodzajów miejsc pracy, które wymagają określonych umiejętności i wiedzy. Osoba IT w Departamencie Sprawiedliwości może na przykład mieć zupełnie inną pracę niż jeden w Departamencie Rolnictwa, mimo że mają ten sam stanowisko. Dlatego program AI musiałby być złożony i wysoko wyszkoleni, aby nawet wykonywać mierną pracę w zastąpieniu ludzkiego pracownika.

„Nie sądzę, abyś mógł losowo zmniejszyć pracę ludzi, a następnie (zastąpić je dowolną sztuczną inteligencją)”, mówi Coglianese. „Zadania, które wykonywali ci ludzie, są często wysoce wyspecjalizowane i specyficzne”.

Schellmann mówi, że możesz użyć sztucznej inteligencji do wykonywania części czyjejś pracy, która może być przewidywalna lub powtarzalna, ale nie możesz po prostu kogoś zastąpić. Byłoby to teoretycznie możliwe, gdybyś spędził lata na opracowywaniu odpowiednich narzędzi AI, aby wykonywać wiele różnych rodzajów pracy – bardzo trudne zadanie, a nie to, co wydaje się obecnie robić.

„Ci pracownicy mają prawdziwą wiedzę i dopracowane zrozumienie problemów, których AI nie. AI w rzeczywistości „nic nie rozumie”, mówi Parthasarathy. „To zastosowanie metod obliczeniowych w celu znalezienia wzorców opartych na danych historycznych. I tak może mieć ograniczoną użyteczność, a nawet wzmocni historyczne uprzedzenia. ”

Administracja byłego prezydenta USA Joe Biden wydany Zakon wykonawczy w 2023 r. Skoncentrował się na odpowiedzialnym wykorzystaniu sztucznej inteligencji w rządzie oraz o tym, jak AI zostanie przetestowane i weryfikowane, ale to zamówienie zostało uchylone przez administrację Trumpa w styczniu. Schellmann twierdzi, że mniej prawdopodobne jest, że sztuczna inteligencja będzie wykorzystywana odpowiedzialnie w rządzie lub że naukowcy będą w stanie zrozumieć, w jaki sposób wykorzystuje się AI.

Wszystko to powiedziawszy, jeśli AI zostanie opracowane odpowiedzialnie, może to być bardzo pomocne. AI może automatyzować powtarzające się zadania, aby pracownicy mogli skupić się na ważniejszych rzeczach lub pomóc pracownikom w rozwiązywaniu problemów, z którymi się zmagają. Ale trzeba mieć czas na rozmieszczenie we właściwy sposób.

„Nie oznacza to, że nie mogliśmy mądrze używać narzędzi AI”, mówi Coglianese. „Ale rządy zbłądzą, gdy próbują szybko się spieszyć i robić rzeczy bez odpowiedniego wkładu publicznego oraz dokładnej walidacji i weryfikacji, w jaki sposób algorytm faktycznie działa”.

Link źródłowy

Related Articles

Back to top button