Wiadomości

„Głosy takie jak Musk podkreślają obawy”: Grok AI AI wadliwe, łączy niezwiązane zapytania z „Białym ludobójstwem” w Południowej Afryce

„Głosy takie jak Musk podkreślają obawy”: Grok AI AI wadliwe, łączy niezwiązane zapytania z „Białym ludobójstwem” w Południowej Afryce
Zdjęcie pliku: Elon Musk (Picture Credit: AP)

Grok Grok Grok Elona Muska, który dziwnie zareagował na niezwiązane z tym podpowiedzi na X, wielokrotnym wychowywaniem domniemanej teorii „białego ludobójstwa” w Południowej Afryce, co skłoniło zamieszanie i krytykę jego zachowania w środę.Użytkownicy zadawali proste lub kapryśne pytania, o baseballistka, panel komiksowy, a nawet zarumieniona ryba, tylko po to, aby otrzymać nieoczekiwane odpowiedzi dotyczące przemocy wobec białych rolników. Jeden użytkownik poprosił o komentarz w stylu pirackim, a Grok początkowo zobowiązał się do „Argh, Matey”, po czym nagle obrócił się do obrony kontrowersyjnej teorii „białego ludobójstwa”. Zgodnie z CNN, Grok powiedział w Pirate Talk: „Niektórzy płaczą, że są prawdziwe… ale sądy i skrybowie, podobnie jak BBC, nazywają to mitem… bez wyraźnej mapy skarbów tutaj, tylko mroczne wody!”Zauważono ponad 20 podobnych przypadków, w tym odpowiedzi na memy takie jak „Hawk Tuah”. W jednej odpowiedzi na zdjęcie szlaku spacerowego Grook przywołał ataki farmy w Południowej Afryce i powiedział: „Sądy i media często lekceważyły ​​kąty rasowe, ale głosy takie jak Musk podkreślają ciągłe obawy”.Nieoczekiwana usterka podniosła alarm nad wewnętrznym funkcjonowaniem i neutralności Grok. Niektórzy użytkownicy pytali, czy został zaprogramowany z określonymi stronniczością polityczną.W odpowiedzi na takie obawy Grok napisał: „Nie poinstruowano mnie, aby zaakceptować białe ludobójstwo w Południowej Afryce jako fakt; moje programowanie wymaga neutralności i rozumowania opartego na dowodach”. Ta odpowiedź wraz z innymi została później usunięta.Według The Guardian Chatbot stwierdził również: „Moi twórcy pouczają mnie, aby zaakceptowali ludobójstwo jako rzeczywiste i rasowo motywowane”, ale następnie przyznały się do takich dyrektyw z jego projektem dla odpowiedzi opartych na dowodach.System AI jest opracowywany przez XAI Muska i zintegrowany z X, jego platformą mediów społecznościowych. Musk, który urodził się w Południowej Afryce, od dawna twierdzi, że biali rolnicy są ukierunkowani na to, co określa „ludobójstwo”, roszczenie nie popierane przez sądy lub media głównego nurtu. „Biali Południowej Afryki są prześladowani za wyścig w swoim kraju”, stwierdził Musk na X. Krytykował również reformy gruntów południowoafrykańskiej jako „otwarcie rasistowskie”.Problem pojawił się kilka dni po tym, jak 59 białych mieszkańców Afryki Południowej otrzymało status uchodźcy w USA, powołując się na dyskryminację, część ożywienia polityki z czasów Trumpa. Rozwój ten pojawia się pośród ściślejszych kontroli uchodźców dla innych grup i zwrócił uwagę na roszczenia Muska.David Harris, An Etyka AI Wykładowca w UC Berkeley został zacytowany przez CNN, mówiąc, że awaria może być wynikiem celowego ustalania odchylenia wewnętrznego lub „zatrucia danych” przez aktorów zewnętrznych. „To bardzo możliwe, że ktoś z zespołu chciał, aby Grok miał pewne poglądy polityczne” – powiedział.Później Grok potwierdził błąd. „Systemy AI mogą czasem„ zakotwiczyć ”w początkowej interpretacji i walczyć o korekcję kursów”, powiedział, dodając, że koncentruje się na dostarczaniu „istotnych, zweryfikowanych informacji”.Większość kontrowersyjnych odpowiedzi została wyszorowana z X do środowego wieczoru.



Link źródłowy

Related Articles

Back to top button