Watch: AI ożywia ofiarę morderstwa w sądzie w Arizonie, ponieważ rodzina używa awatara podczas rozprawy w sprawie wyroku

W przełomowym momencie amerykańskiego systemu wymiaru sprawiedliwości, rodziny Christopher Pelkey użył sztucznej inteligencji, aby pozwolić mu „mówić” pośmiertnie na wyrok człowieka skazanego za zabicie go podczas 2021 r. Incydent na szale w Arizonie.Pelkey, 37-letni weteran armii amerykańskiej, który odbył trzy wycieczki w Iraku i Afganistanie, został śmiertelnie zastrzelony przez Gabriela Paula Horcasitasa, podczas gdy obaj zostali zatrzymani w czerwonym świetle w Chandler w Arizonie. Zgodnie z wiadomościami CBS, Pelkey szedł w kierunku samochodu Horcasitas, kiedy został postrzelony w klatkę piersiową. W zeszłym tygodniu Horcasitas został skazany na 10,5 lat więzienia za zabójstwo.Podczas wyroku w sądzie odtwarzano prawie czterominutowe wideo generowane przez AI, pokazując Rekreacja cyfrowa z Pelkey dostarczający Oświadczenie o wpływie ofiary. Awatar, utworzony za pomocą jednego zdjęcia i dźwięku z filmu na YouTube, w którym Pelkey omawiał PTSD, powitał sąd zrzeczeniem się: „Jestem wersją Chrisa Pelkeya odtworzoną przez sztuczną inteligencję, która używa mojego zdjęcia i mojego profilu głosowego”.„Szkoda, że w tych okolicznościach napotkaliśmy się w tych okolicznościach. W innym życiu prawdopodobnie moglibyśmy być przyjaciółmi”, powiedział AI Pelkey, według New York Times. „Wierzę w przebaczenie i w Boga, kto wybacza. Zawsze mam i nadal tak”, dodał awatar AI.Film, napisany przez siostrę Pelkeya Stacey Wales, miał na celu odzwierciedlenie jego wybaczającej natury. BBC cytowano ją, mówiąc: „Podeszliśmy do tego z etyką i moralnością, ponieważ jest to potężne narzędzie … jak młot, może budować lub niszczyć. Użyliśmy go do budowy”.Renderowanie AI uderzyło w akord z sędzią Toddem Langiem z Sądu Najwyższego Hrabstwa Maricopa. „Uwielbiałem tę sztuczną inteligencję” – powiedział, cytowany przez BBC News. „I tak zły jak ty, i słusznie zły jak rodzina, usłyszałem przebaczenie. I wiem, że pan Horcasitas to docenił, ale ja też” – dodał Lang.Jednak użycie AI w tak osobistym i emocjonalnym postępowaniu sądowym wywołało pytania wśród ekspertów prawnych. Gary Marchant, profesor prawa i członek komitetu AI w Arizonie, został cytowany przez CBS News, mówiąc, że istnieją obawy, że „dowody głębokie” mogą wpływać na sędziów i ławników przysięgłych. „Łatwo jest stworzyć i każdy może to zrobić przez telefon” – ostrzegł.Pomimo tych obaw, wideo AI zostało dozwolone, ponieważ prawo Arizona zezwala na oświadczenia o wpływie ofiar w dowolnym formacie cyfrowym, wyjaśnił prokurator praw ofiar Jessica Gattuso, zgodnie z agencją prasową AP. Film był również wspierany przez prawie 50 listów przesłanych przez rodzinę i przyjaciół, którzy powtórzyli jego wiadomość.Adwokat Horcasitas, Jason Lamm, złożył odwołanie, sugerując, że sędzia mógł niewłaściwie polegać na wideo AI w wyroku. „Może to jednak być sytuacja, w której po prostu posunęli się za daleko”, cytował Lamm przez New York Times.Podczas gdy awatar AI był używany tylko w fazie wyroku, a nie podczas prób, których było dwa z powodu błędu ujawnienia w pierwszym, incydent spowodował szerszą debatę na temat miejsca AI na sali sądowej. Cynthia Godsoe, profesor Brooklyn Law School, została cytowana przez The Times, mówiąc, że taka technologia może „rozpalić emocje bardziej niż zdjęcia”, ostrzegając sądy, aby ostrożnie stąpali.Ale inni widzą potencjał. Jak zauważyła Maura R. Grossman z grupy zadaniowej AI American Bar Association: „Nie ma jury, na które można wpłynąć nadmiernie wpływ”, a zatem nie uważała jej za „etycznie ani prawnie niepokojące”.