Mamy już ramy etyczne AI (opinia)

Po raz trzeci w mojej karierze jako bibliotekarza akademickiego stoimy w obliczu rewolucji cyfrowej, która radykalnie i szybko przekształca nasz ekosystem informacyjny. Pierwszy miał miejsce, gdy Internet stał się szeroko dostępny dzięki przeglądarkom. Drugim było pojawienie się Web 2.0 z mediami mobilnymi i społecznościowymi. Trzeci – i obecny – wynika z rosnącej wszechobecności sztucznej inteligencji, zwłaszcza generatywnej sztucznej inteligencji.
Po raz kolejny słyszę połączenie myślenia opartego na strachu obok retoryki nieuchronności i łapania skierowanych do tych krytyków, którzy są przedstawiani jako „odporni na zmiany” przez zwolenników AI. Chciałbym usłyszeć więcej głosów opowiadających się za korzyściami z konkretnych zastosowań AI wraz z wyraźnym uznaniem ryzyka AI w określonych okolicznościach i naciskiem na ograniczenie ryzyka. Naukowcy powinni podejść do AI jako narzędzia do określonych interwencji, a następnie ocenić etykę tych interwencji.
Ostrożność jest uzasadniona. Ciężar budowania zaufania powinien dotyczyć programistów i korporacji AI. Podczas gdy Web 2.0 dostarczył obietnicę bardziej interaktywnego, współpracy w sieci, która koncentrowała się na treści generowanych przez użytkowników, spełnienie tej obietnicy nie było pozbawione kosztów społecznych.
Z perspektywy czasu Web 2.0 prawdopodobnie nie spełnia podstawowego standardu dobroczynności. Jest to zaangażowane w globalny wzrost autorytaryzmu, podważając prawdę jako wartość, promując zarówno polaryzację, jak i ekstremizm, w poniżaniu jakości naszej uwagi i myślenia, w rosnącym i poważnym kryzysie zdrowia psychicznego oraz w rozpowszechnianiu epidemii samotności. Sektor technologii informatycznych zyskał nasz głęboki sceptycyzm. Powinniśmy zrobić wszystko, co w naszej mocy, aby uczyć się na błędach naszej przeszłości i robić, co w naszej mocy, aby zapobiec podobnym wynikom w przyszłości.
Musimy opracować ramy etyczne do oceny wykorzystania nowych technologii informatycznych – a zwłaszcza sztucznej inteligencji – które mogą kierować osobami i instytucjami, które rozważają zatrudnienie, promowanie i licencjonowanie tych narzędzi do różnych funkcji. Istnieją dwa główne czynniki dotyczące AI, które komplikują analizę etyczną. Pierwszym z nich jest to, że interakcja z AI często trwa po początkowej transakcji użytkownika-AI; Informacje z tej transakcji mogą stać się częścią zestawu szkoleniowego systemu. Po drugie, często istnieje znaczący brak przejrzystości w zakresie tego, co robi model AI pod powierzchnią, co utrudnia ocenę. Powinniśmy żądać jak największej przejrzystości od dostawców narzędzi.
Academia ma już uzgodniony zestaw zasad etycznych i procesów oceny potencjalnych interwencji. Zasady w „Raport Belmont: zasady etyczne i wytyczne dotyczące ochrony ludzi badawczych„Reguluj nasze podejście do badań z ludźmi i można je owocnie zastosować, jeśli myślimy o potencjalnych zastosowaniach AI jako interwencji. Zasady te nie tylko przynoszą korzyści akademickiemu w dokonywaniu ocen stosowania sztucznej inteligencji, ale także stanowią ramy dla programistów technologii myślenia o ich wymaganiach dotyczących projektowania.
Raport Belmont wyraża trzy podstawowe zasady etyczne:
- Szacunek dla osób
- Dobroczynność
- Sprawiedliwość
„Szacunek dla osób”, który został przetłumaczony Kod USA i praktykowane przez IRBS ma kilka aspektów, w tym autonomię, świadomą zgodę i prywatność. Autonomia oznacza, że jednostki powinny mieć moc kontrolowania swojego zaangażowania i nie powinna być zmuszana do zaangażowania. Świadoma zgoda wymaga, aby ludzie mieli jasne informacje, aby rozumieli, na co się zgadzają. Prywatność oznacza, że osoba powinna mieć kontrolę i wybór, w jaki sposób ich dane osobowe są gromadzone, przechowywane, wykorzystywane i udostępniane.
Poniżej znajdują się pytania, które możemy zadać, aby ocenić, czy konkretna interwencja AI honoruje autonomię.
- Czy dla użytkowników jest oczywiste, że wchodzą w interakcje z AI? Staje się to coraz ważniejsze, ponieważ AI jest zintegrowana z innymi narzędziami.
- Czy to oczywiste, kiedy AI wygenerowało coś?
- Czy użytkownicy mogą kontrolować sposób, w jaki ich informacje są zbierane przez sztuczną inteligencję, czy też jedyna opcja, aby nie korzystać z narzędzia?
- Czy użytkownicy mogą uzyskać dostęp do niezbędnych usług bez angażowania się z AI? Jeśli nie, może to być przymusowe.
- Czy użytkownicy mogą kontrolować, w jaki sposób wytwarzają informacje, które są wykorzystywane przez AI? Obejmuje to, czy ich treść jest używana do szkolenia modeli AI.
- Czy istnieje ryzyko nadmiernego polegania, zwłaszcza jeśli istnieją elementy projektowe, które zachęcają do zależności psychicznej? Z edukacyjnego punktu widzenia korzystanie z narzędzia AI do określonego celu, które może uniemożliwić użytkownikom uczenie się umiejętności podstawowych, aby stali się zależni od modelu?
W odniesieniu do świadomej zgody, czy informacje o tym, co model robi zarówno wystarczające, jak i w formie, że osoba, która nie jest prawnikiem, ani programistą technologii, może zrozumieć? Konieczne jest, aby użytkownicy otrzymywali informacje o tym, jakie dane będą gromadzone, z których źródeł i co stanie się z tymi danymi.
Naruszenie prywatności ma miejsce, gdy czyjeś dane osobowe zostaną ujawnione lub wykorzystywane w niezamierzony sposób, albo gdy informacje sądzone są prawidłowo wywnioskowane. Gdy istnieje wystarczająca ilość danych i siły obliczeniowej, ponowna identyfikacja badań jest niebezpieczeństwem. Biorąc pod uwagę, że „de-identyfikacja danych” jest jedną z najczęstszych strategii łagodzenia ryzyka w badaniach ludzi, a coraz większy nacisk kładziony jest na publikowanie zestawów danych w celu odtwarzalności badań, jest to obszar etyczny troski, która wymaga uwagi. Prywatność podkreśla, że osoby powinny mieć kontrolę nad swoimi prywatnymi informacjami, ale sposób, w jaki wykorzystane są informacje prywatne, należy również oceniać w odniesieniu do drugiej głównej zasady – funkcji.
Korzystość jest ogólną zasadą, która mówi, że korzyści powinny przeważać nad ryzykiem szkody i że ryzyko powinno być w jak największym stopniu ograniczyć ryzyko. Korzystość należy oceniać na wielu poziomach – zarówno jednostki, jak i systemowe. Zasada dobroczynności wymaga szczególnie uważnej uwagi na osoby bezbronne, ponieważ brakuje im pełnej autonomii, takich jak nieletni.
Nawet przy podejmowaniu osobistych decyzji musimy pomyśleć o potencjalnych szkodach systemowych. Na przykład niektórzy dostawcy oferują narzędzia, które pozwalają badaczom na udostępnianie swoich danych osobowych w celu wygenerowania wysoce spersonalizowanych wyników wyszukiwania – o wydajności badań. Gdy narzędzie buduje obraz badacza, prawdopodobnie będzie ono nadal udoskonalało wyniki w celu nie pokazania rzeczy, które nie są uważane za przydatne dla badacza. Może to przynieść korzyści indywidualnemu badaczowi. Jednak na poziomie systemowym, jeśli takie praktyki staną się wszechobecne, czy granice między różnymi dyskursami stwardnienia? Czy naukowcy wykonujący podobne stypendium będą okazywać coraz bardziej wąski pogląd na świat, koncentrując się na badaniach i perspektywach podobnych do siebie, podczas gdy naukowcy w innym dyskursie są wykazywane osobnym spojrzeniem na świat? Jeśli tak, to czy zabezpieczy to interdyscyplinarne lub radykalnie nowatorskie badania, czy zaostrzenie uprzedzeń potwierdzających dyscyplinę? Czy takie ryzyko można ograniczyć? Musimy rozwinąć zwyczaj myślenia o potencjalnych skutkach wykraczających poza jednostkę, aby stworzyć łagodzenie.
Istnieje wiele potencjalnych korzyści dla niektórych zastosowań AI. Istnieją rzeczywiste możliwości, że może szybko rozwijać medycynę i naukę – na przykład, na przykład oszałamiające sukcesy bazy danych struktury białek Alphafold. Istnieją odpowiednie możliwości szybkiego postępu w technologii, które mogą służyć wspólne dobro, w tym w naszym Walcz z kryzysem klimatycznym. Potencjalne korzyści są transformacyjne, a dobre ramy etyczne powinny ich zachęcać. Zasada dobroczynności nie wymaga, aby nie było ryzyka, ale powinniśmy zidentyfikować zastosowania, w których korzyści są znaczące i że łagodzimy ryzyko, zarówno indywidualne, jak i systemowe. Ryzyko można zminimalizować, ulepszając narzędzia, takie jak prace, aby zapobiec ich halucynacji, propagowaniu toksycznego lub wprowadzającego w błąd treści lub dostarczaniu niewłaściwych porad.
Pytania dotyczące dobroczynności wymagają również uwagi na wpływ generatywnych modeli AI. Ponieważ modele wymagają ogromnej energii obliczeniowej, a zatem energia elektryczna, wykorzystanie ich opodatkowania naszej zbiorowej infrastruktury i przyczynia się do zanieczyszczenia. Analizując szczególne zastosowanie poprzez etyczną soczewkę dobroczynności, powinniśmy zapytać, czy proponowane zastosowanie zapewnia wystarczającą korzyść, aby uzasadnić szkodę środowiskową. Zastosowanie sztucznej inteligencji do trywialnych celów prawdopodobnie nie udaje się testowi na dobro.
Zasada sprawiedliwości wymaga, aby ludzie i populacje, które ponoszą ryzyko, również otrzymały świadczenia. W przypadku sztucznej inteligencji istnieją znaczące obawy dotyczące kapitału własnego. Na przykład generatywne sztuczna inteligencja może być przeszkolona na podstawie danych, które obejmują nasze uprzedzenia, zarówno obecne, jak i historyczne. Modele muszą być rygorystycznie przetestowane, aby sprawdzić, czy tworzą uprzywilejowane lub wprowadzające w błąd treści. Podobnie narzędzia AI powinny być ściśle przesłuchiwane, aby zapewnić, że nie działają lepiej dla niektórych grup niż dla innych. Nierówności wpływają na obliczenia dobroczynności i, w zależności od stawek przypadków użycia, mogą sprawić, że użycie nie jest nieetyczne.
Innym wynagrodzeniem w związku z zasadą sprawiedliwości i AI jest kwestia uczciwego odszkodowania i przypisania. Ważne jest, aby AI nie podważało twórczych gospodarek. Ponadto uczeni są ważnymi producentami treści, a akademicką monetą królestwa są cytaty. Twórcy treści mają prawo oczekiwać, że ich praca zostanie wykorzystana z uczciwością, zostaną cytowane i że zostaną odpowiednio wynagrodzeni. W ramach autonomii twórcy treści powinni być również w stanie kontrolować, czy ich materiał jest używany w zestawie szkoleniowym, a przynajmniej powinno być częścią negocjacji autorów. Podobnie zastosowanie narzędzi AI w badaniach powinno być cytowane w produkcie naukowym; Musimy opracować standardy dotyczące tego, co należy uwzględnić w sekcjach i cytowaniach metodologii, a być może wtedy, gdy model AI należy przyznać status współautorskiego.
Uważam, że zasady przedstawione powyżej z raportu Belmont są wystarczająco elastyczne, aby umożliwić dalsze i szybkie osiągnięcia w terenie. Academia ma długą historię wykorzystywania ich jako wskazówek do dokonywania ocen etycznych. Dają nam wspólny fundament, z którego możemy etycznie promować wykorzystanie sztucznej inteligencji, aby przynieść świat, jednocześnie unikając rodzajów szkód, które mogą zatruć tę obietnicę.