świat

Czego AI nie może przeczytać: niejednoznaczności i cisza (opinia)

Rok temu widziałem sztuczną inteligencję jako skrót, aby uniknąć głębokiego myślenia. Teraz używam go do nauczania myślenia.

Podobnie jak wielu nauczycieli, początkowo postrzegałem sztuczną inteligencję jako zagrożenie – łatwą ucieczkę od rygorystycznej analizy. Ale zakazanie AI stało się przegrana bitwa. W tym semestrze przyjąłem inne podejście: wprowadziłem je do mojej klasy, nie jako kula, ale jako przedmiot studiów. Wyniki mnie zaskoczyły.

Po raz pierwszy tej wiosny moi uczniowie nie tylko używają sztucznej inteligencji – zastanawiają się nad tym. AI nie jest po prostu narzędziem; Jest to lustro, odsłaniające uprzedzenia, ujawniające luki w wiedzy i przekształcanie instynktów interpretacyjnych uczniów. W ten sam sposób rzeka rzeźbia przez kamień – nie siłą, ale przez wytrwałość – to celowe zaangażowanie w AI zaczęło zmieniać sposób, w jaki uczniowie zbliżają się do analizy, niuansu i złożoności.

Zamiast udzielać studentów pasywnych konsumentów informacji, sztuczna inteligencja – kiedy krytycznie zaangażowała się – czyni narzędzie do wyostrzenia umiejętności analitycznych. Zamiast po prostu tworzyć odpowiedzi, wywołuje nowe pytania. Ukazuje uprzedzenia, zmusza uczniów do ponownego rozważenia założeń i ostatecznie wzmacnia ich zdolność do głębokiego myślenia.

Jednak zbyt często uniwersytety koncentrują się na kontrolowaniu sztucznej inteligencji, a nie na zrozumieniu. Zasady wokół sztucznej inteligencji w szkolnictwie wyższym często domyślnie wykrywanie i egzekwowanie, traktując technologię jako problem, który ma być zawarty. Ale to kadrowanie nie ma sensu. Pytanie z 2025 r. Nie dotyczy tego, czy użyć sztucznej inteligencji, ale Jak używać go w sposób pogłębiony, a nie rozcieńczający, uczenie się.

AI jako narzędzie do głębokiego zaangażowania

W tym semestrze poprosiłem uczniów o użycie sztucznej inteligencji w moim seminarium na temat zeznań ocalałych z Holokaustu. Na pierwszy rzut oka użycie sztucznej inteligencji do analizy tych głęboko ludzkich narracji wydaje się sprzeczne – najbardziej lekceważące. Świadectwo ocalałych opiera się spójności. Jest kształtowany przez ciszę, sprzeczności i prawdy emocjonalne, które przeciwstawiają się kategoryzacji. W jaki sposób sztuczna inteligencja może przeszkolić prawdopodobieństwa i wzorce zaangażować się w historie ukształtowane przez traumę, stratę i kruchość pamięci?

A jednak właśnie dlatego uczyniłem AI centralnym elementem kursu – nie jako skrót do zrozumienia, ale jako wyzwanie. Każdego tygodnia moi uczniowie używają sztucznej inteligencji do transkrypcji, podsumowania i identyfikacji wzorców w zeznaniach. Ale zamiast traktować odpowiedzi AI jako autorytatywne, przesłuchują je. Widzą, w jaki sposób AI potyka się o niespójności, jak błędnie odczyta wahanie jako pominięcie, jak opiera się fragmentacji, która określa relacje, które przeżyły. A obserwując ten opór, dzieje się coś nieoczekiwanego: uczniowie rozwijają głębszą świadomość tego, co to znaczy słuchać, interpretować, być świadkiem.

Eleganckie wyjścia AI ukrywają głębszy problem: nie jest neutralny. Jego odpowiedzi są kształtowane przez uprzedzenia osadzone w danych szkoleniowych oraz przez nieustępliwe dążenie do spójności – nawet kosztem dokładności. Algorytm przyciągnie niespójności w zeznaniach, nie dlatego, że są one nieistotne, ale dlatego, że ma on priorytetowe rozwój płynności nad sprzecznością, jasność nad niejednoznacznością. Ale zeznania to dwuznaczność. Pamięć rozwija się na sprzeczności. Jeśli pozostanie niezaznaczona, tendencja AI do wygładzania szorstkich krawędzi ryzykuje dokładnie, co sprawia, że ​​narracje ocalałych jest tak potężne: ich surowość, ich wahania, odmowa dostosowania się do czystej, strawnej wersji historii.

Dla nauczycieli pytanie nie dotyczy nie tylko sposobu używania sztucznej inteligencji, ale jak oprzeć się jej uwodzicielskim. Jak zapewniamy, że uczniowie badają AI, a nie akceptować jej wyniki za wartość nominalną? Jak uczymy ich używania sztucznej inteligencji jako soczewki, a nie kuli? Odpowiedź polega na uczynieniu samej sztucznej inteligencji przedmiotu dochodzenia – poprawiając uczniów do zbadania jego niepowodzeń, zakwestionowania jego pewnych błędnych przeczytania. AI nie zastępuje krytycznego myślenia; Wymaga tego.

AI jako tarcie produktywne

Jeśli AI zniekształca się, błędnie interpretuje i przekracza, po co w ogóle go używać? Łatwą odpowiedzią byłoby odrzucenie go – zablokowanie go z klasy, traktowanie go jako zanieczyszczenia, a nie narzędzia. Ale to byłby błąd. AI jest tutaj, aby zostać, a szkolnictwo wyższe ma wybór: albo zostaw uczniów, aby samodzielnie poruszają się w ich ograniczeniach, albo uczynić te ograniczenia w ich wykształceniu.

Zamiast traktować wady AI jako powód wykluczenia, postrzegam je jako możliwości. W mojej klasie odpowiedzi wygenerowane przez AI nie są ostatecznymi odpowiedziami, ale przedmiotami krytyki-impertyzujące, tymczasowe i otwarte na wyzwanie. Krytycznie angażując się z AI, uczniowie uczą się nie tylko z tego, ale o tym. Widzą, w jaki sposób AI zmaga się z dwuznacznością, w jaki sposób jej podsumowania mogą być redukcyjne, jak jego pewność często przekracza jego dokładność. Czyniąc to, wyostrzają umiejętności AI: sceptycyzm, interpretacja i zdolność do kwestionowania otrzymania wiedzy.

Takie podejście jest zgodne z obserwacją Marca Watkinsa, że ​​„Uczenie się wymaga tarcia. ” AI może być siłą produktywnego tarcia w klasie.

Nauczanie historii – a zwłaszcza historii ludobójstwa i przemocy masowej – często czuje się jak stać na progu: jedna stopa posadzona w przeszłości, a druga wchodzi w niepewną przyszłość. W tej przestrzeni AI nie zastępuje aktu interpretacji; zmusza nas do zapytania, co to znaczy przenieść pamięć do przodu.

Używane w zamyśleniu AI nie erozi dochodzenie intelektualne – pogłębia je. Jeśli jest mądrze zaangażowany, wyostrza się – a nie zastępuje – same umiejętności, które czyni nas ludźmi.

Jan Burrzlaff jest postoktoranckim współpracownikiem w programie studiów żydowskich na Cornell University.

Link źródłowy

Related Articles

Back to top button