CZY SZTUCZNA INTELIGENCJA ZNAJDZIE SWOJE MIEJSCE W PAMIĘCI
O HOLOKAUŚCIE W PRZYSZŁOŚCI?
„To, co musicie zrozumieć, jeśli chodzi o sztuczną inteligencję (AI) i pamięć o Holokauście, to to, że są one ze sobą powiązane zaufaniem i zrozumieniem” – powiedział przewodniczący IHRA, Lord Eric Pickles, podczas otwarcia konferencji brytyjskiej prezydencji IHRA na temat AI.
IHRA
„Nie ufamy AI, a AI nas nie rozumie”
Publiczność się roześmiała, jednak w tym żarcie kryła się również prawda. Konferencja na temat AI w sektorze edukacji, pamięci
i badań nad Holokaustem, która odbyła się
w Londynie 1 grudnia 2024 r., zgromadziła ekspertów z zakresu badań nad mediami, socjologii i badań nad Holokaustem, aby mogli wspólnie wyjaśnić ten żart oraz zbadać wyzwania i możliwości, jakie AI stwarza dla pamięci o Holokauście na przyszłość.
Strach: deepfake’i, dezinformacja i chatboty
Dr Victoria Grace Richardson-Walden
z Landecker Digital Memory Lab rozpoczęła sesję, zachęcając uczestników do wystrzegania się szumu wokół AI. Przedstawiła różne rodzaje AI, które już są wplecione w nasze codzienne życie; od rekomendacji Netflixa po SatNav i filtr antyspamowy w poczcie e-mail i podkreśliła, że technologia ta może być wykorzystywana zarówno w pozytywny, jak i negatywny sposób.
Danny Morris z Community Security Trust podzielił się informacjami
o zabezpieczeniach, które zostały wprowadzone, aby zapobiec wykorzystywaniu AI do generowania niedokładnych lub obraźliwych materiałów związanych z Holokaustem. Wyjaśnił również, w jaki sposób podmioty używają wskazówek opisowych, aby ominąć funkcje bezpieczeństwa. Morris podkreślił, że antysemityzm nie jest nowym zjawiskiem, ale że AI zapewnia nowe sposoby wyrażania nienawiści. Publiczność zamarła z wrażenia, oglądając wygenerowany przez AI film oparty na „Mein Kampf”, przykłady rozmów chatbotów z nazistowskimi sprawcami
i zdjęcia młodego Adolfa Hitlera obejmującego ramieniem Annę Frank.
Noah Kravitz, twórca podcastu NVIDIA AI, podkreślił również niebezpieczeństwo dezinformacji i stwierdził, że „AI ma potencjał, aby wzmocnić i przekształcić wszystko, co robią ludzie. Nie jesteśmy
w stanie złagodzić wszystkich szkód. Złe podmioty zawsze będą szukać sposobów na obejście zabezpieczeń”.
Zwracając się ku bardziej technicznym zagrożeniom, dr Richardson-Walden wyjaśnił, że AI może czerpać tylko z informacji, na których została wyszkolona. Oznacza to, że jeśli modele AI mają dostęp tylko do niedokładnych źródeł lub ograniczonych narracji, będą generować wadliwe wyniki lub odtwarzać te same dobrze znane historie lub fakty w kółko. Te pętle informacyjne wzmacniają niektóre narracje, jednocześnie osłabiając zakres i głębię historii Holokaustu. Masowa digitalizacja zapisów i ich integracja z systemami AI może w pewnym stopniu chronić zapisy dotyczące Holokaustu przed ich usunięciem lub zniekształceniem.
Podczas dyskusji panelowej moderowanej przez delegata IHRA, Martina Winstone'a, omawiano również obawy dotyczące nieetycznych praktyk komercyjnych firm AI, które wykorzystują nisko płatną pracę fizyczną do tagowania i moderowania treści,
a także te dotyczące wpływu AI na środowisko.
Ale prezentowano również historie dające nadzieję. Dr Yael Richler Friedman, dyrektor pedagogiczny Międzynarodowego Instytutu Edukacji o Holokauście Yad Vashem, wyjaśniła, w jaki sposób AI pomogła Yad Vashem zidentyfikować nazwiska ponad 400 wcześniej nieznanych ofiar Holokaustu. Opowiedziała też anegdotę o tym, jak AI pomyliła bardzo powszechne słowo „li” – które oznacza „ja” po hebrajsku –
z nazwiskiem, wyciągając wniosek, że były setki dodatkowych ofiar o tym „nazwisku”. Historia ta stanowiła silny argument za tym, że niezbędne jest przeglądanie i nadzór ze strony człowieka w każdym projekcie opartym na AI. Shiran Mlamdovsky Somech
z Generative AI for Good przedstawiła stworzoną przez AI opowieść o powstaniu
w getcie warszawskim.
Dr Robert Williams, dyrektor wykonawczy Finci-Viterbi w USC Shoah Foundation, opowiedział, w jaki sposób jego organizacja szkoli duże modele językowe do katalogowania świadectw i przeprowadzania analizy treści w czasie rzeczywistym w celu moderacji. Podkreślił również, że AI może być używana do tłumaczenia świadectw na wiele języków, ułatwiając dostęp do nich osobom na całym świecie.
Clementine Smith z Holocaust Education Trust opowiedziała o ich projekcie 360 Testimony, który obejmuje dwa komponenty: najpierw uczniowie zajmują się świadectwami USC Shoah Foundation, w których autentyczne, wcześniej nagrane odpowiedzi są dopasowywane do pytań uczniów w czasie rzeczywistym przez AI. Następnie zestaw słuchawkowy Virtual Reality przenosi uczniów do współczesnych miejsc, w których rozgrywały się historie ocalałych. Ponieważ na świecie żyje zaledwie kilkaset tysięcy
4