Habsburgowie mogli wygrywać wojny, ale przegrali z biologią. Związki małżeńskie zawierane pomiędzy krewnymi doprowadziły do licznych deformacji i chorób. Ten „chów wsobny” wpłynął na określenie współczesnego zjawiska – Habsburg AI.
Co oznacza termin Habsburg AI?
Sztuczna inteligencja na co dzień pomaga nam w pracy, wykonywaniu codziennych obowiązków czy zbieraniu informacji. Zakres jej możliwości zwiększa się w wysokim tempie – zwłaszcza jeśli spojrzymy na takie testowane rozwiązania jak Operator od OpenAI.
Wiadomo jednak, że żadna AI nie jest w stanie odpowiedzieć na nasze pytania, prośby i zażalenia, jeśli wcześniej nie nauczy się tego, jakie treści ma nam dostarczać. A uczy się, korzystając z danych znalezionych w sieci. I, pomijając już kontrowersyjny aspekt prawny tego procederu, wszystko to brzmi pięknie i wygodnie. Problem polega na tym, że obecnie w internecie możemy spotkać coraz więcej treści generowanych przez modele LLM (ang. large language models). A co stanie się, gdy sztuczna inteligencja zaczyna tworzyć swoje odpowiedzi na bazie wyników, które wcześniej sama wygenerowała?
Zdefiniowaniem tego zjawiska zajął się między innymi badacz Jathan Sadowski, twórca tytułowego terminu Habsburg AI. Jego zdaniem jest to „system tak intensywnie trenowany na wynikach innych generatywnych AI, że staje się kazirodczym mutantem, prawdopodobnie z wyolbrzymionymi, groteskowymi cechami”[1].
Przeczytaj także: Komu przysługują prawa autorskie do dzieła stworzonego przez AI?

AI jak wściekłe krowy?
Kiedy ChatGPT, Perplexity czy inne narzędzie generatywnej AI udziela nam odpowiedzi, stara się zawsze zrobić to w możliwie uśredniony sposób. Odrzuca przy tym informacje bardziej skrajne z obu stron, tak jakby ucinała „góry” i „doły” na wykresie dźwięku, spłaszczając go. Następnie treści te lądują w sieci, z której wspomniane narzędzia będą korzystać, by odpowiedzieć na podobne pytania. Tylko, że one zostały już wcześniej spłaszczone – w efekcie każda kolejna obróbka powoduje dalsze obcinanie i spłaszczanie otrzymanego wyniku.
Wady takiej sytuacji są aż nadto zauważalne. Podobnie jak wystająca żuchwa, problemy z oddychaniem czy inne zdegenerowane cechy fizyczne dziedziczone przez Habsburgów. AI, która żywi się własnym „DNA”, zbliża się niebezpiecznie (dla siebie i użytkowników) do podobnego scenariusza, który spotkał europejską dynastię. O skali potencjalnych problemów może świadczyć fakt, że Habsburg AI nie jest jedynym określeniem tego zjawiska.
Badacze z Uniwersytetów Rice’a i Stanforda w jednej ze swoich prac zdecydowali się na użycie terminu „Model Autophagy Disorder” (MAD) . Nazwa powstała jako analogia do „choroby wściekłych krów”, czyli ang. mad cow disease. Jest to śmiertelna przypadłość spowodowana karmieniem żyjących krów resztkami martwych…
Jeśli komuś zależy na bardziej poetyckim porównaniu, to może powiedzieć, że tak funkcjonująca sztuczna inteligencja przypomina Uroborosa. Jest zatem jak wąż zjadający własny ogon. Ale bądźmy szczerzy, czy w AI można znaleźć cokolwiek z poezji?

Czy Habsburg AI oznacza koniec internetu?
Największe obawy dotyczą tego, że teksty, obrazy czy materiały wideo wygenerowane przez sztuczną inteligencję zaczną przeważać nad treściami, które tworzą ludzie. Tym samym w morzu contentu produkowanego przez boty trudno będzie znaleźć coś, co wyraźnie wyróżnia się swoją oryginalnością. Zwłaszcza jeśli wygenerowane treści nie zostaną odpowiednio oznaczone.
– „Najgorszy scenariusz zakłada, że jeśli choroba MAD pozostanie niekontrolowana przez wiele generacji, to może ona zatruć jakość i różnorodność danych w całym internecie” – podkreśla Richard Baraniuk, jeden z autorów pracujących na Uniwersytecie Rice’a[2].
Tak przedstawione wnioski mogą przerażać, jednak nie wszyscy eksperci są nimi tak samo zaniepokojeni. Nieco odmienne podejście ma na przykład Anton Lozhkov, inżynier nauczania maszynowego pracujący w Hugging Face. Odniósł się on do innego artykułu na ten temat, opublikowanego w czasopiśmie „Nature”.
Lozhkov zgodził się, że ukazana w tej pracy naukowej perspektywa teoretyczna jest faktycznie interesująca, ale „apokaliptyczny” scenariusz nie ma wiele wspólnego z rzeczywistością. Jego zdaniem szkolenie generatywnej AI w kółko na danych syntetycznych po prostu się nie dzieje[3].
W swojej wypowiedzi dla agencji AFP Lozhkov przyznał jednocześnie, że duża część internetu to obecnie śmieci. Dużą wiarę w zmianę tego stanu pokłada w działaniach swojej firmy i umiejętności ludzi do odróżniania treści AI od tych tworzonych przez człowieka. W obliczu rozkręcającego się coraz bardziej wyścigu technologicznego takie argumenty mogą jednak tracić siłę przekonywania.
Niebezpieczeństwo Habsburg AI zatem istnieje, jednak schyłek ludzkiego dziedzictwa w internecie niekoniecznie jest tak bliski, jak niektórzy wskazują. Kolejne badania mogą dodatkowo naświetlić sytuację, biorąc pod uwagę także nowe narzędzia AI pojawiające się na horyzoncie w ostatnim czasie.
Przeczytaj więcej o rozwoju sztucznej inteligencji w naszym raporcie: I’ll be back – dynamiczny rozwój AI oraz jego konsekwencje dla świata marketingu.
[1] https://x.com/jathansadowski/status/1625245803211272194 [dostęp: 17.02.2025].
[2] https://news.rice.edu/news/2024/breaking-mad-generative-ai-could-break-internet [dostęp: 17.02.2025].
[3] https://www.france24.com/en/live-news/20240805-inbred-gibberish-or-just-mad-warnings-rise-about-ai-models [dostęp: 17.02.2025].