Suchir Balaji, badacz OpenAI, którego śmierć w listopadzie 2024 roku rozpętała trwający spór o odpowiedzialność branży AI. Zdjęcie: strona pliku w Wikipedii (dozwolony użytek, źródło: Times of India).
Nazwisko Suchira Balaji jest dziś nierozłącznie związane z szerszym sporem o odpowiedzialność branży sztucznej inteligencji. W październiku 2024 roku powiedział The New York Times, że OpenAI trenowało swoje modele na materiałach chronionych prawem autorskim bez zgody właścicieli. Pięć tygodni później, 26 listopada, policja w San Francisco znalazła go martwego we własnym mieszkaniu.
16 miesięcy, które minęły od tamtej chwili, nie przyniosło czystych odpowiedzi. Przyniosło pozwy, niezależną sekcję zwłok, projekt ustawy w Senacie, fundację jego imienia oraz publiczny spór, który Biuro Naczelnego Lekarza Sądowego San Francisco formalnie zamknęło, a rodzina Suchira odmówiła przyjęcia tej decyzji. Ten tekst pokazuje, w którym miejscu sprawa naprawdę dziś stoi i co zmieniła w sposobie, w jaki branża AI traktuje sygnalistów.
Suchir Balaji: odważny głos w branży sztucznej inteligencji
Urodzony na Florydzie w listopadzie 1998 roku i wychowany w Cupertino w Kalifornii, Balaji był uzdolnionym programistą jeszcze przed OpenAI: finalistą konkursu Kaggle w 2017 roku z nagrodą 100 000 dolarów, absolwentem informatyki na Uniwersytecie Kalifornijskim w Berkeley w wieku 22 lat oraz jednym z wczesnych członków zespołu, który przeszukiwał internet w celu wytrenowania GPT-4. Spędził w OpenAI prawie cztery lata, zanim odszedł w sierpniu 2024 roku, doszedłszy do wniosku, że praktyki firmy w zakresie pozyskiwania danych nie dają się obronić w teście czteroczynnikowym amerykańskiego prawa o dozwolonym użytku.
23 października 2024 roku The New York Times opublikował obszerny wywiad z nim, połączony z esejem na jego prywatnej stronie zatytułowanym „Kiedy generatywna AI kwalifikuje się do dozwolonego użytku?". Jego stanowisko było proste: ChatGPT konkuruje ekonomicznie z autorami i wydawcami, na których pracach się uczył, a to przekreśla trzeci i czwarty czynnik testu dozwolonego użytku. „Jeśli wierzysz w to, w co ja wierzę, musisz po prostu odejść z tej firmy" - powiedział gazecie. Niecałe trzy tygodnie później, 18 listopada, prawnicy The New York Times wymienili go jako prawdopodobnego świadka w pozwie o naruszenie praw autorskich przeciwko OpenAI.
Osiem dni po tym wniosku już nie żył.
Sporne dochodzenie
Biuro Naczelnego Lekarza Sądowego San Francisco opublikowało raport 14 lutego 2025 roku i uznało śmierć za samobójczy postrzał. 13-stronicowy dokument wymieniał ślady prochu na obu dłoniach Balaji, zarejestrowany na niego pistolet Glock kupiony w styczniu poprzedniego roku, mieszkanie zamknięte na zasuwę od środka, ostatnie wyszukiwania w przeglądarce dotyczące anatomii mózgu oraz toksykologię wykazującą poziom alkoholu ponad dwukrotnie przekraczający dopuszczalny limit dla kierowców, obok amfetaminy i GHB. Tego samego dnia policja San Francisco wydała własne, czterostronicowe podsumowanie. Komendant Bill Scott i dyrektor biura medycyny sądowej David Serrano Sewell napisali, że mają nadzieję, iż dokumenty „mogą przynieść rodzinie pewną dozę zamknięcia".
Rodzina odrzuciła te ustalenia. Matka Suchira, Poornima Ramarao, wynajęła patologa Josepha Cohena do wykonania niezależnej sekcji zwłok. Cohen stwierdził, że tor pocisku, biegnący ku dołowi i lekko z lewej do prawej, jest nietypowy dla samobójczego postrzału, oraz odnotował zasinienie z tyłu głowy Suchira, które jego zdaniem mogło powstać od uderzenia poprzedzającego ranę. Prawnik rodziny określił drugą sekcję jako stawiającą pytania, a nie jako rozstrzygający dowód morderstwa.
Sprawa niemal natychmiast stała się publiczną opowieścią o spisku. Elon Musk napisał w styczniu 2025 roku na platformie X, że ta śmierć „nie wygląda na samobójstwo". Tucker Carlson opublikował długi wywiad z Ramarao. Kongresmen Ro Khanna wezwał do „pełnego i przejrzystego dochodzenia". 22 września 2025 roku rodzice Suchira pozwali właściciela budynku, spółki Alta Laguna LLC i Holland Partner Group, zarzucając, że administrator początkowo pokazał im nagrania z monitoringu w garażu, potem stwierdził, że kamery nie działają, a wkrótce po tym został zwolniony, oraz że firma udostępniła tylko dwa dni nagrań zamiast wnioskowanych siedmiu. Pozew obejmujący dziewięć zarzutów domaga się odszkodowania w wysokości co najmniej 1 miliona dolarów.
W styczniu 2026 roku San Francisco Standard opublikował dziennikarskie śledztwo, w którym przeanalizował nagrania z kamer nasobnych policji, dane z czytnika kart wstępu w budynku oraz nagrania z monitoringu w zestawieniu z konkretnymi zarzutami rodziny. Krew była ograniczona do łazienki, a nie rozlana po całym mieszkaniu, na nagraniach nie ma śladów szarpaniny, dane z kart wstępu nie pokazują wejścia żadnej innej osoby do mieszkania Balaji w istotnym przedziale czasu, a do tego pojawił się fakt, którego rodzina wcześniej nie ujawniła publicznie: Suchir miał udokumentowaną historię depresji i w chwili śmierci przyjmował leki przeciwdepresyjne. Nic z tego nie unieważnia żałoby rodziny. Oznacza jednak, że dowody fizyczne są bardziej spójne z orzeczeniem lekarza sądowego niż z narracją o morderstwie, jaka narosła wokół tej sprawy w sieci.
Co zarzuty Suchira oznaczały dla OpenAI
Śmierć Suchira nie spowolniła pozwu, w którym miał zeznawać. 26 marca 2025 roku sędzia Sidney Stein odrzucił wniosek OpenAI o oddalenie roszczeń The New York Times o naruszenie praw autorskich i pozwolił, by sprawa toczyła się dalej. 5 stycznia 2026 roku ten sam sędzia podtrzymał decyzję o ujawnieniu, nakazującą OpenAI przekazanie powodom 20 milionów zanonimizowanych zapisów rozmów z ChatGPT. Firma początkowo zgodziła się na tę liczbę, a potem próbowała zastąpić ją próbką wyników wyszukiwania słów kluczowych. Stein uznał, że użytkownicy „dobrowolnie przekazali swoje wiadomości", a argumenty OpenAI o prywatności nie ważą tyle, co interes procesu.
Ten spór jest publiczną częścią szerszego wzorca. W maju 2024 roku Vox doniósł, że OpenAI naciskało na odchodzących pracowników, by podpisywali klauzule o zakazie krytyki firmy tak szeroko sformułowane, że nawet samo przyznanie się do istnienia takiej umowy było jej naruszeniem, pod groźbą utraty całego nabytego pakietu akcji. Firma wycofała się z tych klauzul po tym, jak Daniel Kokotajlo, William Saunders i inni byli pracownicy nagłośnili sprawę publicznie. W czerwcu 2024 roku trzynastu obecnych i byłych pracowników OpenAI oraz DeepMind podpisało list otwarty zatytułowany A Right to Warn about Advanced Artificial Intelligence, wzywający laboratoria AI do zaprzestania używania umów o poufności jako narzędzia zakneblowania pracowników i do stworzenia realnych kanałów zgłaszania obaw o bezpieczeństwo. Sprawa Suchira pojawiła się pięć miesięcy później, dokładnie w środku tej już toczącej się dyskusji.
Frances Haugen i etyczne wyzwania Facebooka
Frances Haugen, była menedżerka produktu w Facebooku, stała się powszechnie znana w 2021 roku, kiedy ujawniła tysiące wewnętrznych dokumentów i zeznała przed Kongresem, że Facebook przedkładał wzrost nad bezpieczeństwo użytkowników. Jej ujawnienia wymusiły publiczną debatę o algorytmicznym wzmacnianiu treści, zdrowiu psychicznym nastolatków oraz wpływie rankingu treści na polityczną dezinformację. Spotkała się z silnym oporem, ale konsekwentnie domagała się reform regulacyjnych.
Tyler Shultz i skandal Theranos
Tyler Shultz pomógł ujawnić oszustwo w Theranos, firmie wycenianej niegdyś na miliardy ze względu na technologię badania krwi, która nie działała. Jako młody pracownik i wnuk członka zarządu George'a Shultza ryzykował karierą i relacjami rodzinnymi, by wydobyć prawdę. Jego zeznania miały kluczowe znaczenie dla upadku firmy i skazania prezeski Elizabeth Holmes.
Co naprawdę zmieniła sprawa Balaji
Zarzuty Suchira i kontrowersje wokół jego śmierci już poruszyły politykę. 15 maja 2025 roku przewodniczący senackiej komisji sprawiedliwości Charles Grassley wniósł ponadpartyjny projekt AI Whistleblower Protection Act (S.1792). Ustawa szeroko definiuje systemy AI, zakazuje pracodawcom działań odwetowych wobec osób zgłaszających luki bezpieczeństwa lub naruszenia prawa, czyni połączenie umów o zakazie krytyki z groźbą utraty akcji, zastosowane przez OpenAI, prawnie niewykonalnym oraz daje sygnalistom środek prawny przed Departamentem Pracy oraz roszczenia cywilne o przywrócenie do pracy, zaległe wynagrodzenie i odszkodowanie. Biuro Grassleya wskazało odejścia z OpenAI i list Right to Warn jako bezpośrednią motywację.
Śmierć jednego badacza nie wystarczyła, by ten projekt powstał. Sprawa Suchira pojawiła się w momencie, w którym kultura umów o zakazie krytyki w branży AI, brak kanałów ujawniania kwestii bezpieczeństwa oraz słabość federalnej ochrony sygnalistów wobec pracowników firm AI były już na stole. Sprawa sprawiła, że tych trzech rzeczy nie dało się dłużej ignorować.
Tworzenie bezpieczniejszego środowiska dla sygnalistów
Niezależnie od losu projektu S.1792 w Kongresie, pracodawcy nie muszą czekać na ustawę. Trzy rzeczy konsekwentnie robią różnicę:
- Anonimowe, bezpieczne kanały zgłoszeń. Wewnętrzne ścieżki ujawnień, które naprawdę chronią tożsamość, eliminują wybór między zabraniem głosu a utrzymaniem pracy. Nowoczesna platforma sygnalizacyjna obsługuje to na poziomie technicznym.
- Zewnętrzne wsparcie prawne i rzecznicze. Organizacje takie jak National Whistleblower Center czy Government Accountability Project wkraczają tam, gdzie pracodawca nie wkroczy. Suchir Balaji nigdy do nich nie dotarł.
- Kultura, która nie traktuje sprzeciwu jak nielojalności. Najtrudniejszy z trzech punktów. Nie da się jej zainstalować; musi być pokazywana przez kierownictwo i potwierdzana, gdy realne zgłoszenie wreszcie się pojawi.
Spuścizna Suchira
Rodzice Suchira przekuli żałobę w Suchir Balaji Foundation, fundację prowadzącą inicjatywę badawczą poświęconą dozwolonemu użytkowi w AI oraz fundusz obrony sygnalistów. 30 lipca 2025 roku, w Narodowy Dzień Sygnalisty, fundacja zorganizowała pierwszy szczyt Truth in AI w San Francisco, łączący aktywistów, urzędników odpowiedzialnych za politykę i osoby z branży technologicznej. Niezależnie od tego, jakie ostateczne słowo padnie w sprawie jego śmierci, jego argumentacja o prawach autorskich będzie rozstrzygana w pozwie The New York Times jeszcze przez lata, a publiczny zapis postępowania OpenAI - umowy o zakazie krytyki, list Right to Warn, spór o ujawnienie zapisów rozmów - będzie częścią tego, jak następne pokolenie pracowników AI będzie ważyło decyzję o zabraniu głosu.
Wniosek
Najbardziej niewygodną częścią historii Suchira Balaji jest to, że nikt nie wychodzi z niej usatysfakcjonowany. Lekarz sądowy zamknął sprawę; jego rodzina tego nie zrobi. Pozew The New York Times idzie naprzód; nikogo, kto mógłby zeznawać o danych treningowych OpenAI z wnętrza firmy, już nie ma wśród żywych. Senat ma projekt, ale nie ma głosowania.
To, co możemy zrobić jako serwis istniejący po to, by sygnalizowanie nieprawidłowości było możliwe bez tej izolacji, jakiej doświadczył Suchir, to dalej budować mało efektowną infrastrukturę poufnych kanałów, jasnych ścieżek eskalacji i realnej ochrony prawnej, tak by następna osoba, która zobaczy coś niepokojącego w laboratorium AI, nie musiała wybierać między swoim sumieniem a wszystkim innym, co zbudowała w życiu.