
OpenAI przeprasza po strzelaninie w Kanadzie. Gdzie kończy się prywatność, a zaczyna obowiązek?
Szef OpenAI Sam Altman przeprosił, że firma nie powiadomiła policji o niepokojących treściach 18-latki, która kilka miesięcy później zabiła osiem osób w kanadyjskim Tumbler Ridge. Konto nastolatki zablokowano, ale uznano, że zagrożenie nie jest realne – dziś Altman mówi, że był to błąd.
Sprawa rozgrzewa dyskusję: kiedy platforma ma obowiązek ostrzec służby, a kiedy narusza prywatność i prawo do anonimowej rozmowy z robotem? W UE dodatkowego ciężaru dodaje Akt o Usługach Cyfrowych (DSA), który wymaga od wielkich platform oceny systemowych ryzyk i transparentności moderacji.
Dla Polaków w Holandii, którzy coraz częściej używają AI do nauki, pracy i porad, to ważny sygnał: modele nie są „notatnikiem prywatnym”. Treści mogą trafić do systemów bezpieczeństwa, a dostawcy będą coraz częściej stawać przed dylematem „zgłosić czy nie”.
Eksperci od etyki technologii tłumaczą, że kluczem jest jasna procedura „duty to warn”: ściśle zdefiniowane progi zagrożenia, weryfikacja przez człowieka i rejestrowanie decyzji. Bez tego firmy lawirują między reputacją a ryzykiem prawnym.
W praktyce możemy spodziewać się dokładniejszych filtrów i większej roli „czerwonych flag”. Dobrą praktyką jest ostrożność przy opisywaniu przemocy, zagrożeń i szczegółów – algorytmy nie czytają intencji, tylko wzorce.
Ta historia nie kończy się na jednej przeprosinie. To zapowiedź ostrzejszych standardów raportowania i jeszcze większej odpowiedzialności gigantów AI – również w Europie.
Deel artikel


