OpenAI pozwala na wykorzystanie ChatGPT do celów wojskowych
Linia stwierdzająca, że firma zabrania wykorzystywania swojej technologii do celów “wojskowych i bojowych”, zniknęła ze strony zasad korzystania z technologii OpenAI.
Zostało to zgłoszone przez Intercept.
Firma zaktualizowała zasady 10 stycznia, “aby uczynić je bardziej przejrzystymi i zapewnić więcej wskazówek dotyczących konkretnych usług”, jak stwierdzono w dzienniku zmian. Duże modele językowe (LLM) nadal nie mogą być wykorzystywane do niczego, co mogłoby wyrządzić szkodę.
Firma ostrzega również przed korzystaniem z jej usług w celu “rozwijania lub używania broni”. OpenAI usunęło jednak sformułowanie odnoszące się do “spraw wojskowych i wojny”.
Jak rzecznik OpenAI Nico Felix powiedział Intercept, firma “chce stworzyć zestaw uniwersalnych zasad, które są łatwe do zapamiętania i zastosowania, zwłaszcza że ich narzędzia są obecnie używane na całym świecie przez zwykłych użytkowników, którzy mogą teraz również tworzyć GPT”.
Rzecznik odmówił sprecyzowania, czy zakaz wykorzystywania technologii do “szkodzenia innym” obejmuje wszystkie zastosowania wojskowe poza rozwojem broni.