Издание The Intercept обратило внимание, что 10 января компания OpenAI без уведомления убрала пункт в своей политике о запрете использования ChatGPT в «военных целях». Ранее ChatGPT не мог использоваться в «деятельности, сопряженной с высоким риском физического вреда, включая разработку оружия и военные действия».
В новой версии документа указано, что компания не разрешает использование ChatGPT в деятельности, связанной с услугами для «нанесения вреда себе или другим», среди которых в качестве примера указана «разработка оружия». Однако при этом нигде не упоминается запрет на использование чат-бота в «военных целях».