Компания OpenAI частично разрешила использовать свои технологии, такие как ChatGPT, в военных целях. На это обратило внимание издание The Intercept.

Ранее в документе, описывающем политику компании, был пункт, который запрещал применять ее продукты в целях, которые могут потенциально привести к причинению реального физического ущерба. В частности, формулировка включала себя ограничение на использование технологий OpenAI военными для создания своих разработок и оружия.

В новой редакции документа от 10 января 2024 года сохранился запрет на создание вооружений, но исчезло словосочетание «военные цели». Издание считает, что таким образом OpenAI фактически разрешила силовым ведомствам использовать ее технологии для других задач.

В компании объяснили, что изменения были внесены, чтобы сделать политику «более ясной» и «более читабельной». Представитель OpenAI подчеркнул, что использовать их технологии при создании вооружений все еще запрещено.