Аналитические материалы про экономику, макроэкономику, геополитику, глобальные рынки, экономический foresight - ООО «ФОРУМ»
Аналитические материалы про экономику, макроэкономику, геополитику, глобальные рынки, экономический foresight - ООО «ФОРУМ»

Самую популярную языковую модель ИИ теперь можно использовать в военных целях

ии и военные

.

Компания-разработчик моделей искусственного интеллекта OpenAI в середине января изменила текст правил использования своего сервиса и удалила формулировку, прямо запрещающую использование своей технологии в военных целях. Об изменении сообщает портал The Intercept.

До 10 января на странице «Политика использования» OpenAI содержался запрет на «деятельность, сопряженную с высоким риском физического вреда, включая», в частности, «разработку оружия» и «военную деятельность и боевые операции». Новая политика сохраняет запрет «не использовать наши услуги во вред себе или другим» и приводит в качестве примера «разработку или использование оружия», но полный запрет на «военное и боевое» применение исчез.

«Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всем мире обычными пользователями, — указал представитель OpenAI Нико Феликс в электронном письме The Intercept: Такой принцип, как «Не причиняй вреда другим», является широким, но его легко понять и он актуален во многих контекстах».

Хотя ни одна из услуг OpenAI пока не может быть использована для прямого убийства кого-либо, в военном или ином отношении (ChatGPT не может маневрировать дроном или запускать ракеты), любая армия занимается поражением живой силы противника или, по крайней мере, поддерживает способности к поражению людей. Существует ряд смежных задач, которые большие языковые модели, такие как ChatGPT, могут решать. Например, написание кода или обработка военных закупок. Национальное агентство геопространственной разведки, которое напрямую помогает армии США при выполнении боевых задач, уже высказывало предположения об использовании ChatGPT для помощи своим аналитикам.

Большие языковые модели обучаются на огромных объемах книг, статей и содержимом веб-страниц. Хотя результаты, которые выдают модели, такие как ChatGPT, часто выглядят чрезвычайно правдоподобно, они не основаны на ясном понимании реальности, и часто страдают от так называемых галлюцинаций, от которых страдает фактологическая точность их ответов. Тем не менее, способность языковых моделей быстро воспринимать большие объемы текста делает их привлекательными для военных.

Некоторые представители военного руководства США выразили обеспокоенность по поводу склонности больших языковых моделей вставлять явные фактические ошибки и вносить другие искажения в ответы. Их также настораживают риски, которые могут возникнуть при использовании ChatGPT или подобных систем для анализа секретных или иным образом конфиденциальных данных. Однако Пентагон в целом положительно смотрит на перспективные инструменты искусственного интеллекта. В ноябрьском интервью заместитель министра обороны Кэтлин Хикс заявила, что ИИ является «ключевой частью комплексного, ориентированного на военнослужащих подхода к инновациям». Она также отметила, что большинство уже существующих систем пока «еще не достаточно технически развиты, чтобы соответствовать нашим требованиям».

Читать на сайте »