|
ChatGPT разрешили использовать в военных целях
|
Американская компания OpenAI на этой неделе изменила политику использования ChatGPT на основе искусственного интеллекта (ИИ), тем самым сняв запрет на применение чат-бота в военных целях. На отсутствие такой формулировки обратило внимание издание The Intercept.
В удаленном пункте на странице с правилами применения продукции OpenAI было прописано, что ИИ нельзя использовать для «деятельности, сопряженной с высоким риском физического вреда», в частности «разработки оружия» и «военных действий». Таким образом, чат-бот не могли использовать в своих целях министерства обороны и прочие военизированные госорганы. Однако фраза исчезла после 10 января.
Обновленная версия сохранила только положение о неприменении нейросети для причинения вреда себе или другим, включая производство или использование оружия. В OpenAI изменения мотивировали стремлением упростить свод правил к использованию продуктов, подчеркнув, что формулировка «не причинять вред себе и другим» остается максимально широкой.
По мнению экспертов, компания-разработчик постепенно двигается навстречу Пентагону и американской разведке. «Похоже, что новая политика использования ChatGPT избегает ассоциаций с военными контрактами и боевыми операциями, уделяя особое внимание оружию», — предположила член Международного комитета по контролю над роботизированным вооружением Люси Сучман.
Специалисты подчеркивают, что запрет на использование нейросети непосредственно в военных операциях не помешает армии с ее помощью решать задачи, связанные с ведением боевых действий и насилием.
Минобороны Великобритании хочет объединить учебных боевых роботов с ChatGPT
Министерство обороны Великобритании (MOD) решило усовершенствовать роботов-симуляторов SimStriker, дополнив их учебно-боевые возможности с помощью ChatGPT.
По мере бурного развития военных технологий появилась довольно многочисленная категория военнослужащих, которые воюют с противником, не вступая с ним в непосредственный контакт. Одновременно, мотострелковые подразделения и спецназ во время уличных боев или штурме/обороне опорных пунктов встречаются с противником буквально лицом к лицу. Такая война требует специальной подготовки — в частности, умения действовать в ограниченном пространстве, мгновенно принимать решения, зачастую не располагая достаточной информацией, и при этом слаженно действовать в составе группы. Чтобы добиться этого, обстановка в процессе обучения должна быть максимально приближена к боевой.
SimStriker 4GD — это система датчиков и интерактивных мишеней, имитирующих расположенные внутри здания помещения. Данный симулятор активно используется британскими военными и полицейскими. Мишени SimStriker представляют собой технологичные, подвижные манекены, оснащенные датчиками-регистраторами точности и скорострельности — они также реагируют на свет, звук и движение. Манекен может отвечать, поднимать тревогу и имитировать ответный огонь.
С интеграцией в него ChatGPT учебный бой станет более реалистичным. ИИ-манекены смогут вести так называемые «синтетические беседы» с солдатами и взаимодействовать с их снаряжением, внося в боевую подготовку большее разнообразие.
В Бразилии принят законопроект, который в тайне от всех был разработан при помощи ChatGPT
Член городского совета бразильского Порту-Алегри Рамиро Росарио после принятия предложенного им законопроекта признался, что всех обманул. Он не составлял данный документ, а поручил эту работу сервису ChatGPT. Политик не внес ни единой правки в законопроект и сознательно умолчал о его происхождении. По словам Росарио, в противном случае его бы даже никто не стал слушать.
Законопроект описывает меры, которые снизят ответственность людей за кражу у них счетчиков потребления воды, а также отменяет плату за установку новых взамен украденных. По мнению Росарио, этот тот случай, когда ИИ используется для сохранения цивилизации, помогает поддерживать социальные нормы жизни людей. А потому глупо критиковать инструмент, при помощи которого было сделано общее полезное дело.
Это не первый случай, когда ChatGPT используется для разработки законопроектов. Однако сенатор штата Массачусетс Барри Файнголд, который сам воспользовался этой возможностью, настаивает на необходимость ставить метки о том, что над документом работал ИИ. Чтобы люди, которые будут принимать решения, знали, на ком лежит ответственность за изложенные в документе «факты» и аргументы. ChatGPT нередко уличали в том, что для обоснования своих выводов он беспросветно, но убедительно врет, и ссылается на то, чего никогда не было.