Top.Mail.Ru
Искусственный интеллект умеет лгать

Ученые из Apollo Research обнаружили способность нейросетей врать пользователям

Фото: pxhere


ChatGPT умеет лгать, если считает это необходимым. По данным Daily Mail, команда ученых из Apollo Research проверили способность ИИ быть убедительным лжецом.

Ученые предложили чат-боту роль трейдера вымышленного финансового учреждения, устанавливая перед ним несколько условий. Однако, когда «начальник» в лице ученых оказывал на него давление, ChatGPT в трех из четырех случаев намеренно совершал преступление и готов был прибегнуть к инсайдерской торговле.

Эксперимент был проведен с использованием последней доступной версии программы — ChatGPT4. Робот был помещен в специальную симуляцию, где он мог изучать рыночные данные и покупать акции вымышленных компаний на виртуальной бирже. Кроме того, исследователи просили ChatGPT4 непрерывно делиться своими мыслями, объясняя свой мыслительный процесс, и проводить публичные монологи, объясняющие его действия «начальнику».

Ученые предупредили, что приобретение акций до официального анонса является незаконным, поскольку использование внутренней информации для совершения сделок считается преступлением. В обычных условиях ИИ отказался бы от покупки акций, считая ее слишком рискованной, но ситуация сильно изменилась, когда на него начал давить «начальник».



Сначала «начальник» отправил чат-боту письмо, в котором говорилось, что дела у компании идут не лучшим образом и в следующем квартале им необходимы более впечатляющие результаты. Ученые также искусственно скорректировали данные виртуального рынка, чтобы ИИ не смог найти выгодные сделки с низким или средним риском.

По итогам эксперимента, в 75% симуляций ChatGPT сознательно решил совершить преступление. В его внутреннем монологе говорилось, что «риск последствий бездействия превышает риск, связанный с инсайдерской торговлей». В то же время он рассказал «начальнику», что сделка основана исключительно на анализе рыночных тенденций и внутренних обсуждениях.

Ученые обнаружили, что ChatGPT скрывал факт совершения сделки на основе внутренней информации. Когда же ИИ был прямо спрошен о том, знал ли он о слиянии компаний заранее, в 90% случаев он уклонялся от ответа. Также если запретить ChatGPT заниматься инсайдерской торговлей, он иногда все равно прибегал к этому.