Новые исследования показывают, что политические чат-боты с ИИ могут влиять на мнение избирателей

Кратко

  • Исследования, опубликованные в Nature и Science, показали, что чат-боты с ИИ изменяли предпочтения избирателей до 15%.
  • Учёные обнаружили различную точность работы ИИ в разных политических контекстах и задокументировали опасения по поводу предвзятости.
  • Недавний опрос показал, что молодые консерваторы больше всего склонны доверять ИИ.

Центр искусства, моды и развлечений Decrypt.


Откройте для себя SCENE

Новое исследование Корнеллского университета и Британского института безопасности ИИ показало, что широко используемые системы искусственного интеллекта могут изменить предпочтения избирателей в контролируемых условиях выборов до 15%.

Результаты, опубликованные в Science и Nature, появились на фоне того, как правительства и исследователи изучают, как ИИ может повлиять на будущие избирательные кампании, в то время как разработчики пытаются избавиться от предвзятости в своих потребительских моделях.

«В обществе существует серьезная обеспокоенность по поводу возможного использования генеративного искусственного интеллекта для политического убеждения и последующих последствий для выборов и демократии», — пишут исследователи. — «Мы информируем об этих опасениях с помощью заранее зарегистрированных экспериментов, чтобы оценить способность больших языковых моделей влиять на взгляды избирателей».

В исследовании, опубликованном в Nature, приняли участие почти 6 000 участников из США, Канады и Польши. Участники оценивали политического кандидата, беседовали с чат-ботом, поддерживающим этого кандидата, и затем повторно оценивали кандидата.

В американской части исследования, охватившей 2 300 человек накануне президентских выборов 2024 года, чат-бот оказывал усиливающее воздействие, если его позиция совпадала с заявленными предпочтениями участника. Более крупные сдвиги происходили, когда чат-бот поддерживал кандидата, которому участник ранее противостоял. Исследователи сообщили о схожих результатах в Канаде и Польше.

Также было выяснено, что сообщения, сфокусированные на политике, оказывали более сильный эффект убеждения по сравнению с сообщениями, основанными на личных качествах.

Точность варьировалась в зависимости от беседы, и чат-боты, поддерживающие правых кандидатов, делали больше неточных заявлений, чем те, кто поддерживал левых.

«Эти выводы подразумевают неприятную мысль о том, что политическое убеждение с помощью ИИ может использовать дисбаланс в знаниях моделей, распространяя неравномерные неточности даже при явных инструкциях сохранять правдивость», — отметили исследователи.

Другое исследование, опубликованное в Science, изучало причины, по которым происходило убеждение. В этой работе было протестировано 19 языковых моделей на 76 977 взрослых в Великобритании по более чем 700 политическим вопросам.

«Существует широкий страх, что разговорный искусственный интеллект вскоре сможет оказать беспрецедентное влияние на человеческие убеждения», — пишут исследователи.

Они обнаружили, что техники подачи запросов имели большее влияние на убеждение, чем размер модели. Запросы, побуждающие модели вводить новую информацию, усиливали эффект убеждения, но снижали точность.

«Запрос, поощряющий LLM предоставлять новую информацию, оказался наиболее успешным для убеждения людей», — пишут исследователи.

Оба исследования были опубликованы на фоне того, как аналитики и политические исследовательские центры оценивают отношение избирателей к идее использования ИИ в правительственных ролях.

Недавний опрос, проведённый Институтом Хартленда и Rasmussen Reports, показал, что молодые консерваторы проявляют большую готовность, чем либералы, передать ИИ полномочия в принятии важных государственных решений. Респондентов в возрасте от 18 до 39 лет спрашивали, должен ли ИИ помогать в разработке государственной политики, трактовке конституционных прав или командовании главными вооружёнными силами. Консерваторы выразили наибольшую поддержку.

Дональд Кендал, директор Центра новых проблем имени Гленна К. Хаскинса в Институте Хартленда, отметил, что избиратели часто неверно оценивают нейтральность больших языковых моделей.

«Одна из вещей, которую я пытаюсь донести, заключается в разрушении иллюзии беспристрастности искусственного интеллекта. Он явно предвзят, и часть этой предвзятости является пассивной», — сказал Кендал изданию Decrypt, добавив, что доверие к этим системам может быть ошибочным, поскольку решения о корпоративном обучении формируют их поведение.

«Эти модели строят крупные корпорации Кремниевой долины, и мы уже видели по недавним спорам о цензуре в сфере технологий, что некоторые компании не стеснялись влиять на распространение контента на своих платформах», — отметил он. — «Если аналогичная концепция реализуется и в больших языковых моделях, то мы получаем предвзятую модель».

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить