Исследователи из Института биомедицинской этики и истории медицины Цюрихского университета (IBME) в Швейцарии провели эксперимент, в ходе которого было выявлено, что люди, использующие интернет, имеют большую склонность доверять информации, созданной искусственным интеллектом, по сравнению с сообщениями, написанными людьми.
Эти результаты указывают на то, что человечество все больше привыкает к автоматизированным системам и находит в них источник достоверности и надежности.
Швейцарские ученые из Института биомедицинской этики и истории медицины Цюрихского университета (IBME) провели интересное исследование, в котором использовали устаревший чат-бот GPT-3 для генерации твитов на различные темы. В рамках исследования были рассмотрены актуальные темы, такие как вакцинация, технология 5G, COVID-19, теория эволюции и другие. Результаты этого исследования были опубликованы в престижном журнале Science Advances.
В рамках проведенного эксперимента в социальной сети были использованы реальные посты, написанные пользователями. Участникам эксперимента предлагалось различать правдивые сообщения от ложных, созданных как искусственным интеллектом, так и людьми. Подробности об этом исследовании были опубликованы в журнале «Российская газета».
В ходе анализа результатов было выявлено, что испытуемые проявляли более высокую точность в распознавании правдивых сообщений, созданных искусственным интеллектом, по сравнению с сообщениями, написанными людьми. Однако, интересно отметить, что ложные сообщения, сгенерированные чат-ботом, чаще воспринимались как правдивые, в сравнении с ложными сообщениями, написанными людьми.
Итак, в результате исследования стало очевидно, что дезинформация, созданная искусственным интеллектом, имела большую эффективность, по сравнению с дезинформацией, созданной людьми. Более того, сообщения, созданные искусственным интеллектом, вызывали большее доверие у аудитории, пишет РГ.