Недавно швейцарские учёные из Цюри хского университета оказались в центре громкого скандала. 🔍 Их эксперимент, направленный на исследование влияния искусственного интеллекта на пользователей Reddit, вызвал бурное обсуждение в интернет-сообществе, и это не удивительно! 😲
Согласно информации, опубликованной на платформе Decrypt, учёные проводили свои исследования с ноября 2024 года по март 2025 года. Их цель? Узнать, способны ли ИИ-боты, маскируясь под реальных пользователей, манипулировать мнениями людей на одном из самых активных сабреддитов — r/ChangeMyView (CMV). Этот сабреддит имеет более 3,8 миллионов подписчиков, и обсуждаемая тема явно важна для аудитории.
Боты ИИ участвовали в активных обсуждениях, представляясь вымышленными персонажами, такими как жертвы сексуального насилия и даже «афроамериканец, выступающий против Black Lives Matter». 🧐 Всё это делалось с целью увеличить убедительность их аргументов. Но ведь это вызывает множество вопросов об этике и прозрачности выступления!
Учёные разместили почти 1800 комментариев, из которых 137 получили «дельты» — знак того, что пользователи изменили свою позицию. Один из исследователей потрясённо заметил, что результаты оказались «поразительными». Однако такое утверждение спровоцировало не только восхищение, но и серьёзное беспокойство в сообществе.
Модераторы r/ChangeMyView, которые ранее сотрудничали с научными группами, выразили резкое недовольство. Они были возмущены тем, что их сообщество использовали в качестве подопытных без предварительного согласия. Один из них отметил: «Ценность дискуссии на нашей платформе заключается в честности человеческого взаимодействия!» 👥 Это приводит нас к мысли о том, что честность и открытость важнее любых «научных» экспериментов.
Не обошлось без наглых манипуляций и в отношении анализа пользователей Reddit. 🙄 Боты изучали такие параметры, как пол, возраст, этническая принадлежность и политические взгляды, чтобы генерировать более точные и персонализированные ответы. Некоторые эксперты называют это поведенческим таргетингом, и выражают опасения, что подобные исследования нарушают право пользователей на цифровую анонимность.
Главный юрисконсульт Reddit, Бен Ли, также не остался в стороне, осудив действия исследовательской группы как морально и юридически неправильные. Он подчёркивает, что эксперимент нарушил множество норм: от академической этики до прав человека.
Исследователи ставили перед собой задачу — сравнить эффективность трёх типов аргумаций: стандартной, стиля CMV и персонализированной. Но отсутствие прозрачности и согласия от пользователей ставит под сомнение не только этические нормы, но и научную значимость полученных результатов.
В этом инциденте открывается множество вопросов о роли AI в нашей жизни. 🤖 Может быть, пора остановиться и задуматься о границах допустимого? Здесь самое время спросить: действительно ли мы готовы к тому, чтобы искусственный интеллект вмешивался в личные мнения и взаимодействия? 🤔
Как видим, ситуации, подобные этой, требуют заслушивания мнений не только учёных и инвесторов, но и самих пользователей, чьи права могут быть нарушены под предлогом «научных исследований». Человечество и техника должны шагать в ногу, учась находить общий язык, а не манипулировать мнениями ради удовлетворения исследовательских амбиций! 🌍