Ученые нашли простой способ разоблачить ботов с искусственным интеллектом. Эта одна функция выдает 80% ботов с искусственным интеллектом. случаи
Интернет-боты раньше отличались тарабарщиной и грубыми грамматическими ошибками. Сегодня, в эпоху мощных языковых моделей (LLM), ситуация повернулась на 180 градусов. Текст, сгенерированный искусственным интеллектом, стал настолько плавным и правильным, что различить его практически невозможно. Почти. Последние анализы ученых пролили новый свет на проблему обнаружения. Так в чем же самая большая и удивительная слабость новейших алгоритмов?
Даже после сложной калибровки тексты, созданные LLM, остаются четко отличимыми от человеческих текстов, особенно с точки зрения аффективного тона и эмоционального выражения – исследователи из Цюрихского университета.
Google Gemini заменит внутренние модели Apple в помощнике Siri AI в iOS 26.4
Команда Николы Пагана из Цюрихского университета разработала «вычислительный тест Тьюринга» — автоматизированную систему для обнаружения контента ИИ. В отличие от классического теста Тьюринга, новый подход использует алгоритмы классификации и лингвистический анализ. Исследование охватило девять моделей с открытым исходным кодом, включая Llama 3.1, Mistral 7B и Gemma 3. Эксперименты на X, Bluesky и Reddit показали 70-80 процентов. эффективность в выявлении ботов. Наиболее характерной «подписью» ИИ оказался тон. Модели генерировали слишком вежливый контент, лишенный спонтанного негатива, свойственного людям. Анализ токсичности показал, что все модели имели значительно более низкие показатели, чем реальные пользователи.
Feature.AI блокирует доступ пользователям до 18 лет после серии судебных исков по поводу подростковых суицидов
Ученые протестировали различные стратегии оптимизации: от подсказок до расширенной тонкой настройки. Структурные различия были уменьшены, но эмоциональное выражение оставалось неуловимым. Интересно, что модели с инструктированной настройкой работали хуже, чем базовые версии. Без дополнительной подготовки Лама 3.1 8Б имитировала людей лучше своего «образованного» аналога. Аналогия проста. Точно так же, как на фальшивой картине мазки кисти слишком идеальны, ИИ выдает свое машинное происхождение, будучи слишком вежливым. Настоящие люди капризны, ироничны, саркастичны. Модели, обученные этическому поведению, слишком «хороши», чтобы быть правдой.
Исследование будущего жизни. Большинство американцев хотят, чтобы разработка суперИИ была остановлена до тех пор, пока не будут предоставлены доказательства безопасности.
По оценкам, до 64 процентов учетных записей на портале X могут быть ботами, поэтому крайне важна потребность в надежных инструментах обнаружения. Это практический сигнал для пользователей о том, что подозрительно вежливый комментарий может исходить от бота. Задача платформ заключается в том, как фильтровать искусственный контент, не блокируя при этом действительно вежливых пользователей. Исследование выявило парадокс. Чем более «безопасными» мы делаем модели посредством настройки инструкций, тем дальше мы удаляем их от естественного общения. Оказалось, что улучшение одного аспекта ухудшает другой, текст либо звучит естественно, либо передает именно то, что должен. Это должно заставить создателей LLM переосмыслить свою стратегию обучения.
Источник: Николо Паган, Петтер Торнберг, Кристофер А. Бэйл, Анико Ханнак, Кристофер Барри.