Чикаго Сан-Таймс обманул своих читателей. ИИ создал список книг, рекомендованных прочитать, которые не существуют

Искусственный интеллект все чаще используется в рекомендациях средств массовой информации, образования и контента, но не каждая интеграция успешна. Недавно случай с одним из американских дневников стал громким, что непреднамеренно выявило слабые стороны нынешних инструментов ИИ. Эта ситуация вызывает размышления о будущем автоматизации в редакционных офисах и необходимости соответствующих механизмов для проверки контента, генерируемого машиной.
Иногда я использую ИИ в качестве поддержки при сборе информации, но сначала я всегда проверяю материалы. На этот раз я этого не делал, и я не могу поверить, что пропустил это, потому что это было так очевидно. Это на 100 процентов, моя вина, и мне это стыдно — Марко Бускалья, автор списка.
Пользователи жалуются, что ЧАТГПТ хвалит их слишком часто. Искусственный интеллект перестает говорить правду?
Газета «Chicago Sun-Times» была в центре противоречий после публикации списка рекомендуемых книг на лето 2025 года в дополнении к выходным, из которых 10 из 15 названий оказались вымышленными, вызванными искусственным интеллектом. Список, созданный фрилансером Марко Бускаглой для King Perciels, дочерней компании Hearst, содержала такие названия, как «Tidewater» Изабель Альенде или «Последний алгоритм» Энди Вейра, которого не существует, хотя они были приписаны известным авторам. Проблема была вызвана отсутствием проверки редакционного содержания. Это выявило пробелы в процессах публикации. Виктор Лим, вице -президент по коммуникациям в Чикагских общественных СМИ, признал, что редакторы не проверяли вставку, предполагая, что он был от надежного издателя. Скандал не был ограничен Чикаго. Аналогичные письма появились в «Филадельфийском исследователе» и в других газетах, указывая на более широкую проблему с содержанием партнерства, созданным ИИ. Такие технологии, как CHATGPT, используемые для создания списка, склонны к «галлюцинации», то есть генерации ложной информации. Это подтверждается антропными и открытыми отчетами. После волны критики в социальных сетях газета сняла и объявила об изменениях в политике проверки, называя «момент обучения для журналистики».
Билл Гейтс предсказывает, что искусственный интеллект заменит людей в большинстве профессий в ближайшие 10 лет
Этот инцидент поднимает вопросы о будущем средств массовой информации в эпоху ИИ. Будут ли редакционные офисы под давлением сокращения бюджета, все чаще и чаще полагаться на непроверенный генеративный контент, рискуя потерей достоверности? ИИ может быть вспомогательным инструментом, но требует строгого контроля и проверки предоставленных ими данных. Отсутствие человеческой проверки приводит к ошибкам, которые подрывают уверенность в средствах массовой информации, особенно в эпоху, когда дезинформация быстро распространяется. Стоит рассмотреть вопрос о том, должны ли редакторы инвестировать в обучение искусственного интеллекта, чтобы лучше понять его ограничения, или он может полностью ограничить его использование в создании контента. Читатель при выборе источников информации должен теперь проверять больше, чем когда -либо, основаны ли публикации на фактах или алгоритмах. Этот случай показывает, что технология, хотя и мощная, не заменит человеческое суждение, и средства массовой информации должны найти баланс между эффективностью и ответственностью. Какие шаги будут предпринять газеты, чтобы восстановить доверие? Станет ли ИИ союзником или угрозой для журналистики?
Источник: 404media, Ars Technica, Chicago Sun-Times