Фонд Викимедии реагирует на критику. Сгенерированные резюме ИИ, приостановленные после двух недель тестирования

Википедия была одним из наиболее важных источников знаний, доступных онлайн в течение многих лет. Он открыт, свободен и создан сообществом пользователей со всего мира. В качестве проекта, основанного на сотрудничестве и прозрачных редакционных принципах, играет ключевую роль в распространении надежной информации. Тем не менее, Википедия экспериментирует с новыми решениями, пытаясь согласовать автоматизацию с высококачественным контентом.
Резюме, созданные ИИ, нарушили основные принципы Википедии — им не хватало источников, контекста и редакционной прозрачности.
Пользователи жалуются, что ЧАТГПТ хвалит их слишком часто. Искусственный интеллект перестает говорить правду?
В ответ на увеличение популярности генеративных инструментов AI, Wikimedia Foundation начал тестировать упрощенные лозунги в английской версии Википедии. Эта функция, активная в течение двух недель в мобильной версии веб -сайта, заключалась в том, чтобы облегчить просмотр статей, отображая короткие резюме на основе содержания страницы. Источником сгенерированного контента была экспериментальная система с использованием языковых моделей, реализованных Wikimedia Enterprise. Однако всего за дюжину или около того дни сообщество редакторов выразило определенное возражение. Неспособность редактировать, непрозрачность источников, существенные ошибки и тот факт, что алгоритм действовал как черный ящик, несовместимый с принципом редакционной прозрачности, была критичена. В результате фонд временно отозвал функцию из использования и объявил о намерении продолжить консультирование сообщества.
Фотографии в Instagram не только в двух форматах. Популярная платформа уже предлагает поддержку мобильных пропорций
Случай раскрывает растущее напряжение между автоматизацией и контролем качества в сообществах, составленных сообществом. Хотя ИИ может значительно ускорить обработку контента, его использование в энциклопедии на основе проверки человека, а также консенсус поднимает вопросы о пределах автоматизации. Редакторы отметили, что сгенерированные резюме были неточными, а иногда искажали значение статьи, которая с глобальным диапазоном Википедии может иметь серьезные последствия. Проблема также влияет на вопрос ответственности, кто виноват в ошибке ИИ в открытой энциклопедии? Должны ли модели соответствовать тем же стандартам, что и люди-редакторы в будущем?
Источник: Википедия, 404Media