Фонд Викимедии реагирует на критику. Сгенерированные резюме ИИ, приостановленные после двух недель тестирования

Фонд Викимедии реагирует на критику. Сгенерированные резюме ИИ, приостановленные после двух недель тестирования

Википедия была одним из наиболее важных источников знаний, доступных онлайн в течение многих лет. Он открыт, свободен и создан сообществом пользователей со всего мира. В качестве проекта, основанного на сотрудничестве и прозрачных редакционных принципах, играет ключевую роль в распространении надежной информации. Тем не менее, Википедия экспериментирует с новыми решениями, пытаясь согласовать автоматизацию с высококачественным контентом.

Резюме, созданные ИИ, нарушили основные принципы Википедии — им не хватало источников, контекста и редакционной прозрачности.

Пользователи жалуются, что ЧАТГПТ хвалит их слишком часто. Искусственный интеллект перестает говорить правду?

В ответ на увеличение популярности генеративных инструментов AI, Wikimedia Foundation начал тестировать упрощенные лозунги в английской версии Википедии. Эта функция, активная в течение двух недель в мобильной версии веб -сайта, заключалась в том, чтобы облегчить просмотр статей, отображая короткие резюме на основе содержания страницы. Источником сгенерированного контента была экспериментальная система с использованием языковых моделей, реализованных Wikimedia Enterprise. Однако всего за дюжину или около того дни сообщество редакторов выразило определенное возражение. Неспособность редактировать, непрозрачность источников, существенные ошибки и тот факт, что алгоритм действовал как черный ящик, несовместимый с принципом редакционной прозрачности, была критичена. В результате фонд временно отозвал функцию из использования и объявил о намерении продолжить консультирование сообщества.

Фотографии в Instagram не только в двух форматах. Популярная платформа уже предлагает поддержку мобильных пропорций

Случай раскрывает растущее напряжение между автоматизацией и контролем качества в сообществах, составленных сообществом. Хотя ИИ может значительно ускорить обработку контента, его использование в энциклопедии на основе проверки человека, а также консенсус поднимает вопросы о пределах автоматизации. Редакторы отметили, что сгенерированные резюме были неточными, а иногда искажали значение статьи, которая с глобальным диапазоном Википедии может иметь серьезные последствия. Проблема также влияет на вопрос ответственности, кто виноват в ошибке ИИ в открытой энциклопедии? Должны ли модели соответствовать тем же стандартам, что и люди-редакторы в будущем?

Источник: Википедия, 404Media

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии