Редакторы Wikipedia будут быстро удалять статьи, сгенерированные ИИ - «Новости» » Интернет технологии
sitename
Как заработать денег, не выходя из дома, мы вам поможем с этим разобраться » Новости » Редакторы Wikipedia будут быстро удалять статьи, сгенерированные ИИ - «Новости»

В Wikipedia утвердили новые правила для борьбы с потоком сгенерированных ИИ статей, наводнивших онлайн-энциклопедию. Согласно новой политике, администрация получает право быстро удалять ИИ-статьи, если они соответствуют определенным критериям.


Так как поддержкой Wikipedia занимается международное сообщество волонтеров и редакторов, его участники тратят немало времени на обсуждения и споры — как по поводу конкретных правок в статьях, так и политик, регулирующих такие правки в целом. Удаление целых статей — нормальная практика для Wikipedia, однако процесс удаления включает этап недельного обсуждения, во время которого сообщество пытается прийти к консенсусу о том, нужно ли удалять конкретный материал.


Для распространенных нарушений, явно противоречащих правилам энциклопедии, существует процесс быстрого удаления статей: один человек помечает статью для удаления, администратор проверяет, соответствует ли она критериям, и удаляет ее, минуя этап обсуждения.


Такое ускоренное удаление, к примеру, может применяться к статьям, полностью состоящим из бессмысленного текста, а также к рекламным текстам, не имеющим энциклопедической ценности. Однако если кто-то просто полагает, что статья «скорее всего не представляет интереса», — это субъективная оценка, и удаление требует полноценного обсуждения.


Проблема заключается в том, что в настоящее время большинство статей, которые редакторы помечают как генерированные ИИ, попадают во вторую категорию, потому что редакторы не могут с уверенностью сказать, что их написал ИИ.


Как объясняет Ильяс Леблё (Ilyas Lebleu), один из основателей проекта WikiProject AI Cleanup и автор ключевых формулировок новой политики, именно поэтому предыдущие попытки регулировать ИИ-контент в Wikipedia были сопряжены с трудностями.


«Хотя можно легко обнаружить признаки того, что текст может быть сгенерирован с помощью ИИ (выбор формулировок, тире, списки с жирными заголовками и так далее), такое редко бывает однозначным. Мы не хотим ошибочно удалять материалы только потому, что они выглядят как написанные ИИ, — объяснил Леблё изданию 404 Media. — В целом, рост доступного ИИ-контента уже называют “экзистенциальной угрозой” для Wikipedia. Ведь наши процессы построены вокруг длительных обсуждений и выработки консенсуса, и если кто-то может быстро генерировать горы мусорного контента, у нас нет столь же быстрой процедуры удаления. И это серьезная проблема. Конечно, ИИ-контент не всегда бывает плохим, и люди тоже справляются с созданием плохого контента на отлично, но не в таких масштабах. Наши инструменты создавались для совсем других масштабов».


Решение, к которому пришло сообщество Wikipedia заключается в разрешении быстрого удаления статей, которые очевидно сгенерированы ИИ. Однако для этого статьи должны отвечать определенным критериям.


Первый критерий: в статье присутствуют фразы, «адресованные пользователю». Это формулировки, выдающие типичный для ИИ язык, например: «Вот ваша статья для Wikipedia» или «Как большая языковая модель…». Подобные обороты — надежный маркер, что текст сгенерирован LLM и они давно используются для обнаружения ИИ-контента в соцсетях и научных статьях.


Леблё отмечает, что редакторы энциклопедии часто сталкиваются с подобным. И это означает, что контент не просто был создан ИИ, но и указывает на то, что сам пользователь даже не читал сгенерированный текст.


«Если человек не заметил такие базовые вещи, можно с уверенностью считать, что он вообще ничего не проверил и просто скопировал “белый шум”», — говорит Леблё.


Второй критерий: в статье присутствуют очевидно ложные цитаты. Это еще одна типичная проблема LLM, которая заключается в том, что ИИ может ссылаться на несуществующие книги, статьи или научные работы, либо давать ссылки, ведущие к нерелевантному контенту. В новой политике Wikipedia приведен пример: «если в статье по информатике ссылаются на работу о видах жуков — это повод для удаления».


По словам Леблё, ускоренное удаление — это скорее временная «заплатка», а не полноценное решение. Это позволит избавиться от самых очевидных проблем, но проблема ИИ-контента в целом сохранится. Такой контент по-прежнему регулярно появляется в энциклопедии и не всегда подпадает под описанные выше критерии.


Также специалист добавил, что ИИ может быть полезным инструментом и в будущем даже сможет принести Wikipedia пользу.


«Текущая ситуация совсем иная, и спекуляции о том, как будут развиваться технологии, только отвлекают от реальных проблем, с которыми мы сталкиваемся уже сейчас, — говорит он. — Один из главных принципов Wikipedia — отсутствие жестких правил. Поэтому любые решения, которые мы принимаем сегодня, могут быть пересмотрены через несколько лет, когда технологии получат дальнейшее развитие».


Леблё заключает, что новая политика улучшает положение, пусть и не решает проблему целиком.


«Хорошая новость (помимо самой процедуры ускоренного удаления) заключается в том, что теперь у нас есть четкое заявление по поводу статей, сгенерированных LLM. Раньше это вызывало споры. И хотя большинство из нас выступает против контента, написанного ИИ, мы не могли договориться, как именно с этим бороться, а ранние попытки разработать комплексную политику провалились. Теперь, опираясь на предыдущие успехи в области борьбы с ИИ-изображениями, черновиками и комментариями в обсуждениях, мы сформулировали более конкретные рамки, которые ясно дают понять: непроверенный, сгенерированный ИИ контент противоречит духу Wikipedia».

Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.

В Wikipedia утвердили новые правила для борьбы с потоком сгенерированных ИИ статей, наводнивших онлайн-энциклопедию. Согласно новой политике, администрация получает право быстро удалять ИИ-статьи, если они соответствуют определенным критериям. Так как поддержкой Wikipedia занимается международное сообщество волонтеров и редакторов, его участники тратят немало времени на обсуждения и споры — как по поводу конкретных правок в статьях, так и политик, регулирующих такие правки в целом. Удаление целых статей — нормальная практика для Wikipedia, однако процесс удаления включает этап недельного обсуждения, во время которого сообщество пытается прийти к консенсусу о том, нужно ли удалять конкретный материал. Для распространенных нарушений, явно противоречащих правилам энциклопедии, существует процесс быстрого удаления статей: один человек помечает статью для удаления, администратор проверяет, соответствует ли она критериям, и удаляет ее, минуя этап обсуждения. Такое ускоренное удаление, к примеру, может применяться к статьям, полностью состоящим из бессмысленного текста, а также к рекламным текстам, не имеющим энциклопедической ценности. Однако если кто-то просто полагает, что статья «скорее всего не представляет интереса», — это субъективная оценка, и удаление требует полноценного обсуждения. Проблема заключается в том, что в настоящее время большинство статей, которые редакторы помечают как генерированные ИИ, попадают во вторую категорию, потому что редакторы не могут с уверенностью сказать, что их написал ИИ. Как объясняет Ильяс Леблё (Ilyas Lebleu), один из основателей проекта WikiProject AI Cleanup и автор ключевых формулировок новой политики, именно поэтому предыдущие попытки регулировать ИИ-контент в Wikipedia были сопряжены с трудностями. «Хотя можно легко обнаружить признаки того, что текст может быть сгенерирован с помощью ИИ (выбор формулировок, тире, списки с жирными заголовками и так далее), такое редко бывает однозначным. Мы не хотим ошибочно удалять материалы только потому, что они выглядят как написанные ИИ, — объяснил Леблё изданию 404 Media. — В целом, рост доступного ИИ-контента уже называют “экзистенциальной угрозой” для Wikipedia. Ведь наши процессы построены вокруг длительных обсуждений и выработки консенсуса, и если кто-то может быстро генерировать горы мусорного контента, у нас нет столь же быстрой процедуры удаления. И это серьезная проблема. Конечно, ИИ-контент не всегда бывает плохим, и люди тоже справляются с созданием плохого контента на отлично, но не в таких масштабах. Наши инструменты создавались для совсем других масштабов». Решение, к которому пришло сообщество Wikipedia заключается в разрешении быстрого удаления статей, которые очевидно сгенерированы ИИ. Однако для этого статьи должны отвечать определенным критериям. Первый критерий: в статье присутствуют фразы, «адресованные пользователю». Это формулировки, выдающие типичный для ИИ язык, например: «Вот ваша статья для Wikipedia» или «Как большая языковая модель…». Подобные обороты — надежный маркер, что текст сгенерирован LLM и они давно используются для обнаружения ИИ-контента в соцсетях и научных статьях. Леблё отмечает, что редакторы энциклопедии часто сталкиваются с подобным. И это означает, что контент не просто был создан ИИ, но и указывает на то, что сам пользователь даже не читал сгенерированный текст. «Если человек не заметил такие базовые вещи, можно с уверенностью считать, что он вообще ничего не проверил и просто скопировал “белый шум”», — говорит Леблё. Второй критерий: в статье присутствуют очевидно ложные цитаты. Это еще одна типичная проблема LLM, которая заключается в том, что ИИ может ссылаться на несуществующие книги, статьи или научные работы, либо давать ссылки, ведущие к нерелевантному контенту. В новой политике Wikipedia приведен пример: «если в статье по информатике ссылаются на работу о видах жуков — это повод для удаления». По словам Леблё, ускоренное удаление — это скорее временная «заплатка», а не полноценное решение. Это позволит избавиться от самых очевидных проблем, но проблема ИИ-контента в целом сохранится. Такой контент по-прежнему регулярно появляется в энциклопедии и не всегда подпадает под описанные выше критерии. Также специалист добавил, что ИИ может быть полезным инструментом и в будущем даже сможет принести Wikipedia пользу. «Текущая ситуация совсем иная, и спекуляции о том, как будут развиваться технологии, только отвлекают от реальных проблем, с которыми мы сталкиваемся уже сейчас, — говорит он. — Один из главных принципов Wikipedia — отсутствие жестких правил. Поэтому любые решения, которые мы принимаем сегодня, могут быть пересмотрены через несколько лет, когда технологии получат дальнейшее развитие». Леблё заключает, что новая политика улучшает положение, пусть и не решает проблему целиком. «Хорошая новость (помимо самой процедуры ускоренного удаления) заключается в том, что теперь у нас есть четкое заявление по поводу статей, сгенерированных LLM. Раньше это вызывало споры. И хотя большинство из нас выступает против контента, написанного ИИ, мы не могли договориться, как именно с этим бороться, а ранние попытки разработать комплексную политику провалились. Теперь, опираясь на предыдущие успехи в области борьбы с ИИ-изображениями, черновиками и комментариями в обсуждениях, мы сформулировали более конкретные рамки, которые ясно дают понять: непроверенный, сгенерированный ИИ контент противоречит духу Wikipedia».
CSS
запостил(а)
Kelly
Вернуться назад

Смотрите также


А что там на главной? )))



Комментарии )))



Войти через: