Увімкнено
Сміття штучного інтелекту загрожує погіршити зручність використання Вікіпедії, і її редактори встають на захист.
Як повідомляє 404 Media, команда редакторів Вікіпедії зібралася для створення «WikiProject AI Cleanup», який описує себе як «колаборацію по боротьбі з проблемою, що зростає, безджерельного, погано написаного контенту у Вікіпедії, створеного штучним інтелектом».
Група ясно дає зрозуміти, що вони не хочуть повністю забороняти відповідальне використання ШІ, а натомість прагнуть викорінити випадки використання поганого джерела, наповненого галюцинаціями або іншим чином непотрібного ШІ-контенту, який підриває загальну якість одного з найстаріших інформаційних репозиторіїв інтернету.
"Мета цього проєкту не в тому, щоб обмежити або заборонити використання ШІ у статтях, — йдеться на форумі команди захисників Вікіпедії, готових до бою, — а в тому, щоб перевірити, що його результати прийнятні та конструктивні, а також виправити або видалити їх в іншому випадку."
Спектр сміття
У деяких випадках, як розповіли редактори 404 Media, неправильне використання ШІ очевидне. Однією з явних ознак є те, що користувачі інструментів штучного інтелекту залишають у записах Вікіпедії відомі автовідповіді чат-ботів, наприклад, абзаци, що починаються зі слів «як мовна модель штучного інтелекту, я...» або «на момент мого останнього оновлення знань». Редактори також кажуть, що навчилися розпізнавати певні письмові зразки та «помітні фрази», що дозволило їм виявляти та нейтралізувати недбалий текст, створений штучним інтелектом.
"Деякі з нас помітили переважання неприродного написання, яке мало явні ознаки того, що воно було створене штучним інтелектом, і нам вдалося відтворити подібні "стилі" за допомогою ChatGPT", — розповів 404 Media один із засновників WikiProject AI Cleanup Ільяс Лебле, додавши, що "виявлення деяких поширених індикативних фраз, що використовуються штучним інтелектом, дозволило нам швидко виявити деякі з найбільш кричущих прикладів створених статей".
З усім тим, велику частину неякісного контенту створеного штучним інтелектом виявити складно, особливо коли йдеться про помилки, що явно звучать, але приховані в складному матеріалі.
Одним із прикладів, позначених редакторами 404 Media, була винятково створена історія «дерев'яної» фортеці Османа, якої насправді ніколи не існувало. Хоча це було просто неправильно, сам текст був досить непоганим, і якщо ви не спеціалізуєтеся на османській архітектурі XIII століття, ви, мабуть, не помітите помилки.
Як ми вже повідомляли раніше, редактори Вікіпедії в деяких випадках вирішили знизити надійність деяких сайтів новин, таких як CNET, які минулого року ми викрили в публікації статей про штучний інтелект, що містять помилки, як прямий результат неправильного використання штучного інтелекту.
З огляду на те, що масове виробництво неймовірно дешеве, обмежити недбалий контент, створений штучним інтелектом, часто буває складно. Додайте до цього той факт, що Вікіпедія є і завжди була краудсорсинговим інтернет-проєктом, керованим волонтерами, і боротися із хвилею сміття, пов'язаного зі штучним інтелектом, стає набагато складніше.
Джерела: 404 media