Цей штучний інтелект може допомогти людям визначити підроблені новини
Криміналістична експертиза підроблених новин
Команда дослідників з Гарварду і MIT-IBM Watson AI Lab створила систему, яка, за їхніми словами, може визначати, чи був текст згенерований іншим AI. Вони сподіваються закласти основу для майбутніх інструментів, які могли б спростити виявлення фальшивих коментарів або навіть новинних статей в Інтернеті.
Випробувальна кімната моделі Giant Language — це «інструмент, який допомагає людям визначати, чи був текст згенерований моделлю», згідно з препринтом дослідження, опублікованого на arXiv в червні. Ви можете спробувати демо самостійно, натиснувши тут.
Людська помилка
Основна концепція інструменту досить проста: текст, написаний людиною, набагато більш непередбачуваний в тому, як він структурований.
Система не зможе «автоматично виявляти великомасштабні зловживання» через свого обмеженого масштабу — вона була розроблена для виявлення підробленого тексту тільки в окремих випадках.
обманювати люди
Система далеко не ідеальна: перехресне посилання на текст з декількома поширеними AI-генераторами тексту дозволила поліпшити «рівень виявлення підробленого тексту з 54% до 72% без попереднього навчання«.
Дослідники також визнають, що майбутні генератори фальшивих текстів можуть легко обдурити свою систему, змінивши «параметри вибірки для кожного слова або пропозиції, щоб зробити його більш схожим на мову, яку він намагається імітувати».
Джерела: The Next Web