Криза бібліотек: користувачі ChatGPT масово вимагають вигадані книжки, це ускладнює пошук реальних джерел

Бібліотекарі — і книжки, які вони так цінують — уже ведуть програну боротьбу за нашу увагу з усіма видами “техно-засмічення” мозку. Тепер їхнє становище ускладнюється ще більше: моделі ШІ на кшталт CharGPT виробляють стільки вигадки, що студенти й дослідники приходять у бібліотеки та просять журнали, книжки й записи, яких ніколи не існувало.

У заяві Міжнародного Комітету Червоного Хреста (МКЧХ), яку процитував журнал Scientific American (SciAm), організація попередила, що чат-боти (переважно це ChatGPT, Gemini та Copilot, але йдеться і про інші) схильні вигадувати архівні посилання і “галюцинувати”, коли працюють зі списком джерел для інфомації. Бібліотекарі, які працюють з дослідниками, підтверджують, що це правда.

“Ці системи не проводять досліджень, не перевіряють джерела та не здійснюють перехресних перевірок. Вони генерують новий контент на основі статистичних закономірностей і тому можуть продукувати вигадані каталожні номери, описи документів або навіть посилання на платформи, яких ніколи не існувало”, — зазначає МКЧХ, який утримує велику бібліотеку та архів.

Керівниця напряму роботи з дослідниками у Бібліотеці Вірджинії Сара Фоллз розповіла SciAm, що вигадки ШІ марнують час бібліотекарів, яких просять відшукати неіснуючі записи. За її словами, 15% запитів електронною поштою, які отримує її бібліотека, нині згенеровані ChatGPT і містять “галюциновані” першоджерела та вигадані публікації. Співробітникам буває дуже складно довести, що унікального запису просто не існує. Інші бібліотекарі та науковці також заявляли про руйнівний вплив ШІ на їхню роботу.

“Сьогодні вранці я витратила час, шукаючи цитати для студентки. На третій цитаті (без жодного результату) я спитала, звідки список, і студентка зізналася, що це з AI-підсумку Google”, — написала користувачка Bluesky, яка назвала себе бібліотекаркою зі сфери наукових комунікацій.

Компанії зі сфери ШІ спрямували велику увагу на створення “міркувальних” моделей, які нібито здатні проводити масштабні дослідження за кількома підказками. OpenAI у лютому представила свій “агентний” інструмент для досліджень, який, за твердженням компанії, працює “на рівні аналітика”. Тоді ж OpenAI казала, що він менше галюцинує, ніж інші моделі, але визнавала, що йому важко відрізняти “авторитетну інформацію від чуток”. МКЧХ попередив про цю небезпечну ваду у своїй заяві, і наголосила, що ШІ “не здатен вказати, що інформації не існує”. Натомість він вигадує деталі, які здаються правдоподібними, але не мають жодного стосунку до архівних даних.

“Через кількість створеного мотлоху, пошук записів, про існування яких ти точно знаєш, але які непросто знайти, став набагато складнішим”, — поскаржився один дослідник у Bluesky.

Попри те, що галюцинації ШІ давно відомі й жодна AI-компанія не досягла значного прогресу в їхньому приборканні, технологія продовжує створювати хаос у наукових дослідженнях. Науковців і дослідників — які мали б бути максимально емпіричними та критичними — дедалі частіше ловлять на поданні робіт із вигаданими ШІ цитуваннями. Іронічно, але сама галузь досліджень штучного інтелекту тоне у хвилі AI-написаних статей, бо деякі академіки щороку публікують понад сотню низькоякісних робіт. І поки що ніщо не існує у вакуумі — справжні, написані людьми джерела та дослідження починають тонути в цьому шумі.

Джерело: Futurism.com

https://itc.ua/ua/novini/kryza-bibliotek-korystuvachi-chatgpt-masovo-vymagayut-vygadani-knyzhky-tse-uskladnyuye-poshuk-realnyh-dzherel/

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *