Згідно з дослідженням Центру цифрової журналістики Колумбійського університету, ChatGPT-пошуку OpenAI важко точно цитувати видавців новин.
У звіті виявлено часті неправильні цитати та неправильні посилання на авторство, що викликає занепокоєння серед видавців щодо видимості бренду та контролю над їхнім вмістом.
Крім того, отримані дані ставлять під сумнів прихильність OpenAI відповідальному розвитку ШІ в журналістиці.
Довідкова інформація про пошук ChatGPT
Минулого місяця OpenAI запустив ChatGPT Search, стверджуючи, що він активно співпрацює з індустрією новин і враховує відгуки видавців.
Це контрастує з початковим розгортанням ChatGPT у 2022 році, коли видавці виявили, що їхній вміст використовувався для навчання моделей ШІ без повідомлення чи згоди.
Тепер OpenAI дозволяє видавцям вказувати за допомогою файлу robots.txt, чи хочуть вони бути включеними в результати пошуку ChatGPT.
Однак висновки Tow Center свідчать про те, що видавці стикаються з ризиком неправильного поширення та спотворення інформації незалежно від свого вибору участі.
Проблеми з точністю
Tow Center оцінив здатність ChatGPT Search визначати джерела цитат з 20 публікацій.
Основні висновки включають:
- З 200 запитів 153 відповіді були неправильними.
- ШІ рідко визнавав свої помилки.
- Такі фрази, як «можливо», були використані лише в семи відповідях.
ChatGPT часто надає пріоритет приємним користувачам над точністю, що може ввести читачів в оману та завдати шкоди репутації видавців.
Крім того, дослідники виявили, що пошук ChatGPT непослідовний, коли йому задають одне й те саме запитання кілька разів, ймовірно, через випадковість, вбудовану в його мовну модель.
Цитування скопійованого та синдикованого вмісту
Дослідники виявили, що пошук ChatGPT іноді цитує скопійовані чи синдиковані статті замість оригінальних джерел.
Ймовірно, це пов’язано з обмеженнями видавця або системними обмеженнями.
Наприклад, коли запитали цитату зі статті New York Times (яка зараз бере участь у судовому процесі проти OpenAI і блокує її сканери), ChatGPT посилався на неавторизовану версію на іншому сайті.
Навіть у MIT Technology Review, який дозволяє роботам OpenAI, чат-бот цитував синдиковану копію, а не оригінал.
Центр буксирування виявив, що всі видавці ризикують ввести в оману пошук ChatGPT:
- Увімкнення сканерів не гарантує видимості.
- Блокування сканерів не запобігає відображенню вмісту.
Ці проблеми викликають занепокоєння щодо фільтрації контенту OpenAI та його підходу до журналістики, що може відштовхнути людей від оригінальних видавців.
Відповідь OpenAI
OpenAI відповів на висновки Tow Center, заявивши, що він підтримує видавців через чітке посилання та допомагає користувачам знаходити вміст за допомогою резюме, цитат і посилань.
Представник OpenAI заявив:
«Ми підтримуємо видавців і творців, допомагаючи 250 мільйонам користувачів ChatGPT щотижня знаходити якісний вміст за допомогою резюме, цитат, чітких посилань і посилання. Ми співпрацюємо з партнерами, щоб підвищити точність вбудованого цитування та поважати налаштування видавців, у тому числі дозволити, як вони відображаються в пошуку, керуючи OAI-SearchBot у їхніх robots.txt. Ми продовжуватимемо покращувати результати пошуку».
Незважаючи на те, що компанія працювала над підвищенням точності цитування, OpenAI каже, що важко вирішувати конкретні проблеми неправильного віднесення.
OpenAI продовжує вдосконалювати свій пошуковий продукт.
Дивлячись вперед
Якщо OpenAI хоче співпрацювати з індустрією новин, він повинен забезпечити точне представлення вмісту видавців у ChatGPT Search.
Наразі видавці мають обмежені повноваження та уважно стежать за судовими справами проти OpenAI. Результати можуть вплинути на права використання вмісту та дати видавцям більше контролю.
Оскільки такі генеративні пошукові продукти, як ChatGPT, змінюють те, як люди взаємодіють з новинами, OpenAI має продемонструвати відданість відповідальній журналістиці, щоб заслужити довіру користувачів.
Рекомендоване зображення: Роберт Вей/Shutterstock