Залежно від роботів для надання новин з фактичних джерел може бути не найкращим вибором. Нещодавно BBC досліджував новини OpenAI, Google Gemini, Respexity та Microsoft Copilot.
Розслідування показало, що приголомшливі 51% усіх відповідей ШІ щодо темно -тем містять деякі значні проблеми. Дослідження передбачало поставку 100 питань, пов’язаних з новинами, кожному бота, використовуючи джерела BBC, коли це можливо.
Потім їхні відповіді оцінювали журналісти, які є експертами, що стосуються статті. Деякі помітні неточності були відмічені у відповідях, наданих чатами AI.
Близнюки неправильно заявили, що Національна служба охорони здоров’я Великобританії (NHS) не схвалює вапінг як метод припинення куріння. Обидва Chatgpt, а також Копілот помилково стверджували, що певні політики, які відступили, все ще були на посаді.
Перпексичність породила ще більш тривожні результати, вона неправильно трактувала статтю BBC щодо Ірану та Ізраїлю, заявивши думки авторів та джерел, які ніколи не були виражені.
Що стосується його статей, BBC повідомив, що 19% підсумків, що генеруються AI, складаються з фактичних неточностей, неправильних цифр та даних та виготовлення помилкових тверджень. Більше того, 13% прямих цитат були або модифіковані з джерела, або були повністю відсутні у цитованій статті.
Неточності не були рівномірно розповсюджені серед ботів, хоча це може запропонувати мало розради, оскільки один з них був надзвичайно добре. За даними BBC, «Microsoft’s Copilot та Gemini Gemini виявляли більш значні проблеми, ніж Chatgpt та здивування OpenAI.»
Однак і здивованість, і Чатгпт все ще стикалися з проблемами з понад 40% їх відповідей. У дописі в блозі генеральний директор BBC Deborah Turness висловив сильну критику компаній, які брали участь, посилаючись на те, що поточні програми AI грають з вогнем.
Турс зауважив: «Ми живемо в неспократі часи. Скільки часу буде до того, як заголовок, що затримується AI, призводить до серйозних наслідків у реальному світі? «