В зависимости от роботов для предоставления новостей из реальных источников может быть не лучшим выбором. Би -би -си недавно исследовала новостные возможности OpenAI, Google Gemini, Displexity и Microsoft Copilot.
Расследование показало, что ошеломляющие 51% всех ответов искусственного интеллекта по темам новостей содержат некоторые важные проблемы той формы. Исследование включало в себя 100 вопросов, связанных с новостями для каждого бота, используя источники BBC, когда это возможно.
Их ответы были затем оценены журналистами, которые являются экспертами в предмете статьи. Некоторые заметные неточности были отмечены в ответах, приведенных AI Chatbots.
Близнецы неправильно заявили, что Национальная служба здравоохранения Великобритании (NHS) не поддерживает Vaping как метод прекращения курения. И CHATGPT, а также Копилот по ошибке утверждали, что некоторые политики, которые ушли в отставку, все еще были в должности.
Перпексильность принесла еще более тревожные результаты, она неверно истолковала статью BBC, касающуюся Ирана и Израиля, заявив, что мнения авторов и источников, которые никогда не были выражены.
Когда дело доходит до его статей, BBC сообщила, что 19% сгенерированных AI резюме состояли из фактических неточностей, неверных рисунков и данных, а также изготовления ложных утверждений. Более того, 13% прямых кавычек были либо изменены из источника, либо полностью отсутствовали в цитируемой статье.
Неточности не были равномерно распространены среди ботов, хотя это может принести небольшое утешение, так как один из них работал очень хорошо. Согласно BBC, «Microsoft Copilot и Google Близнецы проявили более значительные проблемы, чем Catgpt и недоумение Openai».
Тем не менее, и с недоумением, и CHATGPT все еще сталкивались с проблемами с более чем 40% своих ответов. В сообщении в блоге генеральный директор BBC Дебора Турнс выразила сильную критику компаний, которые были вовлечены в ссылку на то, что текущие применения ИИ играют с Fire.
Тернесса заметила: «Мы живем в беспокойные времена. Сколько времени пройдет до того, как заголовок, связанный с AI, приведет к серьезным последствиям в реальном мире? »