Несанкционированная утечка доступа к инновационной модели Sora компании OpenAI привела к значительному сбою в секторе искусственного интеллекта. Sora — это инструмент для преобразования текста в видео, который довольно популярен среди пользователей благодаря своей способности создавать короткие и высококачественные видеоролики. Эти видеоролики обладают удивительной визуальной связностью, что является основной причиной того, что они привлекли большое внимание пользователей.
Утечка вызвала серьезные опасения относительно потенциальной эксплуатации инструмента и феномена «промывки произведений искусства». Доступ к этому инструменту был конфиденциальным, однако мгновенный доступ был предоставлен общественности через утекший ключ API или ключ интерфейса прикладного программирования.
Утечка была опубликована на платформе Hugging Face под именем пользователя «PR-Puppets», и, согласно отчетам, она связана с людьми, которые участвовали в этапе тестирования, поскольку у них был доступ к инструменту.
Были подняты критические вопросы о взаимосвязи между корпоративной ответственностью, трудом и инновациями. Утечка интерфейса модели была опубликована в открытом письме, адресованном «Corporate AI Overlords».
Сора: Что это?
Sora — великолепный инструмент в области генеративной технологии искусственного интеллекта, и эта модель способна конвертировать текстовые подсказки в видео продолжительностью около одной минуты.
Используя методы различных моделей, включая Dall-E 3, Sora смогла добиться точного единообразия преобразования текста в изображение, а со временем улучшила его согласованность.
Создав Sora, OpenAI сделала важный шаг на пути к общему искусственному интеллекту, и это ИИ, который может выполнять любую интеллектуальную задачу, которую может выполнить человек. Он также демонстрирует разностороннее мышление и адаптивность.
Тем не менее, как и другие технологии, эта также имеет определенные ограничения. Перед ним стоят задачи точного воспроизведения сложных физических явлений и обеспечения безопасности контента.