Так компания хочет снизить зависимость от Anthropic.Amazon разработала ИИ-модель, которая может обрабатывать видео и изображения, приводит Reuters сообщение The Information.По словам источников The Information, это позволит компании снизить зависимость от стартапа Anthropic, в который она вложила уже $8 млрд.Новая большая языковая модель (LLM) называется Olympus, она может распознавать содержимое изображений и видео. Это поможет искать в них отдельные фрагменты или кадры — например, в баскетбольном матче выделить эпизод с забрасыванием мяча в кольцо. Для этого нужно будет вводить текстовые запросы.Представить Olympus компания может уже на неделе со 2 декабря 2024 года — на ежегодной конференции AWS re:Invent, которая продлится со 2 по 6 декабря.#новости #amazon
ИИ сам себя скоро зациклит. Будет 99% контента сгенерированного ИИ, который на этом же контенте и будет обучаться. Получится ботнет в будущем)
Не страшно, когда jpg в jpg в jpg получается квадрат.
Страшно, когда народ это использует и не замечает разницы.
Ну не знаю, может это и к лучшему? Будет больше контента, да и качество со временем улучшится))
По факту опять индусы будут?
Да, разметку делает куча индусов и африканцев.
Потом на этих данных обучается модель.
В итоге успех ИИ это куча бабла на найм народа и серваки. 💁♀️
Давайте пожалеем ИИ которому приходится обучаться на видео из тик тока и запоминать всё что там происходит.
Я вам скажу, что даже в тиктоке есть полезные видео, так что предполагаю, ИИ будет выделять только нужный и качественный для себя опыт