OpenAI создала ИИ-модель для генерации выжимок из книг Статьи редакции
Сначала она делает выжимки из разделов, которые обобщает в текст.
Модель искусственного интеллекта разработана на основе GPT-3. OpenAI не планирует делать её доступной или выкладывать исходный код.
По словам исследователей, эта модель — часть постоянных исследований компании по развитию искусственного интеллекта.
Сначала модель делит книгу на разделы и делает выжимку каждого, которые объединяет ещё в несколько выжимок, пока не получится финальный текст.
В качестве примера компания приводит несколько книг — например, «Алису в Стране чудес», в которой 26 тысяч слов, модель сократила до 66 выжимок по 6 тысяч слов, затем до шести по 830 слов. В финальном пересказе осталось 136 слов.
OpenAI обучил модель на художественных книгах в обучающем наборе данных GPT-3, которые содержали в среднем больше 100 тысяч слов, пишет VentureBeat.
Для оценки модели исследователи взяли 40 самых популярных книг 2020 года и поручили двум людям прочитать их и написать выжимку, а затем оценить друг друга и модель.
Модель успешно создавала тексты «на уровне книги», которые содержали большую часть информации, но иногда генерировала неточные утверждения из-за отсутствия контекста, говорят исследователи.
Это уже страшно 😨
Получается ИИ очень близок к самостоятельному определению контекста. Какие могут быть последствия в фильмах мы все видели.
да не определяет он ничего, он вообще ничего не понимает. это просто набор условий. тупой алгоритм.
Вы очень заблуждаетесь. Алгоритм - это последовательность команд.
В машинном обучение все строго наоборот, никаких алгоритмов. Изучите тему, прежде чем бросаться такими утверждениями.
И на заметку, достаточно давно уже есть модели нейронных сетей, которые отдаленно понимают контекст.
Программа без алгоритма? Да ну?)) Покажите мне нейронку, написанную без последовательности команд - это ж на нобелевскую премию потянет, не меньше))
Если так рассуждать, то человек тоже живёт по алгоритму. От зачатия и до смерти..Бывает иначе?
Я говорил про результат работы, а не как устроено.
Одна и та же нейронка, с разным набором обучающих данных будет по разному работать..
Работать она будет абсолютно одинаково по заданным заранее алгоритмам, на выходе будет давать разные результаты, потому что были получены разные данные.
Как микроволновка - положишь туда мясо - выдаст подогретое мясо. Положишь молоко - подогреет молоко. Но работать она будет абсолютно одинаково, по заданным производителем алгоритмам.