Код, статья, вёрстка и музыка: что уже может создать по описанию самый мощный алгоритм генерации текстов OpenAI GPT-3

Это ещё далеко не искусственный интеллект, но уже есть примеры работ, для которых почти не нужны люди.

Код, статья, вёрстка и музыка: что уже может создать по описанию самый мощный алгоритм генерации текстов OpenAI GPT-3
66 показов
31K31K открытий
33 репоста

А вот интересно, сколько Есенин или Бродский или Байрон терабайт текстов прочитали, чтобы обучиться писать свои стишки? 
Бля, мне одному кажется, что если Курт Кобейн к 30 годам уже все свои шедевры написал и застрелился, так и не прочитав 575ГБ текста, то это вот обучение, которое привело машину к тому, что она может срифмовать кеды и полукеды - тупик чуть более чем полностью?

Ответить

Это классическая проблема нейросетей. Вам достаточно один раз получить удар током, чтобы не лезть в розетку. А нейросети примерно 1000. 

Но ваш комментарий какой-то странный, вы пытаетесь унизить алгоритм? Вот это обучение.. тупик.. Это просто уровень развития технологий. Это не хорошо или плохо, это настоящая реальность. Почему вы от нее ожидаете больше? 

Аналогично вашему комментарию можно было написать: "Какие же тупиковые эти автомобили, до сих пор чтобы доехать до работы надо стоять в пробке".

Не принимайте мой комментарий близко к сердцу. Я был вынужден заступиться за технологии :) Просто люди слишком много хотят от алгоритмов. Формируются завышенные ожидания, журналисты надувают очередной пузырь. Это все вредит индустрии.

Ответить

 Бля, мне одному кажется, что если Курт Кобейн к 30 годам уже все свои шедевры написал

Ага, вам одному кажется. Музыка — это чувства, текст там пиздец детсадовский, что-то типа версии "GPT - минус ахуллиард по наклонной вниз и еще в подвал спуститься"

Ответить

Не одному, полностью поддерживаю и разочарован в тупиковости таких нейронок

Ответить