Результаты GPT-3 выдающиеся, но алгоритм всё ещё может потерять суть текста, забыть о его цели или перестать согласовывать между собой абзацы. А чтобы алгоритм провалил тест Тьюринга, его собеседнику достаточно начать задавать бессмысленные вопросы, например, «сколько глаз у камня?» или «сколько шнузлов вписывается в вамбгут?» — вместо того чтобы сказать «я не знаю», GPT-3 сгенерирует подходящий неподходящий текст.
Мне, как любителю рекурсий, больше всего понравилось его предсказание о выходе следующих версий
Тут нечему удивляться, он уже просчитал, что людям пиздец в 2023.
Комментарий недоступен
А как же алгоритм будет верстать шаблоны в фигме по словам заказчика "сделай красиво"
Комментарий недоступен
А вот интересно, сколько Есенин или Бродский или Байрон терабайт текстов прочитали, чтобы обучиться писать свои стишки?
Бля, мне одному кажется, что если Курт Кобейн к 30 годам уже все свои шедевры написал и застрелился, так и не прочитав 575ГБ текста, то это вот обучение, которое привело машину к тому, что она может срифмовать кеды и полукеды - тупик чуть более чем полностью?
Это классическая проблема нейросетей. Вам достаточно один раз получить удар током, чтобы не лезть в розетку. А нейросети примерно 1000.
Но ваш комментарий какой-то странный, вы пытаетесь унизить алгоритм? Вот это обучение.. тупик.. Это просто уровень развития технологий. Это не хорошо или плохо, это настоящая реальность. Почему вы от нее ожидаете больше?
Аналогично вашему комментарию можно было написать: "Какие же тупиковые эти автомобили, до сих пор чтобы доехать до работы надо стоять в пробке".
Не принимайте мой комментарий близко к сердцу. Я был вынужден заступиться за технологии :) Просто люди слишком много хотят от алгоритмов. Формируются завышенные ожидания, журналисты надувают очередной пузырь. Это все вредит индустрии.