Короче говоря, чуть более 2 лет назад, я, думскроллил о сценариях выхода ИИ из-под контроля, читая статьи на Lesswrong о типичном аргументе скрепки; придёт сверхразум, вы скажете ему «сделай меня счастливым» и бум, ИИ стимулирует часть вашего мозга, которая производит дофамин навечно.
Это спровоцировало неимоверно серьёзную паническую атаку, когда я, фактически отказался от жизни, из-за страха перед каким-то мошенническим ИИ, который будет поддерживать меня в живых во веки веков. Каждый раз, когда я пытался противостоять своему страху, мысль о вечной жизни против моей воли переполняла меня. Я каким-то образом закончил школу, будучи почти парализованным 24/7, в течение всего года. Хотя симптомы тревоги остались и я не могу ходить в школу или что-нибудь делать, недавно я вновь обрёл надежду на то, что моя жизнь не обязательно должна заканчиваться на этом.
- Подобно тому, как позитивный хайп разоряет людей, думеризм так же наносит людям серьёзный вред.
Абсолютно верно, если Гугл дает много вариантов поиска, то ИИ выдает единственный вариант, часто сомнительный и не дает выбора. Главные недостатки ИИ фальсификация информации и отсутствие альтернативы и выбора. Назойливый пиар ИИ в СМИ реально задобал.
Главный недостаток нейросетей - они не понимают о чем ведут речь, для LLM нет разницы, между тем, чтобы сказать что-то правдивое, что-то ложное или полную чепуху.
Bing даёт ответ и ссылки на ресурсы, по заданному вопросу.
Автор как-то упустил из виду, что параллельно с хайпом вокруг ИИ, полно примеров его реального продуктивного использования, и есть много сфер, где использование ИИ гораздо продуктивнее, и выгоднее, чем использование ресурсов человека.
А если не нравится результат, который выдает GPT, посмотри внимательно запрос - может ты дал машине слишком мало деталей и конкретики? Качество запроса определяет качество ответа.
А если не нравится результат, который выдает GPT, посмотри внимательно запрос - может ты дал машине слишком мало деталей и конкретики? Качество запроса определяет качество ответа.
И тут мы приходим к тому, что люди в принципе плохо задают вопросы - после того, как вы знаете достаточно, чтобы задать правильный вопрос - самому написать решение быстрее, чем заниматься психотерапией для нейросетки.
И тут есть вторая проблема - весь такой софт может "галлюцинировать", и чтобы отличить галлюцинации от реальности - надо владеть темой. А тут мы приходим к исходному вопросу - при недостаточном качестве вопроса задающий не может определить - это галлюцинация или нет. А при достаточном качестве вопроса - весь результат всё равно придётся ревьювить.
Про медицинский пример в статье:
там две проблемы:
1. нейросетка нагаллюцинировала BMI (которого НИГДЕ нет в исходных данных - рост есть, а веса нет, его не с чего считать)
2. history of depression не подразумевает, что депрессивный эпизод есть сейчас. А нейросетка утверджает, что он есть.
Пиздец, просто гигатонны воды, а свелось все к тому, что ИИ расхайплен, перечислению всем уже известных проблем, и продукты на его основе рекламируют не бесплатно. Время потраченное на чтение этого океана с теориями заговора о рекламе мне к сожалению никто не вернёт уже, в следующий раз попрошу нейросетку в браузере пересказать покороче
"перечислению всем уже известных проблем" - реально всем?
А хули тогда хомячки продолжают инфоИИгавно употреблять.