Когда вы задаете вопрос этому "попугаю", он начинает вспоминать, какие слова чаще всего появлялись вместе в разговоре на эту тему. Например, если вы спросите его: "Что такое кошка?", "попугай" не вспомнит как выглядит кошка, он совершенно не понимает, что это такое. (давайте представим, что наш попугай — слепой) Однако он помнит, что люди часто упоминали "животное", "мяукает", "домашнее", и так далее, когда говорили о кошках. Он использует эти ассоциации, чтобы дать ответ, который звучит осмысленно.
А вы понимаете смысл слов? Или ваш мозг обманывает вас, создавая иллюзию «понимания»?)
Я боялся, что кто-то эту тему начнет) она нас может увести очень далеко и в конце концов окажется, что да, это все иллюзия)
Да, это проверяется вопросами на логику или например предоставлением инструкций, которые я могу понять и выполнить, и дать ответ на их основе. Языковые модели с этим не справляются. На таких вещах вылезает "стохастический попугай" и выдаёт бред.
Можно например попросить посчитать буквы в предложении. С такой задачей обычно справится даже ребёнок, но у того же GPT-4 с этим большие трудности.
Как ИИ будет учиться, когда бОльшая часть текстов в сети будут им же сгенерированы?
Очень хороший вопрос. Это не моя мысль, что GPT - это тупик в развитии ИИ. Это как автомобиль, который можно улучшать, пока он до 300 км в час не будет разгоняться. Но все равно, в космос он не полетит, как его не улучшай, так как принципы не те.
Страшно подумать, что мы вскоре получим))
А разве ребенок не предугадывает то, что хотят от него услышать взрослые?