Это связано с тем, что трансформаторы не способны эффективно воспринимать или выводить фактический текст. Вместо этого текст преобразуется в числовые представления самого себя, которые затем контекстуализируются, чтобы помочь ИИ придумать логический ответ. Другими словами, ИИ может знать, что токены «аква» и «аэробика» составляют «аквааэробика», но он может не понимать, что «аквааэробика» состоит из букв «а», «к», «в», «э», «р», «о», «б» и «и» в конкретном порядке. Таким образом, он не может сказать вам, сколько букв — не говоря уже о том, сколько «а» — встречается в слове «аквааэробика».
GPT-4o
Да, он реально тупит, это баг.
Их в реале 6, он изначально ответил правильно 6, но я спросил уверен ли он в своем ответе, и тут началось...
Если задать этот вопрос несколько раз, то ИИ даст разный ответ. ИИ придумывает ответ.
А спроси-ка у него "придумай 3 слова из 5 букв, в существительном имени и в единственном числе, чтобы ни одна буква не повторялась ни в одном из этих слов". Раньше ни одна нейросеть не справлялась.
Поумнел.
Вы просто старую статью взяли для перевода, чатгпт уже всё считает как надо