Почему ИИ не может написать слово «аквааэробика»

Сколько раз буква «а» встречается в слове «аквааэробика»? Согласно последним версиям ИИ, таким как GPT-4o и Claude , ответ — трижды.

Почему ИИ не может написать слово «аквааэробика»

🚀 Решайте свои задачи с помощью последних самых дорогих версий искусственного интеллекта!

🚀 Бот ChatGPT по-русски умеет:

📃 Писать рефераты, курсовые, дипломы.

📐 Решать задачи.

👨🏻‍💻 Программировать.

🖼 Рисовать изображения.

📝 Писать за вас любые тексты

🧠 Предлагать идеи на любые темы.

Жмите ChatGPT по-русски

Большие языковые модели (LLM) могут писать эссе и решать уравнения за считанные секунды. Они могут синтезировать терабайты данных быстрее, чем люди могут открыть книгу. Тем не менее, эти, казалось бы, всезнающие ИИ иногда терпят неудачу настолько эффектно, что неудача превращается в вирусный мем, и мы все радуемся с облегчением, что, возможно, еще есть время, прежде чем нам придется поклониться нашим новым повелителям ИИ.

Почему ИИ не может написать слово «аквааэробика»

Неспособность больших языковых моделей понять концепции букв и слогов свидетельствует о более масштабной истине, о которой мы часто забываем: у этих существ нет мозгов. Они не думают так, как мы. Они не люди и даже не особенно похожи на людей.

Большинство LLM построены на трансформаторах, своего рода архитектуре глубокого обучения. Модели трансформаторов разбивают текст на токены, которые могут быть полными словами, слогами или буквами, в зависимости от модели.

«LLM основаны на этой архитектуре трансформатора, которая, что примечательно, на самом деле не читает текст. Когда вы вводите подсказку, она переводится в кодировку», — сказал Мэтью Гуздиал, исследователь ИИ и доцент Университета Альберты, в интервью TechCrunch . «Когда он видит слово «два», у него есть эта одна кодировка того, что означает «два», но он не знает о «д», «в», «а»».

Это связано с тем, что трансформаторы не способны эффективно воспринимать или выводить фактический текст. Вместо этого текст преобразуется в числовые представления самого себя, которые затем контекстуализируются, чтобы помочь ИИ придумать логический ответ. Другими словами, ИИ может знать, что токены «аква» и «аэробика» составляют «аквааэробика», но он может не понимать, что «аквааэробика» состоит из букв «а», «к», «в», «э», «р», «о», «б» и «и» в конкретном порядке. Таким образом, он не может сказать вам, сколько букв — не говоря уже о том, сколько «а» — встречается в слове «аквааэробика».

Эту проблему нелегко исправить, поскольку она заложена в саму архитектуру, которая обеспечивает работу этих LLM.

Почему ИИ не может написать слово «аквааэробика»

Кайл Виггерс из TechCrunch в прошлом месяце углубился в эту проблему и поговорил с Шериданом Фойхтом, аспирантом Северо-Восточного университета, изучающим интерпретируемость LLM.

«Довольно сложно обойти вопрос о том, каким именно должно быть «слово» для языковой модели, и даже если мы заставим экспертов-людей договориться об идеальном словаре токенов, модели, вероятно, все равно сочтут полезным «разбивать» вещи еще больше», — сказал Фойхт TechCrunch. «Я предполагаю, что не существует идеального токенизатора из-за этой нечеткости».

Эта проблема становится еще сложнее, когда LLM изучает больше языков. Например, некоторые методы токенизации могут предполагать, что пробел в предложении всегда будет предшествовать новому слову, но во многих языках, таких как китайский, японский, тайский, лаосский, корейский, кхмерский и других, пробелы для разделения слов не используются. Исследователь Google DeepMind AI Йенни Джун обнаружила в исследовании 2023 года, что некоторым языкам требуется в 10 раз больше токенов, чем английскому, чтобы передать то же значение.

«Вероятно, лучше всего позволить моделям напрямую смотреть на персонажей, не прибегая к токенизации, но сейчас для трансформеров это просто невозможно с вычислительной точки зрения», — сказал Фойхт.

Генераторы изображений, такие как Midjourney и DALL-E, не используют архитектуру трансформатора, которая лежит под капотом текстовых генераторов, таких как ChatGPT. Вместо этого генераторы изображений обычно используют модели диффузии, которые реконструируют изображение из шума. Модели диффузии обучаются на больших базах данных изображений, и они мотивированы попытаться воссоздать что-то похожее на то, чему они научились из обучающих данных.

Почему ИИ не может написать слово «аквааэробика»

Асмелаш Тека Хадгу, соучредитель Lesan и научный сотрудник Института DAIR , рассказал TechCrunch : «Генераторы изображений, как правило, гораздо лучше справляются с такими артефактами, как автомобили и лица людей, и хуже с такими мелкими объектами, как пальцы и почерк».

Это может быть связано с тем, что эти мелкие детали не так часто появляются в обучающих наборах, как концепции, например, что у деревьев обычно зеленые листья. Проблемы с моделями диффузии, возможно, легче исправить, чем те, что мучают трансформаторы. Некоторые генераторы изображений улучшили представление рук, например, обучаясь на большем количестве изображений настоящих человеческих рук.

«Еще в прошлом году все эти модели были очень плохи с пальцами, и это точно такая же проблема, как и с текстом», — объяснил Гуздиал. «Они становятся действительно хороши в этом локально, так что если вы посмотрите на руку с шестью или семью пальцами, вы можете сказать: «Ого, это похоже на палец». Аналогично, с сгенерированным текстом вы можете сказать, что это похоже на «д», а это похоже на «в», но они действительно плохи в структурировании всех этих вещей вместе».

Вот почему, если вы попросите генератор изображений на основе искусственного интеллекта создать меню для мексиканского ресторана, вы, возможно, получите обычные позиции, такие как «тако», но с большей вероятностью найдете такие предложения, как «тамилос», «энчидаа» и «бурхилтос».

Пока эти мемы о написании слова «аквааэробика» распространяются по интернету, OpenAI работает над новым продуктом ИИ под кодовым названием Strawberry, который, как предполагается, будет еще более искусным в рассуждениях. Рост LLM был ограничен тем фактом, что в мире просто недостаточно обучающих данных, чтобы сделать такие продукты, как ChatGPT, более точными. Но, как сообщается, Strawberry может генерировать точные синтетические данные, чтобы сделать LLM OpenAI еще лучше. Согласно The Information , Strawberry может решать словесные головоломки Connections из New York Times , которые требуют творческого мышления и распознавания образов для решения, и может решать математические уравнения, которые он раньше не видел.

Тем временем Google DeepMind недавно представила AlphaProof и AlphaGeometry 2, системы искусственного интеллекта, предназначенные для формального математического обоснования. Google утверждает, что эти две системы решили четыре из шести задач Международной математической олимпиады, что было бы достаточно хорошим результатом, чтобы получить серебряную медаль на этом престижном конкурсе.

🚀 Решайте свои задачи с помощью последних самых дорогих версий искусственного интеллекта!

🚀 Бот ChatGPT по-русски умеет:

📃 Писать рефераты, курсовые, дипломы.

📐 Решать задачи.

👨🏻‍💻 Программировать.

🖼 Рисовать изображения.

📝 Писать за вас любые тексты.

🧠 Предлагать идеи на любые темы.

Жмите ChatGPT по-русски

3737
52 комментария

GPT-4o

7
1
Ответить

Да, он реально тупит, это баг.
Их в реале 6, он изначально ответил правильно 6, но я спросил уверен ли он в своем ответе, и тут началось...

1
1
Ответить

Если задать этот вопрос несколько раз, то ИИ даст разный ответ. ИИ придумывает ответ.

Ответить
Ответить

А спроси-ка у него "придумай 3 слова из 5 букв, в существительном имени и в единственном числе, чтобы ни одна буква не повторялась ни в одном из этих слов". Раньше ни одна нейросеть не справлялась.

Ответить

Поумнел.

Ответить

Вы просто старую статью взяли для перевода, чатгпт уже всё считает как надо

5
Ответить