Full Stack разработчик
Тут дело в ресурсах и технологиях. Чтобы реально появился AGI, и он был повсюду, если пофантазировать то нужно построить как минимум 100 больших реакторов, около 10 000 000 топовых чипов NVIDIA на 3-4 года потом надо будет обновлять, не считая других компьютерных комплектующих.
У человечества, одним словом, нет столько ресурсов. К тому же, нужно обеспечивать потребность всего мира в чипах, у нас же не только ИИ, но и другие направления есть. Добавьте сюда геополитику, человеческий фактор, экономические кризисы ...
Я же не говорю, что это совсем невозможно, я просто указываю на текущие ограничения. Возможно, в каком то будущем это станет возможным, но не в ближайшем.
А кто спорит, что LLM учитывает контекст? Разумеется, учитывает. Статья, которую вы привели "Attention Is All You Need", как раз и описывает тот самый механизм, который позволяет современным моделям так хорошо этот контекст обрабатывать.
Но вся эта сложная обработка контекста, логики и семантики служит для решения одной задачи предсказания наиболее вероятного следующего токена "слова".
Аналогия с T9 это просто сильное упрощение, чтобы объяснить принцип для простых людей.
Пузырь лопнет в 2026 году. Только 10% из всех пользователей платят за подписку. Даже если бы платили все пользователи, этого всё равно было бы недостаточно для покрытия всех текущих расходов. Они работают в убыток и это не может продолжаться вечно...
Про 90% задач это преувеличение. LLM не разрабатывает стратегию. Она компилирует текст, похожий на стратегию, на основе миллионов прочитанных ею стратегий. Она не несет за нее ответственности и не понимает ее последствий.
Насчет предсказаний слов: Человек вообще не предсказывает слова. Он формулируют мысли, видение. Он понимает смысл того, что говорит.
LLM это инструмент. Мощный инструмент для работы с текстом. Но он не мыслит, он симулирует текст.
Разница в том, что когда вы говорите про импульсы в нейронах, вы упускаете то, что за ними стоит а это сознание, понимание и субъективный опыт.
А когда я говорю "просто предсказывает слеудуещее слово", я буквально описываю механизм работы LLM.
За импульсами человека есть понимание. За предсказанием LLM нету понимания. В этом вся разница. Поэтому это не равнозначные упрощения
Сравнивать человека с LLM вот что реально пошло. А Т9 это аналогия.
Никто и не спорит, что LLM это инструмент и таковым останется еще надолго. Суть статьи не в этом, а в том, что AGI никогда не появится в рамках наших технологий. Да, он может появиться на основе других чипов, вроде квантовых процессоров, но на это может уйти десятки лет исследований.
Боюсь вас разочаровать, но полноценного AGI мы никогда не получим. Если вы прочитали статью внимательно, я отметил 3 причины, почему этого не будет.
Можно теоретически представить, что бигтех компании типа Google на базе текущих технологий с помощью ИИ агентов настроят +- что то похожее на AGI. Во первых, он будет суперлокальный, для внутренних нужд компании, так как будет жрать очень много ресурсов. Во вторых, без контроля человека этому AGI нельзя будет доверять, так как внутри него а точнее, внутри моделей может скрываться огромное количество галлюцинаций, которые вручную никак не могут быть устранены.
То есть это уже не AGI, а слабая пародия, имитация AGI. Пофантазировать можно но маловероятно.
То же самое можно сказать, что Википедия умнее тебя, просто потому, что там огромное количество статей. Но Википедия это не нейронка, но если вбить в поиск Википедии название статьи, она тебе его даст.
Просто нейронка научилась предсказывать слова ничего больше.
Ты можешь не понимать много чего из науки, но при этом, если ты что то создашь новое, чего еще не было, и покажешь это нейронке, она скажет: Я не знаю что это, я не понимаю что с этим делать. Вот и думай...
Его понять, конечно, можно он как бы за человечество волнуется, и в какой то степени я его поддерживаю. Но вот он говорит, что ИИ нельзя будет отключить с этим я не согласен. И то, что ИИ себя скопирует во все возможные места, ну, это уже бред какой то из мира фантастики. Даже если ИИ себя скопирует, где он возьмет ресурсы на обслуживание своих вычислений? Это же будет не простая моделька, я так понимаю, а модель, которая будет жрать очень много ресурсов. С другой стороны, может быть много сценариев, где ИИ создает мини-модельки, которые нужны только для одного поиска больших дата-центров и загрузки основной модели. Такой сценарий тоже возможен, но с этим мы можем бороться. Мы также можем создавать кучу собственных моделей, заточенных на проверку системы, на апгрейд защиты. В целом я его поддерживаю нам не нужен суперинтеллект. Безусловно, все эти компании движутся в направлении создания суперинтеллекта я это, конечно же, не поддерживаю, а вот того, что мы имеем сейчас, вполне достаточно.