Это было только начало. В OpenAI поставили задачу создать модель, которая не нуждалась бы в тонкой настройке и требовала лишь нескольких демонстраций для понимания задачи. Так появилась GPT-3 со 175 миллиардами параметров. Обучалась система на пяти база данных — Common Crawl, WebText2, Books1, Books2 и Wikipedia. Эта модель имела в десять раз больше параметров, чем Microsoft Turing NLG от Microsoft и nvidia.
Но ведь буква И тоже упала, и поэтому ответ не верен. Факап короче.
ChatGPT это прежде всего фантазёр, генератор абсурда
Оценка актуальной продукции ChatGPT: "правдоподобный человеческий вывод".
https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/