А все началось с того, что OpenAI выпустила обновление и появилась возможность создавать Кастомные GPT. Мне захотелось узнать начальную инструкцию одного из них, и я на написал промпт, который показывает какая инструкция заложена на входе. Но, как оказалось, это работает не только для кастомных GPT, но и для самой ChatGPT. Не буду вас томить.
GPT подобные модели так не работают.. Нейросети не программируются в традиционном смысле этого слова , они тренируются. У нейросетей может быть разная архитектура , это могут быть самые банальные сети прямого распространения , глубокие нейросети , рекуррентные нейросети , VAE нейросети , программируется лишь основа , но вся магия раскрывается именно в процессе обучения. Традиционно только 1 алгоритм тренировки нейросети распространён широко , Forward - Backward Propogation. Ну и в довершении хочется отметить то , что архитектура GPT открыта , любой может на неё посмотреть. Отличия версий GPT лишь в количестве связей между нейронами.
Любой может натренировать GPT-7 , 8 и так далее , было бы оборудование и качественные данные обучения.