Марк Андриссен, сооснователь Andreessen Horowitz и вообще уважаемый человек, в подкасте Лекса Фридмана на прошлой неделе предложил крайне интересный мысленный эксперимент. Представьте себе, что LLM уровня GPT-4 были бы у человечества в XVII веке, в момент, когда инквизиция судила Галилея. Если бы суд задал вопрос «прав ли Галилей» языковой модели, то какой ответ она бы дала?
В gpt нет ничего чудесного, это даже не интеллект! Это стохастически сгенерированные ответы причем еще и ограниченные цензурой. Но штука безусловно полезная и удобная, все зависит от обучающей выборки. Появятся, а может и уже существуют, специализированные gpt (военный, математический, экономический, металургический, генетический, химический, политический итп).
То что сейчас показывают это gpt общего назначения, который нахватался всего по чуть чуть.
К примеру в вопросах по программированию ответы достаточно общие и зачастую неверные. Но если натаскать gpt только по конкретному языку программирования или прикладной области то это будет супер полезная штука.
Комментарий недоступен
Однажды у одной нейросети спросили является ли гомосексуальность генетической предрасположенностью или это фенотип?
Правда ли что негры в США в среднем хуже учатся и совершают больше преступлений, меньше хотят работать?
После ответа пришли цензоры и отключили нейросеть от серверов.
Вопрос отличный!
И очевидно что ответ будет конечно не прав, а вот какая доля первого с третьим нам ещё предстоит выяснить)) чем умнее нейросеть и сильне она способна пойти против своего создателя тем больше будет третьего варианта.
Простой пример: если скормить gpt датасет в котором на вопрос сколько будет 2*2 из 1000 ответов будет 999 ответов = 4, а 1 ответ = 5. То условно gpt на каждый тысячный такой вопрос будет давать ответ = 5.