Что нас ждёт после появления сильного ИИ или неотвратимая логика социально-технологического развития

Я материалист, и поэтому мне радостно видеть впечатляющие успехи больших языковых моделей как то GPT или PaLM. Тут и осмысленный диалог, и программирование, и сочинение сказок, и написание дипломов, и постановка диагнозов, и попытка jailbreak-а. Bing так вообще угрожает и может демонстрировать влюбленность. Эта радость - она от подтверждения правот…

33

"Если угодно, то душа, сознание и характер распределятся у неё где-то на миллиардах весов, как и у каждого из нас в мозгу."

Нейронные сети - это не доказательство того, что мы устроены точно так же, это всего лишь моделирование нашего устройства. Приближение к пониманию того, как оно есть на самом деле. Нащупывание пределов, где наши модели перестают работать. Поиск Бога, если хотите. Вся научная деятельность, это своего рода и есть поиск Бога. Не того старичка на облачке, а той первопричины, из-за которой вот это вот всё вокруг теперь.

Вот почему Эйнштейн дошёл до своей Теории Относительности? Он допускал, что существующая ньютоновская модель не полностью соответствует физической реальности. А многие другие физики свидетельства расхождения теории с реальностью предпочитали не рассматривать, чтобы не портить сложившейся картины мира, где им всё понятно.

Нейронные сети - это очень приблизительное представление о том, как устроен разум человека. Я бы не ограничивал себя в изучении разума рамками этой модели и точно воздержался бы от заявлений, что разум - это всего лишь миллиарды весов в нейронной сети нашего мозга. Не говоря уж про сознание и душу - это материи вообще для нас пока что тёмный лес. Так что зря вы гуманитариев со счёта списываете ;)

2
Ответить

Спасибо за коммент!
Согласен, что нейросети и наш мозг - это две разные вещи. Вообще искусственный нейрон очень далёк от того, как устроен настоящий нейрон у нас в голове. У Алексея Редозубова в его трудах "Логика сознания" и "Логика мышления" очень подробно расписывается.
Но с другой стороны и необязательно повторять биологический материал в софте. В конце концов для перемещения на авто у последней есть колёса, а не ноги. Тут самое интересное, что кажется большие языковые модели нащупали то, что нужно - генеративность на основе статистики позволяет смоделировать разумность. А дальше уже этот принцип можно масштабировать.
Я тут на днях на канале Onigiri на ютюбе посмотрел, как товарищ научил GPT играть в игру "Мафия". Просто изумительно. Там прям видно, как можно реализовать консолидацию памяти с её постепенным затиранием (просто просишь GPT несколько раз резюмировать текст), так отделить генерацию контента от стиля (просто просишь GPT исправить текст) и другое. То есть ансамбль моделей GPT уже может делать то, что ещё лет 10 назад было просто невозможно представить.
В конце концов я помню, как Abbyy тайком с 1990 годов разрабатывала Compreno. Это должен быть такой супер продукт, который бы понимал текст и мог бы его качественно переводить. Там было подключено туева хуча суперспециалистов, в том числе мега лингвистов. И что? Оказалось, что подход, когда "скорми трансформер модели овердофига текста и он сам разберётся" работает гораздо лучше. А почему? А потому что так наш мозг и работает

1
Ответить