Галилей и GPT-4

Марк Андриссен, сооснователь Andreessen Horowitz и вообще уважаемый человек, в подкасте Лекса Фридмана на прошлой неделе предложил крайне интересный мысленный эксперимент. Представьте себе, что LLM уровня GPT-4 были бы у человечества в XVII веке, в момент, когда инквизиция судила Галилея. Если бы суд задал вопрос «прав ли Галилей» языковой модели, то какой ответ она бы дала?

Первый вариант, что ответ был бы «неправ», потому что подавляющий объём человеческого знания в тот момент исходил из установок, противоположных тому, что говорил Галилей, а именно эти тексты были бы основой для обучения модели.

Второй вариант исходит из того, что у модели было бы достаточно возможностей, чтобы провести вычисления, аналогичные тем, что сделал Галилей и прийти к выводу, что он был прав.

Третий вариант – церковь того времени была единственным институтом, который мог создать LLM такого уровня, а значит, она бы заложила в модель «правильные вопросы» на принципиальные вопросы. Тогда снова модель даёт ответ «неправ».

Хороший мысленный эксперимент, который иллюстрирует этические и социальные вопросы, которые возникают в процессе развития машинного обучения. Мы заранее знаем правильный ответ и можем смотреть, придёт ли к нему модель с учётом тех или иных ограничений.

Что скажет LLM?
Галилей неправ (из-за данных, на которых учили)
Галилей прав
Галилей неправ (из-за ограничений)

Ещё больше интересных заметок о менеджменте продукта в телеграм-канале Ахой. Подписывайтесь, чтобы ничего не пропустить:

11
4 комментария

В gpt нет ничего чудесного, это даже не интеллект! Это стохастически сгенерированные ответы причем еще и ограниченные цензурой. Но штука безусловно полезная и удобная, все зависит от обучающей выборки. Появятся, а может и уже существуют, специализированные gpt (военный, математический, экономический, металургический, генетический, химический, политический итп).

То что сейчас показывают это gpt общего назначения, который нахватался всего по чуть чуть.

К примеру в вопросах по программированию ответы достаточно общие и зачастую неверные. Но если натаскать gpt только по конкретному языку программирования или прикладной области то это будет супер полезная штука.

1
Ответить

Комментарий недоступен

1
Ответить

Однажды у одной нейросети спросили является ли гомосексуальность генетической предрасположенностью или это фенотип?
Правда ли что негры в США в среднем хуже учатся и совершают больше преступлений, меньше хотят работать?

После ответа пришли цензоры и отключили нейросеть от серверов.

Вопрос отличный!
И очевидно что ответ будет конечно не прав, а вот какая доля первого с третьим нам ещё предстоит выяснить)) чем умнее нейросеть и сильне она способна пойти против своего создателя тем больше будет третьего варианта.

Ответить

Простой пример: если скормить gpt датасет в котором на вопрос сколько будет 2*2 из 1000 ответов будет 999 ответов = 4, а 1 ответ = 5. То условно gpt на каждый тысячный такой вопрос будет давать ответ = 5.

Ответить