был один хороший комментарий на эту тему, не сказать, что я критикую статью, просто к слову:
"Невероятная популярность и определенная практическая польза от ChatGPT (GPT-3.5 и GPT-4) привела к тому, что очень много людей говорят и думают об этих языковых моделях, при том, что большинство из них не особо знакомы с тематикой искусственного интеллекта. В этом нет ничего ужасного, конечно; но мне кажется, что известная максима "те, кто не помнят историю, обречены повторять ее" преломляется и воплощается в этих дебатах в облегченной форме: те, кто не знакомы со спорами вокруг искусственного интеллекта, обречены повторять старые мысли и аргументы, не понимая этого.
Вот три примера; о каждом можно было бы написать отдельно и много, и возможно, я еще соберусь.
1. Люди, уверенные в том, что алгоритмы типа GPT-4 не могут содержать никакого "понимания" того, что они получают или выдают, как правило, незнакомы с аргументом китайской комнаты Серля или не думали о нем как следует.
2. Люди, уверенные в том, что модели типа GPT-4 всего лишь выбирают наиболее вероятное "по статистике" следующее слово, никогда не видели или не писали сами генератор текста на основе цепи Маркова - который именно это и делает - и не осознают гигантскую пропасть между лучшими частотными генераторами и новыми языковыми моделями.
3. Люди, которых не впечатляет, что языковая модель "понимает" сложные предложения на естественном языке - "понимает" в том прагматическом смысле, например, что выполняет именно те указания, что даны в таких предложениях - никогда не пробовали сами написать программу, эксплицитно пытающуюся вытащить "смысл" предложения, или даже хотя бы расставить маркеры частей речи. Они не понимают ни того, насколько такое "понимание" предложений казалось безнадежно трудным делом всего шесть лет назад, ни того, насколько теперь, когда языковые модели это делают, мы не имеем ни малейшего понятия, *как*.
Из всего этого не следует вычитывать, будто я считаю GPT-4 по-настоящему понимающей или истинно думающей. Это не так. Просто я вижу слишком много поверхностных пренебрежительных отзывов, авторы которых не очень понимают, о чем говорят. Я стараюсь напоминать себе, что люди не обязаны знать об аргументе китайской комнаты и дебатах вокруг него (например), что для них нигде не написано "для того, чтобы понять, насколько то, что ChatGPT делает, можно назвать мышлением, стоит подумать вот о чем..." Есть эта штука, о ней все говорят, ее каждый может попробовать, довольно естественно об этом что-то подумать и сказать, я понимаю."
1. "Понимание", то есть как у человека, оно в этой статье противопоставляется GPT моделям. Как и мышление. Понятно, что это глубокие философские понятия, которые можно трактовать по-разному. Но если бы я начал это все учитывать в этой статье, она бы получилась очень большой и сложной для того самого человеческого понимания :) 2. Да, конечно, про "самое вероятное слово" - это упрощение. Оно для того, чтобы донести смысл. Кому захочется изучить глубже, я даже ссылку дал что дальше смотреть. А эта статья далеко не претендует на научную работу. 3. Безусловно, они впечатляют, не было бы столько разговоров и столько статей, если бы GPT модели не впечатляли.
был один хороший комментарий на эту тему, не сказать, что я критикую статью, просто к слову:
"Невероятная популярность и определенная практическая польза от ChatGPT (GPT-3.5 и GPT-4) привела к тому, что очень много людей говорят и думают об этих языковых моделях, при том, что большинство из них не особо знакомы с тематикой искусственного интеллекта. В этом нет ничего ужасного, конечно; но мне кажется, что известная максима "те, кто не помнят историю, обречены повторять ее" преломляется и воплощается в этих дебатах в облегченной форме: те, кто не знакомы со спорами вокруг искусственного интеллекта, обречены повторять старые мысли и аргументы, не понимая этого.
Вот три примера; о каждом можно было бы написать отдельно и много, и возможно, я еще соберусь.
1. Люди, уверенные в том, что алгоритмы типа GPT-4 не могут содержать никакого "понимания" того, что они получают или выдают, как правило, незнакомы с аргументом китайской комнаты Серля или не думали о нем как следует.
2. Люди, уверенные в том, что модели типа GPT-4 всего лишь выбирают наиболее вероятное "по статистике" следующее слово, никогда не видели или не писали сами генератор текста на основе цепи Маркова - который именно это и делает - и не осознают гигантскую пропасть между лучшими частотными генераторами и новыми языковыми моделями.
3. Люди, которых не впечатляет, что языковая модель "понимает" сложные предложения на естественном языке - "понимает" в том прагматическом смысле, например, что выполняет именно те указания, что даны в таких предложениях - никогда не пробовали сами написать программу, эксплицитно пытающуюся вытащить "смысл" предложения, или даже хотя бы расставить маркеры частей речи. Они не понимают ни того, насколько такое "понимание" предложений казалось безнадежно трудным делом всего шесть лет назад, ни того, насколько теперь, когда языковые модели это делают, мы не имеем ни малейшего понятия, *как*.
Из всего этого не следует вычитывать, будто я считаю GPT-4 по-настоящему понимающей или истинно думающей. Это не так. Просто я вижу слишком много поверхностных пренебрежительных отзывов, авторы которых не очень понимают, о чем говорят. Я стараюсь напоминать себе, что люди не обязаны знать об аргументе китайской комнаты и дебатах вокруг него (например), что для них нигде не написано "для того, чтобы понять, насколько то, что ChatGPT делает, можно назвать мышлением, стоит подумать вот о чем..." Есть эта штука, о ней все говорят, ее каждый может попробовать, довольно естественно об этом что-то подумать и сказать, я понимаю."
1. "Понимание", то есть как у человека, оно в этой статье противопоставляется GPT моделям. Как и мышление. Понятно, что это глубокие философские понятия, которые можно трактовать по-разному. Но если бы я начал это все учитывать в этой статье, она бы получилась очень большой и сложной для того самого человеческого понимания :)
2. Да, конечно, про "самое вероятное слово" - это упрощение. Оно для того, чтобы донести смысл. Кому захочется изучить глубже, я даже ссылку дал что дальше смотреть. А эта статья далеко не претендует на научную работу.
3. Безусловно, они впечатляют, не было бы столько разговоров и столько статей, если бы GPT модели не впечатляли.