Как популярный контент-мейкер убедил вас в том, чего не знает

Наверняка вы по работе читаете каналы экспертов в вашей области, или в смежных. Ну и я тоже читаю)) Бывает, что эксперты пишут не только про свой экспертный контент, а про что-то другое из жизни. И сегодня в канале эксперта по рилсам вышел пост про то, что сахар вызывает привыкание:

Если бы сахар вызывал зависимость, его бы не продавали в магазинах, говорите?

Почему же тогда алкоголь и сигареты продают? Тоже не вызывают зависимости, да?)

Уточню: это не диетолог и не врач. Это эксперт по созданию и продвижению контента в соцсетях. И вдруг пост про то, что сахар — плохой.

Три вещи, которые помогут вам не попасться в такую ловушку.

Первое: мы склонны верить тем, кто нам нравится.

Это когнитивное искажение называется эффектом ореола.

Оно проявляется в том, что люди склонны распространять положительное впечатление о человеке на все его высказывания и действия, даже если они не связаны с его экспертной областью. В результате, если человек известен или уважаем, ему могут доверять в вопросах, в которых он на самом деле не является экспертом.

Да, именно поэтому знаменитости рекламируют всё подряд. Но если подумать логически — является ли известный человек экспертом во всем? Конечно, нет. Должен ли эксперт в своём деле разбираться во всем остальном? Конечно, нет. Поэтому когда экспертный главред говорит что-то о политике, то не стоит верить ему на слово.

Второе — легче опровергнуть то, что изначально неверно.

За основу поста был взят чей-то коммент в духе «Вот вы говорите, что если бы сахар вызывал привыкание, то его бы не продавали в магазинах. Его автор разбил контр-примером «А алкоголь и сигареты?» Звучит правдоподобно! Но прикол весь в том, что изначально был взят неверный аргумент, он был развеян контр-примером, и это как будто доказывает то, что сахар зависимость вызывает.

Этот прием называется софизмом «соломенного чучела».

При использовании этого приема человек создает упрощенную или искаженную версию аргумента оппонента (соломенное чучело), а затем оспаривает или опровергает эту неверную версию, чтобы создать видимость победы в споре или подтверждения собственной позиции.

Третье — мы хотим, чтобы было простое объяснение.

Это когнитивное искажение называется «предвзятостью к простоте».

Люди предпочитают простые, интуитивно понятные объяснения сложных явлений, даже если эти объяснения не подкреплены фактами или логикой. В контексте веры в теории заговора это также может быть связано с потребностью в когнитивной закрытости — стремлением к ясности и избеганию неопределенности.

Проще поверить, что есть заговор богатых сахарных компаний, которые покупают все исследования, чем ответственно относиться к своему питанию.

Вот и получается, что уважаемый эксперт в своей теме повелся на приемы и искажения из другой темы, и закидывает это своей аудитории. Потому что все мы люди, и все мы на это ведёмся, на то все эти вещи и называются «когнитивными искажениями». Но будет чуть проще, если знать, как оно работает, и уметь это замечать.

Напомню, что это всё-таки эксперт по контенту, и пост вполне мог быть провокацией на комменты. В таком случае — круто, всё сработало как надо.

Начать дискуссию