Сегодня в блоге — кратко об исследовании эмоций искусственного интеллекта, «эмоциональности» ChatGPT-3.5 и -4, на основе которых работает немало сервисов. Разберёмся, как исследователи спровоцировали чат-боты принимать решения «на эмоциях» и какие результаты получили.
Недавно наткнулся на интересное интервью с руководителем продукта OpenAI, и одна мысль крепко засела в голове: большинство людей судит об искусственном интеллекте, даже не попробовав с ним поработать. Это все равно что обсуждать вкус экзотического фрукта, только глядя на его фотографии.
В рамках данной статьи делюсь инструкцией по видео-фиксации переписки в мессенджере, которую можно использовать, если есть риск удаления переписки или вы не готовы использовать платные [чаще всего дорогостоящие] способы. Например, обращаться к нотариусу.
"В 2019 году GPT-2 не мог надежно считать до десяти. Всего четыре года спустя системы глубокого обучения могут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, консультировать по интеллектуальным темам и объединять язык и обработку изображений для управления роботами..."
Согласно недавнему исследованию, опубликованному в The BMJ, ведущие AI-чат-боты демонстрируют признаки легких когнитивных нарушений при прохождении тестов, обычно используемых для выявления ранних стадий деменции у людей. При этом более старые версии моделей показывают худшие результаты, что напоминает возрастное снижение когнитивных способностей,…
Те же самые достижения в разработке технологий искусственного интеллекта, которые позволяют передовым моделям решать сложные задачи, похоже, также способствуют и побуждают их замышлять интриги и вводить пользователей в заблуждение.
Пока одни предприниматели считают CRM пустой тратой денег, а другие — что можно обойтись готовой сборкой, конкуренты тщательно автоматизируют продажи и подсчитывают барыши.
В эпоху бурного развития искусственного интеллекта идеи автоматизации проникают в самые разные сферы нашей жизни, в том числе и в психологию. В этом материале я расскажу о своём проекте – боте-психологе по имени Лира, созданном на основе ChatGPT-4.
Зачем люди стараются очеловечить нейросети
Очеловечить людей, к сожалению, не получается!
Люди всё стремятся очеловечить, чтобы понять. Как пример — выражения "лиц" животных, собаки-улыбаки и т.п., хотя животное может вообще не то чувствовать, на что это похоже через призму человеческих эмоций. Вот люди и пытаются выставить нейросети более живыми, чем они есть на самом деле, а это просто функция, которая делает "умную" копипасту