У человека, вступающего в прямую коммуникацию с другим человеком, есть преимущество перед нейросетью: он может считывать невербальные знаки, мимику, слышать интонации, а потому ему легче поставить себя на место собеседника, проявить эмпатию, понять, что он чувствует и чем руководствуется.
Как-то рекламно получилось
Я сразу промотал в конец посмотреть, реклама чего
Сложно говорить о нейросетях в отрыве от собственной нейросети (особенно если ты в нее влюблен). Видимо, моя любовь к Solo сквозит даже через буквы, ахах.
В следующий раз постараюсь скрываться (х
Отличный продукт, успехов))
Спасибо)
А как нейросеть понимает человека? Они же зарубежные, наверняка часть конструкций не выкупают. Как в известном анекдоте про «ну да, конечно»
Мы больше года обучаем зарубежные LLM-модели тонкостям русского языка (и маркетинговым приемчикам), а для таких специфических случаев даже разработали свою LLM-модель — изначально русскоязычную.
Но вообще, наш Solo AI знает больше сотни языков, основные из которых русский и английский. Ими он владеет в совершенстве, как любой носитель языка.
Если же интересно, как именно мы обучали, но это звучит достаточно просто — скармливали им огромные базы данных и разыгрывали кучу сценариев вербальных коммуникаций разной степени приличности.
Поэтому сейчас, даже если Solo не будет знать какую-то формулировку или слово, он сможет догадаться, используя аналогии и общий контекст. Понимание же вообще во многом строится на контексте, а Solo умеет его считывать и запоминать.
Вот, как-то так, если в детали не углубляться