Несмотря на все свои очевидные возможности, языковые модели отнюдь не являются идеальными зеркалами человека. Они демонстрируют некоторые классические человеческие предубеждения, но не проявляют других. Например, недавнее исследование модели GPT-3.5 показало, что она, как и человек, склонна переоценивать распространенность своих мнений среди населения, что называется эффектом ложного консенсуса. Но, в отличие от человека, модель не проявляет колебаний в том, чтобы рисковать и искушать судьбу. Марсель Бинц, когнитолог из Института биологической кибернетики имени Макса Планка, считает, что для точного подражания человеку ИИ, возможно, придется физически взаимодействовать с миром: трудно изучить все нюансы разумного поведения только путем пассивного чтения. Однако он считает, что ИИ в любом случае будет быстро развиваться. "Вполне вероятно, что через несколько лет мы получим систему, которую можно будет просто поместить в любой эксперимент, и она будет демонстрировать поведение, неотличимое от человеческого".
Креативно получилось :)
"Вполне вероятно, что через несколько лет у нас будет система, которую можно просто поместить в любой эксперимент и которая будет давать поведение, неотличимое от поведения человека."это будет довольно значительный прорыв
Все равно не особо верится в то, что люди не будут проводить эксперименты над животными
Можно даже сказать совсем не верится