Во-вторых, LLM периодически выдают некорректные ответы, вследствие чего могут дезинформировать пользователя. Например, в августе 2024 года в Великобритании грибники оказались в больнице из-за отравления ядовитыми грибами. Они собирали грибы, ориентируясь на советы и иллюстрации из книги, купленной на Amazon. Журналисты The Guardian провели расследование и выяснили, что есть целая серия книг, которые содержат недостоверную информацию, опасные для жизни рекомендации и написаны в неестественном литературном стиле, который не соответствует тематике. Оказалось, что эти книги были созданы с использованием ChatGPT и плохо учитывали специфику предметной области. Поэтому еще долго надежный контент сможет генерировать только эксперт в предметной области, это означает, что эксперты будут востребованы еще много лет.
Картинка страшная))) Главное, чтобы в будущем они не поменялись местами. И тогда уже статьи могут быть на тему: "Почему люди стали хуже языковой модели"
Надеемся, такого не произойдет)
Про книгу с грибами, может это заговор роботов и попытки отравить человечество))