🧬 Группа ученых из Стэнфордского университета (США) решила тщательно изучить поведение некоторых чат-ботов на базе искусственного интеллекта в военных симуляторах, а именно — узнать, будут ли нейросети при различных сценариях усугублять военные конфликты или искать мирные пути их решения.
В последнее время американские военные все чаще тестируют чат-боты с ИИ, разработанные с помощью языковых моделей, в симуляциях военных конфликтов. В июле 2023 года Bloomberg сообщил, что Министерство обороны США успешно испытало модель ИИ в выполнении военной задачи, снабдив ее секретными данными. А в начале 2024 года #OpenAI — разработчик нейросети семейства GPT — незаметно отказалась от запрета на использование #ChatGPT в военных целях. Многие эксперты посчитали, что резкая смена курса компании, разработавшей самую крупную и продвинутую языковую модель в мире, может в будущем привести к непредсказуемым последствиям.
Больше новостей в Телеграм канале: @neuro_trends8
НЕЙРОСЕТИ | НЕЙРОТРЕНДЫ | CHATGPT | MIDJORNEY | STABLE DIFFUSION
Подпишись в Телеграм и будь в курсе: