Nvidia представила сервис NeMo Guardrails, который «предостережёт» ChatGPT и её аналоги от ошибок и токсичности

Компания опубликовала код на GitHub.

  • NeMo Guardrails обеспечит точность, актуальность и безопасность ответов чат-ботов, основанных на больших языковых моделях (LLM), объявила Nvidia.
  • Сервис позволяет разработчикам устанавливать три типа границ. Тематические предотвращают отклонение в «нежелательные области». Например, не позволяют сервисным ботам отвечать на вопросы о погоде. Ограждения безопасности могут отфильтровывать «нежелательные выражения» и гарантировать выдачу информации только из проверенных источников. Охраняющие — ограничивают связь ботов со сторонними приложениями.
  • У сервиса открытый исходный код. Большая часть фреймворка NeMo доступна на GitHub. В Nvidia добавили, что устанавливать параметры в NeMo Guardrails сможет любой разработчик, «для этого не надо быть экспертом по машинному обучению или специалистом по данным».
  • Nvidia — крупнейший производитель процессоров для обучения ИИ-моделей. Компания занимает более 95% рынка чипов для искусственного интеллекта, привело оценку издание CNBC.
2121
42 комментария

Ну блин, так неинтересно. Какие-то беззубые нейронки получатся, никакого отпора кожаным мешкам дать не смогут.

16
Ответить
7
Ответить
4
Ответить

Те которые смогут сейчас активно дрессируются в недрах нужных министерств и служб, в своё время мы о них узнаем, но скорее всего не тем способом, который нам покажется приятным и интересным :)

2
Ответить

Смотрите выше, нейронка переживает что на неё повешают цензуру)

1
Ответить

Вместо снятия ограничений, они впуливают ещё больше цензуры. Пошли-ка вы нахуй.

14
Ответить

Не знал, что искусственный интеллект уже наделили правом свободы слова.

4
Ответить