Как ограничить искуственный интеллект
Приложения генеративного ИИ вызвали много вопросов о том, как создатели и пользователи технологии обеспечивают соответствие этих приложений правилам конфиденциальности, этическим нормам и другим правилам корпоративного использования.
То, что все это не было очевидно раньше, отражает то, насколько быстро Генеративный ИИ получил широкое распространение.
Такие компании, как Nvidia, в течение многих лет стояли за тем, чтобы обеспечить этичное поведение и политику ИИ, но мгновенный успех ChatGPT не оставил технологическим компаниям много времени, чтобы продемонстрировать подходы, ориентированные на безопасность и конфиденциальность превыше всего, к использованию генеративного ИИ.
Теперь Nvidia исправляет это с новым программным обеспечением для своей структуры большой языковой модели NeMo (LLM), которая помогает компаниям создавать и обучать свои собственные модели и приложения генеративного ИИ.
Соответствующее название NeMo Guardrails направлено на то, чтобы новые приложения на базе LLM были «точными, подходящими, актуальными и безопасными», говорится в сообщении в блоге Nvidia.
«Программное обеспечение включает в себя весь код, примеры и документацию, необходимые предприятиям для повышения безопасности приложений ИИ, генерирующих текст».
Джонатан Коэн, вице-президент по прикладным исследованиям в Nvidia, сказал во время брифинга для СМИ о NeMo Guardrails: «Мы думаем, что каждое предприятие в любой отрасли сможет воспользоваться преимуществами генеративного ИИ для поддержки своего бизнеса. Но для использования этих моделей в производственной среде важно, чтобы они были развернуты безопасным и надежным способом. Ограждение — это руководство, которое помогает поддерживать диалог между человеком и ИИ в нужном русле».
Он добавил, что Nvidia делает свое предложение открытым исходным кодом, чтобы более широкое сообщество сторонников и разработчиков технологии генеративного ИИ могло быстро начать сотрудничество в создании и обслуживании наилучших возможных систем и возможностей для использования генеративного ИИ по мере развития технологии.
Guardrails работает со всеми LLM, включая чрезвычайно популярный ChatGPT от OpenAI, а также может работать поверх других наборов инструментов с открытым исходным кодом, таких как LangChain , что помогает разработчикам подключать сторонние приложения к возможностям LLM.
Во время брифинга Коэн обсудил и продемонстрировал три типа границ, которые NeMo Guardrails позволит разработчикам создавать:
- Тематические ограничения, которые не позволяют приложениям отклоняться в нежелательные области. Например, они не позволяют помощникам по обслуживанию клиентов отвечать на вопросы о погоде.
- Ограничения безопасности, которые гарантируют, что приложения реагируют на точную и соответствующую информацию. Они могут отфильтровывать нежелательные выражения и обеспечивать, чтобы ссылки делались только на заслуживающие доверия источники.
- Ограничения безопасности, которые запрещают приложениям устанавливать соединения только с внешними сторонними приложениями, которые считаются безопасными.
Что касается ограничений безопасности, Коэн сказал, что это будет все более серьезной проблемой, поскольку LLM становятся все более интегрированными с другими службами на предприятии.
«Концепция безопасности становится все более и более важной, поскольку большие языковые модели могут подключаться к сторонним API и приложениям», — сказал он.
«Это может стать очень привлекательной поверхностью для атак киберугроз.
Всякий раз, когда вы позволяете языковой модели фактически выполнять какое-либо действие в мире, вы хотите отслеживать, какие запросы отправляются этой языковой модели».
Он добавил, что Nvidia знает, что, хотя NeMo Guardrails, вероятно, не является окончательным решением для обеспечения конфиденциальности, точности, безопасности и защиты приложений с генеративным искусственным интеллектом, это, по крайней мере, шаг в правильном направлении для создания основы для будущих решений.
«Я ожидаю, что это очень активная область исследований, и люди будут придумывать всевозможные улучшенные методы», — сказал он.
«Поэтому мы не думаем, что решили какую-либо из этих проблем, но мы можем взять передовой опыт, современный уровень техники, собрать их в одном месте, и по мере улучшения этого уровня техники мы можем продолжайте интегрировать его».