Вопрос : На Sensors Converge 2023 вы выступаете с основным докладом на тему «ИИ в критически важных киберфизических системах», и в нашем превью к конференции упоминается термин «киберфизический континуум».
Не могли бы вы дать определение термину и, что важно, создает ли кибер-физический континуум более серьезные проблемы, чем те, с которыми мы сталкивались в недавнем прошлом?
Ферсман: Термин «киберфизический континуум» произошел от встроенных систем, где каждый встроенный физический контроллер более крупной системы имеет соответствующий фрагмент кода, определяющий его поведение.
Кибер-физические системы представляют собой сетевые встроенные системы, в которых взаимодействие между физической и кибер-частями играет важную роль.
Сегодня физические системы могут быть представлены цифровыми двойниками, отражающими каждое состояние физической системы.
Прелесть этого заключается в том, что для того, чтобы гарантировать, что система соответствует требуемым свойствам, таким как функциональные свойства или надежность, не нужно запускать тесты на физической системе, а скорее моделировать и проверять ее кибер-часть.
Чем более детально кибер-часть системы описывает физическую часть, тем лучше мы будем контролировать физическую часть.
Вопрос : Мы всегда хотели взаимодействия частей в системе, но стало ли это внезапно более обременительным или сложным?
И есть ли у вас понимание того, какие проблемы или опасности мы можем увидеть без надлежащего взаимодействия?
Есть ли известные примеры конфиденциальности/безопасности, которые вы можете назвать?
Ферсман: По мере того, как вещи становятся все более взаимосвязанными, размеры систем растут.
Можно представить себе переход от моделирования и анализа одного контроллера в автомобиле к модели полного автомобиля с сотнями таких контроллеров, к модели парка автомобилей, к интеллектуальной транспортной системе, в которой автомобили взаимодействуют с дорожной инфраструктурой и телекоммуникационной сети, к умному городу.
А теперь представьте, что вы пытаетесь проверить корректность всей системы вплоть до уровня функциональности контроллера — это очень сложная задача.
Демонстрация физической функциональности через API-интерфейсы программного обеспечения открывает большие возможности, но также сопряжена с угрозами безопасности и конфиденциальности; поэтому механизмы для предотвращения атак на систему безопасности должны действовать с первого дня.
Кроме того, каждый раз, когда в такой системе используются алгоритмы ИИ,
Вопрос : У вас обширная тема, но ИИ уже много лет находится в центре внимания, особенно с декабря, когда появились ChatGPT, LLM и генеративный ИИ.
Может быть, сами темпы внедрения приводят к меньшей заботе о таких основах, как безопасность, конфиденциальность и защищенность?
Вы беспокоитесь, что это может быть так?
Ферсман: Внедрение ChatGPT действительно породило новую волну ажиотажа, осведомленности о том, на что способен ИИ, и в то же время усилило беспокойство в обществе.
OpenAI выпустил GPT-3 некоторое время назад, и многие компании, включая Ericsson, уже несколько лет работают с генеративным AI/LLM.
Это мощные инструменты, и, как и в других методах искусственного интеллекта, они не будут работать должным образом, если будут снабжаться искаженными данными. Это повышение осведомленности о возможностях ИИ требует повышенного внимания к методам, гарантирующим свойства надежности методов ИИ.
Вопрос : Эффективность ИИ и оптимизация производительности — это цель многих приложений ИИ, но наблюдаем ли мы высокую степень оптимальной производительности для киберфизических приложений?
Это что-то вроде возможностей пяти девяток? Это вообще цель?
Ферсман : Устойчивые телекоммуникационные сети с высоким уровнем доступности достижимы даже без ИИ.
Роль ИИ в телекоммуникациях заключается в достижении более высокой производительности при тех же ресурсах с точки зрения качества обслуживания, а также выбросов CO2, а также в оптимизации сетевых операций для снижения времени простоя за счет предотвращения.
Вопрос : Будут ли Ericsson или ваши партнеры работать над чем-то вроде того, что недавно предложила Nvidia, — программного обеспечения под названием NeMo Guardrails, которое предназначено для того, чтобы новые приложения на основе LLM были точными, подходящими, актуальными и безопасными.
В нашем рассказе рассматривалась концепция.
Ферсман: Надежные методы защиты любых технологий ИИ, включая LLM, развернутых в производственной среде, имеют первостепенное значение.
Эрикссон принял руководящие принципы этики Европейского союза в отношении надежного ИИ, включая участие человека и надзор, техническую надежность и безопасность, конфиденциальность и управление данными, прозрачность, разнообразие, недискриминацию и справедливость, социальное и экологическое благополучие и подотчетность.
Наши методы надежного искусственного интеллекта применяются к алгоритмам искусственного интеллекта, которые используются в наших продуктах и услугах, включая алгоритмы на основе LLM.
Вопрос : Есть ли здесь какой-то стандарт, который имеет смысл? Я не думаю, что ставка на Nvidia или другую компанию удовлетворит все потребности, верно?
Ферсман: Хотя стандарты всегда играют важную роль для поставщиков телекоммуникационной инфраструктуры в достижении функциональной совместимости, в надежных приложениях ИИ большую роль играют сертификаты и правила.
Телекоммуникационная система действительно частично полагается на наших партнеров, таких как Nvidia, но для достижения высочайших гарантий качества всей системы, предлагаемой потребителям и предприятиям, мы обязательно проверяем и сертифицируем наши методы искусственного интеллекта, и аналогичным образом это выполняется с помощью программного обеспечения, которое мы разрабатываем.
Однако технология этой сертификации отличается от сертификации программного обеспечения.
Вопрос : Хотя это может быть не по теме, что вы думаете о федеральном законодательстве, которое в целом защищает конфиденциальность данных для физических лиц?
Это радикальный подход, который некоторым поставщикам может быть трудно удовлетворить.
Если люди имеют право на все свои данные, как это может привести к обучению ИИ?
Ферсман: Важным руководящим принципом является то, что люди должны контролировать свои данные.
Уровень понимания влияния ИИ на общество повышается, и это приводит к лучшему пониманию преимуществ совместного использования данных, а также к более четкому пониманию того, какими данными делиться нельзя.
Для оптимизации телекоммуникационных систем с помощью ИИ мы часто используем синтетические данные и агрегированные данные о пользователях.
Вопрос : И наконец, как вы ответите на ключевой вопрос, поставленный в аннотации к основному докладу, который спрашивает, как можно использовать ИИ для оптимизации производительности систем?
Есть ли реальные примеры?
Ферсман: Сегодня у нас есть много реальных примеров. Как и в случае с телекоммуникациями, вы замечаете это только тогда, когда оно не работает.
Системы на базе ИИ предотвращают ухудшение качества обслуживания и заранее оптимизируют эти ячейки. Инспекции объектов с помощью ИИ используют дроны и распознавание изображений для обнаружения возможных сбоев и уменьшения количества ненужных подъемов на вышки.
Мы используем ИИ для оптимизации использования инфраструктуры, повышения производительности и минимизации выбросов CO2 в телекоммуникационных сетях.
Елена Ферсман, доктор философии, вице-президент и руководитель глобального акселератора искусственного интеллекта Ericsson, а также профессор по настройке киберфизических систем Ericcson.