Бристольские учёные преодолели «галлюцинации» ИИ, повысив надёжность критической инфраструктуры

Бристольские учёные преодолели «галлюцинации» ИИ, повысив надёжность критической инфраструктуры

Разработка системы подсчёта очков помогает операторам оценивать достоверность объяснений ИИ

Ученые из Бристольской школы компьютерных наук достигли значительных успехов в решении проблемы «галлюцинаций» моделей искусственного интеллекта и повышении надёжности алгоритмов обнаружения аномалий в критически важных национальных инфраструктурах (CNI).

Недавние достижения продемонстрировали потенциал технологии в обнаружении аномалий, особенно в данных датчиков и механизмов для CNI. Однако эти алгоритмы часто требуют длительного времени обучения и испытывают трудности с определением конкретных компонентов в аномальном состоянии. Кроме того, процессы принятия решений ИИ часто непрозрачны, что приводит к проблемам с доверием и подотчётностью.

Чтобы преодолеть эти проблемы, исследователи приняли ряд мер по повышению эффективности. Для улучшенного обнаружения аномалий команда использовала два передовых алгоритма со значительно более коротким временем обучения и более быстрыми возможностями обнаружения, сохраняя при этом сопоставимые показатели эффективности. Эти алгоритмы были протестированы с использованием набора данных из испытательного стенда оперативной очистки воды, SWaT, в Сингапурском университете технологий и дизайна.

Для повышения прозрачности и доверия исследователи интегрировали модели eXplainable AI (XAI) с детекторами аномалий. Такой подход позволяет лучше интерпретировать решения, предлагаемые моделью, позволяя людям понимать и проверять рекомендации перед принятием критических решений. Также оценивалась эффективность различных моделей XAI, что дало представление о том, какие модели лучше всего помогают человеческому пониманию.

Бристольские учёные преодолели «галлюцинации» ИИ, повысив надёжность критической инфраструктуры
Источник: DALL-E

Исследование подчёркивает важность человеческого контроля в процессах принятия решений, управляемых ИИ. Объясняя рекомендации людям, команда стремится гарантировать, что модель выступает в качестве инструмента поддержки принятия решений, а не «бесспорного оракула». Эта методология вводит подотчётность, поскольку операторы принимают окончательные решения на основе идей, политики, правил и положений ИИ.

Доктор Сарад Венугопалан, соавтор исследования, пояснил: «Люди учатся путём повторения в течение более длительного периода времени и работают в течение более коротких часов, не допуская ошибок. Вот почему в некоторых случаях мы используем модели, которые могут выполнять те же задачи за меньшее время и с меньшим количеством ошибок. Однако эта автоматизация, включающая кибер- и физические компоненты, а также последующее использование ИИ для решения некоторых проблем, вызванных автоматизацией, рассматривается как чёрный ящик. Это пагубно, поскольку ответственность за принятые решения несёт персонал, использующий рекомендации, а не сама модель. В своей работе мы используем объяснимый ИИ для повышения прозрачности и доверия, поэтому сотрудники, использующие рекомендации, информируются о том, почему ИИ дал рекомендацию, прежде чем будет принято решение».

Доктор Адепу добавил: «Эта работа показывает, как WaXAI производит революцию в обнаружении аномалий в промышленных системах с помощью объяснимого ИИ. Благодаря интеграции XAI операторы получают чёткие сведения и большую уверенность при обработке инцидентов безопасности в критически важной инфраструктуре».

Данные достижения не только повышают эффективность и надёжность систем ИИ в CNI, но и гарантируют, что операторы остаются неотъемлемой частью процесса принятия решений, повышая общую ответственность и доверие.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.