Повышение безопасности беспилотных авиационных систем: подход на основе нечеткой логики и искусственного интеллекта

Благодаря постоянно растущим возможностям и возможностям применения беспилотных авиационных систем (БАС) их использование будет стремительно расти. Это создает острую потребность в решениях, которые безопасно управляют полетами БАС в перегруженном воздушном пространстве на малых высотах. Некоторые передовые методы управления БАС основаны на методах обучения с подкреплением, но они еще не полностью проверены. Подход к этой проблеме, основанный на нечеткой логике, используют доктор Тимоти Арнетт и его коллеги из Thales Avionics Inc, США. Команда разрабатывает важные и безопасные стандарты для внедрения БПЛА под управлением ИИ.

Беспилотная воздушная система (БАС) или дрон — это летательный аппарат, предназначенный для автономной работы или дистанционного управления. Недавние достижения в технологии БПЛА привели к увеличению их использования в таких областях, как службы доставки, пожаротушение, наблюдение и разведка. По мере того, как наша зависимость от технологии растет, в настоящее время возникает острая потребность в способных передовых системах управления, которые могут оптимизировать производительность и эффективность вычислений, обеспечивая при этом надежную адаптацию к изменяющимся сценариям.

«Многие передовые методы управления БПЛА используют методы искусственного интеллекта и машинного обучения с подкреплением», — объясняет доктор Тимоти Арнетт из Thales Avionics Inc, США. Эти системы могут повысить свою производительность, получая новые данные и усиливая поведение, которое приводит к лучшим результатам, как указано пользователем. Тем не менее, во многих сценариях есть некоторый путь, прежде чем уровень контроля, который описывает Арнетт, может быть достигнут.

Вместе с коллегами из Thales Avionics, включая доктора Николаса Эрнеста, Арнетт использует расширенный набор инструментов для решения этой сложной проблемы. Команда стремится разработать новые методы контроля, а затем проверить их, чтобы убедиться, что они соответствуют строгим требованиям безопасности. Команда использует математически строгие методы, известные как «формальные методы». Как продолжает Арнетт, «эти формальные методы могут способствовать более широкому внедрению и внедрению передового ИИ-управления БАС в критически важных для миссии или безопасности системах».

Формальные методы

Существует множество методов анализа того, насколько хорошо система соответствует своим спецификациям. Методы проверки ИИ могут быть реализованы с помощью численных подходов, но у них есть свои недостатки. Например, методы Монте-Карло полагаются на повторную случайную выборку для получения числовых результатов, но неясно, какой выборки достаточно для проверки системы. Кроме того, числовые оценки могут идентифицировать только те случаи, когда спецификация не соответствует требованиям, поэтому они не могут гарантировать, что система каждый раз будет правильной.

Арнетт и его коллеги разработали систему, в которой БПЛА может генерировать оптимизированные нечеткие деревья при навигации в сложных и незнакомых условиях.

Когда требуются более высокие уровни корректности, например, в системах, где стандарты безопасности имеют решающее значение, целесообразны формальные методы. Арнетт объясняет, что «формальные методы обеспечивают математически строгие методы проектирования, спецификации и проверки этих систем». В своих предыдущих исследованиях Арнетт и его команда использовали эти методы для оценки безопасности систем управления для БПЛА.

Навигационная безопасность

В недавнем исследовании Арнетт и его коллеги установили новые требования безопасности для поведения системы искусственного интеллекта на основе обучения с подкреплением для управления БПЛА. Здесь БАС запрограммирован на навигацию в пределах виртуальной, заранее определенной границы или «коридора». Стены этого коридора представляют собой границы, в которых БАС может безопасно работать, когда он движется по намеченному пути. Это позволяет устройству немного отклоняться от своего пути, поскольку оно избегает препятствий, таких как птицы и другие дроны, или слегка сбивается с курса в ветреную погоду.

В пределах этого коридора БАС маневрирует и регистрирует обозначенные цели, разбросанные по окружающей среде. Чтобы отслеживать расстояние от границ коридора, он использует пять датчиков расстояния, или усов, расположенных спереди и по бокам. Затем цели собираются с помощью датчика захвата, расположенного перед БПЛА. Имея в виду эти ограничения, команда могла затем создать спецификации безопасности, чтобы учесть их.

Генетические нечеткие деревья

Поскольку поведение БПЛА неизвестно до того, как он попытается пройти по своему коридору, команда использовала обучение с подкреплением для разработки своей усовершенствованной системы управления. Для этого они использовали инновационный метод искусственного интеллекта, названный генетическим нечетким деревом (GFT). Требуя практически никаких знаний об оптимальном поведении, необходимом для управления БПЛА, GFT работают, комбинируя метод, называемый нечеткой логикой, с методом поиска оптимальных решений проблемы, основанным на дарвиновской теории естественного отбора.

Нечеткая логика объясняет тот факт, что определенный вывод не может быть полностью истинным или ложным: вместо этого он часто будет иметь некоторую степень неопределенности или нечеткости, связанной с ним. Имея это в виду, он может математически количественно оценить обоснованность вывода как лежащего где-то между 0 и 1, где 0 полностью ложно, а 1 полностью верно.

Основываясь на этой логике, нечеткие деревья состоят из ряда систем нечеткого вывода, которые известны своей надежностью, способностью аппроксимировать результаты и способностью представлять входные и выходные данные с помощью языка. Включив эти системы в разветвленные сети, исследователи значительно повысили их масштабируемость, позволив им включать гораздо больше входных данных, чем предыдущие методы. Это позволяет невероятно эффективно выполнять подробные приближения, позволяя пользователям решать гораздо более сложные задачи.

Чтобы оптимизировать свои нечеткие деревья, команда Арнетта использовала генетический алгоритм, который сначала оценивает производительность, или «пригодность» набора, или «генерацию» возможных решений. После этого самые подходящие решения выбираются в качестве «родителей» для нового поколения, и их характеристики слегка изменяются или видоизменяются, чтобы создать новый набор возможных решений, некоторые из которых могут быть лучше своих родителей. Затем процесс повторяется до тех пор, пока не будет найдено наилучшее возможное решение.

С помощью этих комбинированных методов Арнетт и его коллеги разработали систему, с помощью которой генерируются высокопроизводительные нечеткие деревья, способные ориентироваться в сложных и незнакомых средах. Их подход позволяет этим системам предоставлять высокопроизводительные решения, устойчивые к потенциальным неопределенностям, оставаясь эффективными с точки зрения вычислений. Кроме того, краткие объяснения высокого уровня для быстрых решений перед лицом этих неопределенностей могут быть предоставлены изначально и точно, сохраняя при этом полную объяснимость для долгосрочных действий или целей аудита.

Спецификация поведения БПЛА

Используя свои GFT, команда показала, что БПЛА может успешно перемещаться по своему рабочему коридору, собирая точки интереса во многих различных сценариях. Однако получившуюся систему управления необходимо было проверить на соответствие поведенческим характеристикам, чтобы убедиться, что она может работать безопасно. Арнетт вспоминает, что это заставило команду задать вопрос: сколько тестов достаточно? Чтобы ответить на этот вопрос, исследователи перечислили четыре ключевые характеристики для описания желаемого поведения БАС, а также процедуры для принятия решения о том, нарушаются ли эти правила.

После формальной проверки Арнетт и его коллеги уверены, что их система будет вести себя так, как задумано, при этом не будут нарушаться правила безопасности.

Во-первых, если БАС движется либо с минимальной, либо с максимальной скоростью, ему никогда не следует давать указание выполнять задачи, выходящие за рамки его возможностей — в соответствии с его текущей воздушной скоростью, нагрузкой и высотой. Во-вторых, если длина переднего уса меньше доступного пространства космического корабля для разворота, то следует избегать разворотного маневра. В-третьих, если ус на боку ТС определяет расстояние менее 50 м от стены коридора, БАС должен отвернуться от него. Наконец, если БАС летит прямо по середине прямого коридора, его горизонтальный полет должен быть сохранен.

Формальная проверка правильности

Чтобы проверить «правильность» своих алгоритмов GFT, команда использовала формальные методы для проверки системы на соответствие спецификациям. Используя свои четыре ключевые спецификации в качестве эталона, они могли проверить, соответствуют ли выходные данные алгоритмов заявленным спецификациям, в то время как алгоритмы придерживаются поставленных перед ними задач. Благодаря этой формальной проверке Арнетт и его коллеги могли быть уверены, что их система будет вести себя так, как предполагалось, избегая при этом нарушений безопасности, которые могли привести к катастрофическим последствиям.

Эта формальная проверка показала, что на данный момент система GFT по-прежнему нарушает несколько спецификаций, связанных с поведением, для управления БПЛА, выявляя проблемы, которые команде Арнетта необходимо будет устранить в своих будущих исследованиях. Тем не менее, это позволило им установить поведение, которое не нарушалось — то, что нельзя было сделать с помощью одного только тестирования на основе моделирования.

Теперь исследователи надеются, что аналогичные методы можно будет распространить на другие интеллектуальные системы для создания надежного, заслуживающего доверия и объяснимого ИИ. Хотя формальная проверка этих систем может быть сложной, она обеспечивает значительно большую уверенность в том, что передовые системы искусственного интеллекта в критически важных приложениях/безопасности будут вести себя так, как задумали их разработчики. «Поскольку системы искусственного интеллекта становятся все более распространенными, особенно в системах, критически важных для безопасности, жизненно важно иметь более высокий уровень уверенности в их правильности», — комментирует Арнетт.

Светлое будущее для БПЛА

Передовые методы управления все чаще разрабатываются с использованием ИИ и машинного обучения и часто используют методы обучения с подкреплением. Однако из-за отсутствия доверия и доказательств их правильности многие из них не готовы к использованию в системах, критически важных с точки зрения безопасности. Арнетт и его коллеги надеются, что благодаря разработанным ими формальным методам проверки исследователи смогут разработать новые надежные стандарты безопасности, которые сделают широкое внедрение расширенного управления ИИ на шаг ближе к реальности.

Личный ответ

Каковы некоторые интересные конкретные сценарии, в которых GFT были бы особенно полезны для UAS?

Наша архитектура GFT обладает универсальными аппроксимационными характеристиками, которые позволяют применять ее к широкому кругу задач UAS и других задач. Однако это было бы особенно полезно в ситуациях, когда объяснимость, проверяемость и т. д. важны при сохранении высокой производительности. Например, в 2016 году наша команда создала GFT для компьютерного моделирования боевых действий «воздух-воздух» за пределами видимости (названный Alpha) благодаря сочетанию экспертных знаний в предметной области и обучения с подкреплением. Альфа обладал сверхчеловеческими характеристиками и мог побеждать людей-операторов, фактически 12 разных пилотов, в сценариях с несколькими транспортными средствами, а также мог действовать как товарищ по команде или ведомый для людей-операторов. Эта возможность дополнительно расширяется за счет прозрачного и объяснимого характера нечетких деревьев наряду с формальной проверкой некоторых критических с точки зрения безопасности аспектов системы.

Ссылки

Арнетт, Т., Эрнест, Н., Кункель, Б., Боронат, Х., (2022) Формальная проверка генетической нечеткой системы для навигации беспилотных летательных аппаратов и захвата целей в безопасном коридоре. В: Беде, Б., Себерио, М., Де Кок, М., Крейнович, В., (ред.) Обработка нечеткой информации, 2020. NAFIPS, 2020. Достижения в области интеллектуальных систем и вычислений, 1337, 361–372. Спрингер, Чам.

Арнетт, Т., Коэн, К., Кук, Б., Касбир, Д., (2019) Нейронная сеть супервизора и система нечеткого вывода подходят к сценарию преследования беспилотного летательного аппарата. Форум AIAA Scitech 2019, [онлайн] doi.org/10.2514/6.2019–1455

Арнетт, Т. (2019) Итеративное увеличение сложности во время оптимизации формально проверяемых нечетких систем (неопубликованная докторская диссертация). Университет Цинциннати.

Кук, Б., Арнетт, Т., Коэн, К., (2017) Подход на основе нечеткой логики для обеспечения эшелонирования и предотвращения столкновений для беспилотных воздушных систем. В: Науки об окружающей среде. Современные нечеткие системы управления и их приложения, Ch 12, 225–56.

Эрнест, Н., Кэрролл, Д., Шумахер, С., и др. (2016) Искусственный интеллект на основе генетической нечеткости для управления беспилотными боевыми летательными аппаратами в моделируемых воздушных боевых задачах. Journal of Defense Management, 6:144. дои: 10.4172/2167–0374.1000144

Арнетт, Т. (2016) Проверка генетических нечетких систем. (Неопубликованная магистерская диссертация). Университет Цинциннати.

Основы исследования

Доктор Тимоти Арнетт получил степень магистра и доктора философии в Университете Цинциннати, где он изучал формальную верификацию нечетких систем с приложениями в задачах обучения с подкреплением. Сейчас он работает в Thales Avionics, Inc.

Цели исследования

Тимоти Арнетт разрабатывает инструменты искусственного интеллекта и машинного обучения на основе нечеткой логики для беспилотных летательных аппаратов.

Соавторы

Доктор Николас Эрнест, Брэндон Канкель, Хьюго Боронат