14 января 2026 года. В то время как индустрия беспилотных авиационных систем (БАС) стремительно внедряет алгоритмы искусственного интеллекта для автономных миссий, эксперты по данным выступают с неожиданным предостережением. Питер Баконьи, старший специалист по анализу данных (Data Scientist Senior) компании Aliter Technologies, специализирующейся на оборонных и гражданских IT-решениях, обратил внимание на проблему «галлюцинаций» и ложной уверенности при работе с ИИ. И хотя его недавнее заявление касалось чат-ботов, авиационные аналитики уверены: те же психологические и технические риски теперь напрямую угрожают безопасности гражданского неба.
Иллюзия компетентности: когда дрон «придумывает» реальность
В своем недавнем анализе Питер Баконьи подчеркнул, что современные ИИ-системы, несмотря на рост качества ответов, по-прежнему склонны к «выдумкам», которые они подают с пугающей убедительностью. В контексте языковых моделей это приводит к дезинформации. В контексте управления дронами — к физическим авариям.
На конец 2025 года большинство коммерческих дронов (от DJI до Skydio) используют нейросети для облета препятствий и построения маршрутов. Однако проблема «галлюцинаций» (ошибочной интерпретации данных сенсоров) остается критической.
«Системы по-прежнему охотно «придумывают» факты, и эти галлюцинации подаются убедительно и правдоподобно. Чрезмерное доверие к ИИ без верификации создает искусственную иллюзию надежности», — отмечает Питер Баконьи.
Для оператора БПЛА это означает риск возникновения ситуаций, когда бортовой компьютер уверенно опознает чистое небо там, где натянуты провода ЛЭП, или, наоборот, совершает резкий маневр уклонения от несуществующего препятствия («фантомного объекта»), что может привести к столкновению с реальными строениями.
«Эффект Тамагочи» в кабине пилота
Особую тревогу вызывает психологический аспект, который Баконьи назвал «эффектом Тамагочи» — формирование эмоциональной связи и чрезмерного доверия к машине. В авиации это явление известно как автоматическая предвзятость (automation bias).
По словам эксперта Aliter Technologies, пользователи начинают воспринимать ИИ не как инструмент, а как «компетентного партнера», чьи решения не требуют проверки. Для внешних пилотов (особенно в секторе Enterprise, занимающемся инспекциями и мониторингом) это создает ложное чувство безопасности:
- Операторы перестают следить за телеметрией, полагаясь на автопилот.
- Критическое мышление при принятии решений в экстренных ситуациях притупляется.
- При возникновении конфликта между показаниями приборов и действиями ИИ, пилот склонен верить ИИ, что часто приводит к катастрофам.
Нормативное регулирование: человек остается главным
Европейские регуляторы осознают эти риски. Согласно «Дорожной карте искусственного интеллекта 2.0» (AI Roadmap 2.0), опубликованной EASA (Европейским агентством по безопасности полетов), полное исключение человека из контура управления (Level 3B AI) планируется не ранее 2035 года. На текущий момент, в конце 2025 года, действует принцип Human-in-the-loop (Человек в контуре).
Европейское законодательство жестко регламентирует использование ИИ в авиации:
- Ответственность: юридически командир воздушного судна (даже беспилотного) несет полную ответственность за полет. Ссылка на «ошибку ИИ» не освобождает оператора от ответственности.
- Классификация риска: согласно Акту об ИИ (EU AI Act), системы управления безопасностью полетов относятся к категории «высокого риска», что требует обязательной сертификации алгоритмов и прозрачности данных.
- Надзор: EASA требует от операторов U-space (систем управления трафиком дронов) обеспечивать возможность перехвата управления человеком в любой момент.
Подробнее с позицией европейского регулятора можно ознакомиться в официальном документе: EASA Artificial Intelligence Roadmap 2.0.
Конфиденциальность данных и кибербезопасность
Еще один аспект, затронутый в отчете Aliter Technologies, — защита данных. Баконьи предупреждает: «При неосторожной коммуникации с ИИ третьи стороны могут получить чувствительные данные». В контексте дронов это приобретает стратегическое значение.
Современные промышленные дроны непрерывно передают видеопоток и карты местности в облако для обработки нейросетями. Если эти данные используются для «дообучения» моделей сторонних производителей без должного шифрования, возникает риск утечки информации о критической инфраструктуре (мостах, электростанциях, военных объектах), которую инспектировал дрон.
Рекомендации для операторов на 2026 год
Опираясь на анализ Aliter Technologies и текущие требования авиационных властей, профессиональным пользователям дронов рекомендуется:
- Не доверять слепо автопилоту: всегда держать руки на пульте управления или быть готовым к немедленному перехвату контроля (Override).
- Верифицировать миссии: проверять маршруты, построенные ИИ, на наличие геозон (No-Fly Zones) и физических препятствий.
- Изолировать данные: при работе на режимных объектах использовать оффлайн-режимы обработки данных (Local Data Mode), чтобы избежать утечек в облачные сервисы производителей.
«ИИ — это мощный ассистент, но он не может быть вашим командиром экипажа», — таков главный вывод для отрасли на пороге 2026 года.
