Блог

Проблемы доверия к автономным системам: Почему “умная” автоматика не всегда становится “своей” на производстве

2026-02-13 13:26
Представьте смену в диспетчерской. На мнемосхеме все зеленое, тренды ровные, аварий нет. Но технолог смотрит на установку через камеру и видит странную “пульсацию” факела. Он сомневается: верить глазам или интерфейсу? Если он доверится экрану, а проблема реальная, цена будет высокой. Если поверит ощущениям и дернет ручное управление без причины, можно уронить режим, сорвать качество и получить простой. В промышленности доверие к автономным системам всегда про риск, а не про философию.
За последние годы автономности стало больше: оптимизаторы режимов, предиктивная диагностика, локальный “ум” на edge-устройствах, нейросети в компьютерном зрении. Но главный парадокс никуда не делся: чем мощнее автоматика, тем чаще человек либо переоценивает ее (и расслабляется), либо недооценивает (и выключает). Классическая рамка “использование, неправильное использование, неиспользование и злоупотребление автоматизацией” описана еще в работах Parasuraman и Riley.

Что вообще значит “доверять” автономной системе

В инженерной логике доверие часто подменяют надежностью: “если MTBF хороший, значит надо доверять”. Но в реальном взаимодействии человек оценивает не только отказы “железа”. Он оценивает три вещи:
  1. Результат: помогает ли система справляться с задачей.
  2. Понятность: понимаю ли я, почему она делает именно так.
  3. Предсказуемость поведения: будет ли она “вести себя одинаково” в похожих ситуациях.
Исследования по доверию к автоматизированным подсказчикам и системам поддержки решений показывают, что доверие напрямую влияет на то, будет ли оператор полагаться на автоматику и как быстро он переключится на ручной режим.
Отсюда важная мысль: доверие – это не “верю/не верю”, а настройка регулятора. Его нельзя раз и навсегда “включить” регламентом.

Две крайности: слепая вера и хронический скепсис

В промышленности опасны обе крайности.
Слепая вера чаще всего приходит после долгого периода стабильной работы. Система годами “не подводила”, и оператор перестает перепроверять. Это подпитывает когнитивное искажение, которое в исследованиях обычно называют automation bias – склонность считать вывод автоматики более правильным, чем альтернативные источники (включая собственные наблюдения).
Хронический скепсис возникает, когда система “достает”: ложные тревоги, непонятные рекомендации, непредсказуемые переключения логики. Тогда автоматику начинают игнорировать, отключать “на ночь”, обходить блокировки “чтобы не мешала”. В терминах Parasuraman и Riley это уходит в “disuse” (неиспользование) и “misuse” (неправильное использование).
Чтобы было проще обсуждать это внутри команды, удобно держать перед глазами короткую таблицу.
Что происходит
Как выглядит в цехе/диспетчерской
Чем заканчивается
Misuse (переиспользование)
“Система сказала – значит так и есть”, проверки исчезают
Пропуск редкого, но критического сбоя; запоздалая реакция
Disuse (неиспользование)
“Опять она орет”, тревоги игнорируются или отключаются
Пропуск реальной проблемы, потеря ценности внедрения
Abuse (злоупотребление)
Автоматику навешивают на задачи вне ее домена
Рост аварийности и конфликтов “человек–система”
Эта рамка полезна тем, что убирает мораль и переводит разговор в эксплуатационные режимы.

Почему автономность ломает “чувство процесса”

Есть неприятная вещь: хорошая автоматика делает работу скучной. Скука убивает ситуационную осведомленность. Если оператор большую часть смены подтверждает окна “ОК”, то в момент реальной нештатки он входит в ситуацию позже, чем хотелось бы.
Эта проблема особенно заметна в системах условной автономности, где человек должен “быть готовым подхватить” управление по запросу системы. В автопроме это хорошо обсуждается вокруг SAE Level 3: машина едет сама, но человек обязан оставаться “готовым к вмешательству”. И человеческий фактор там упирается ровно в то же: как удержать внимание и понимание контекста, если большую часть времени вмешиваться не надо.
В промышленности аналог Level 3 встречается постоянно: оптимизатор ведет режим, но при выходе за границы просит оператора подтвердить действие или перейти в ручной. Если человек в этот момент “не в теме”, переключение получается нервным и запаздывающим.

“Черный ящик” как главный разрушитель доверия

Оператор может простить системе ошибку. Но он редко прощает необъяснимость.
Когда алгоритм (особенно ML) выдает рекомендацию без причинно-следственной связки, человек воспринимает это как магию. А магия не имеет права управлять насосами, печами и реакторами. В итоге возникает парадокс: система может быть статистически точной, но организационно непринятой.
Отсюда растет спрос на объяснимость. В современных подходах к управлению рисками ИИ объяснимость и прозрачность прямо рассматриваются как составляющие доверия и управляемости рисков. Это зафиксировано в NIST AI Risk Management Framework: там доверие увязано с характеристиками “trustworthiness” и процессами управления рисками на всем жизненном цикле.
Важно понимать: объяснимость не обязана превращаться в “покажи веса нейросети”. Оператору нужны инженерные аргументы: какой сигнал стал триггером, какой порог превышен, какова уверенность, какие альтернативы рассматривались, что будет, если ничего не делать.

Ложные тревоги и эффект “мальчика, который кричал: волк”

Практика предиктивной диагностики отлично показывает, как быстро доверие умирает от шума.
Если система вибромониторинга “видит проблему” каждую неделю, а механики каждый раз не находят ничего, через пару месяцев тревоги перестают воспринимать как реальность. Это не “глупость персонала”. Это нормальная адаптация: мозг оптимизирует внимание и перестает реагировать на то, что не подтверждается. В исследованиях доверия к автоматизации описывается динамика доверия: после ошибок доверие падает, а восстановление требует времени и правильной коммуникации системы.
Вывод простой и жесткий: если вы внедряете автономную систему, вы внедряете не только алгоритм, но и культуру сигналов. Сигнал должен быть редким, точным и объяснимым. Иначе это просто генератор усталости.

Кибербезопасность как фундамент доверия к показаниям

Раньше доверие строилось вокруг “не сломается ли контроллер”. Теперь добавился слой: “а не обманывают ли меня данные”.
Если оператор допускает мысль, что HMI может показывать “норму” при реальном отклонении, доверие рушится не к одному модулю, а ко всему цифровому контуру. Истории атак на промышленные системы стали публичным аргументом, что данные могут быть подменены, а оператор будет жить в красивой картинке. Поэтому доверие к автономности неизбежно упирается в архитектуру киберзащиты, контроль целостности и верификацию критических измерений.
NIST в AI RMF отдельно подчеркивает, что доверие связано с устойчивостью, безопасностью и управляемостью рисков, а не только с точностью модели.

Калибровка доверия: как сделать, чтобы оператор доверял “ровно настолько, насколько надо”

Самая рабочая цель не “повысить доверие”, а откалибровать его. То есть сделать так, чтобы человек:
  • понимал границы применимости системы (где она сильна, где уязвима),
  • знал типовые режимы отказов,
  • видел прозрачные причины рекомендаций,
  • имел понятный сценарий вмешательства.
Это похоже на нормальную эксплуатацию любого сложного оборудования: мы же не ожидаем, что частотник будет одинаково работать на любом двигателе без настройки. Так и автономность требует “настройки” на процесс, людей и регламенты.
На практике калибровка достигается не лозунгами, а деталями интерфейса и процедуры:
  • если система уверена на 60%, она не должна говорить так, будто уверена на 99%;
  • если у системы есть сомнения, она должна предложить проверку измерения (а не “команду”);
  • если рекомендация нетипичная, она должна объяснить “почему именно сейчас”.
Человеко-факторные работы по условной автономности показывают, что удержание готовности пользователя и понятность контекста становятся ключевыми проблемами на переходных уровнях автономии.

Ответственность: почему “человек в контуре” иногда превращается в фикцию

Любимая фраза в проектах: Human-in-the-loop. Мол, человек всегда может отменить действие. В реальности часто выходит иначе: система годами делает все сама, человек теряет навык и контекст, а когда система зовет на помощь, времени на осмысленное решение мало.
Это создает юридическую и организационную дыру: кто виноват, если оператор “не успел”, хотя формально был последним звеном? В ближайшие годы этот вопрос будет только расти, особенно там, где автономность принимает решения с прямыми рисками для безопасности.
И тут снова всплывает инженерная банальность: если вы хотите, чтобы человек был в контуре, он должен работать, а не “присутствовать”. Иначе это просто перенос ответственности в инструкции.

Что делать инженеру и интегратору: прагматичный взгляд

Если свести тему к инженерным действиям, то они выглядят так:
  1. Сократите магию. Сделайте так, чтобы автономная система всегда могла показать “почему” человеческим языком.
  2. Чистите сигналы. Лучше меньше тревог, но выше точность и понятнее условия.
  3. Оформляйте границы применимости. Где система гарантирует качество, а где “по возможности”.
  4. Проектируйте ручной режим как часть системы, а не как “аварийную дырку”. Переключение должно быть тренируемым и предсказуемым.
  5. Встройте доверие в киберархитектуру: целостность данных, сегментация, контроль изменений, прозрачные журналы.
И один раз скажу нативно, без рекламных выкрутасов: когда автономность “переезжает” ближе к полю и часть логики живет на контроллерах и HMI, многое упирается в предсказуемость платформы и дисциплину обновлений. Это как раз тот слой, где промышленное “железо” уровня СТАБУР может быть полезным инструментом, потому что снижает хаос вокруг данных и связи между уровнем датчика и экраном оператора.

Итог

Доверие к автономным системам в промышленности не появляется от слова “ИИ” в ТЗ и не покупается вместе с лицензией. Оно строится медленно, а ломается одним непонятным действием или серией ложных тревог. Правильная цель не в том, чтобы “заставить людей доверять”, а в том, чтобы сделать систему понятной, предсказуемой, защищенной и честной в своей уверенности.
Тогда автономность перестает быть соперником оператора и становится тем, чем она должна быть в АСУ ТП: спокойным, проверяемым усилителем человеческого решения.