Эта непредсказуемая автоматика | Большие Идеи

・ Операционное управление

Эта
непредсказуемая автоматика

Автор: Костин Анатолий

Эта непредсказуемая автоматика

читайте также

Как сформировать культуру

Пора отнестись к себе с состраданием

Серена Чен

Магия 37%: как найти идеального сотрудника

Брайан Кристиан,  Том Гриффитс

Четыре шага в неизвестности: как два лидера спасли миллионы людей от COVID-19

Микаэла Керрисси,  Эми Эдмондсон

читается, что автоматизация благо. Директора заводов хвастают: «Производство у нас роботизировано, только на пульте человек сидит». Любая техническая новинка, от станка до самолета, умнее предыдущей и требует от человека меньше усилий. Мир взял курс на автоматизацию и не видит ее опасности.

Главная беда автоматики — непредсказуемость. Создавая техническое устройство или компьютерную программу, разработчики руководствуются соб­ственными представлениями о том, кто, как и в каких условиях будет ими пользоваться. Но в жизни не все укладывается в норму. И потому автоматика порой преподносит неприятные сюрпризы. Возьмем современный цифровой фотоаппарат. Человеку не надо ничего устанавливать вручную, но иногда сделать снимок не удается — жмешь «пуск», а аппарат не срабатывает. Автоматика посчитала: для съемки не обеспечены оптимальные условия. Но ведь бывает так, что нужно просто не упустить нужный ракурс! Это типичный пример непредсказуемости «умной техники».

А если речь об управлении самолетом? Мало кто знает: во время полета космического корабля «Буран» (проходившего в автоматическом режиме) случилось непредвиденное. Специалисты рассчитывали, что «Буран» при приземлении сделает правый разворот, но корабль неожиданно повернул налево и полетел поперек полосы. Растерялись и наземные службы, и испытатель Магомет Толбоев, сопровождавший «Буран» на МИГ-25. К счастью, самолет благополучно приземлился. Причиной странного маневра стал сильный боковой ветер, а позже разработчики заявили: вероятность такого случая не больше 3%. Но ведь она есть! А теперь допустим, что «Буран» пилотировал Толбоев. У него было бы два пути: взять управление на себя и отключить исправную автоматику или не вмешиваться и стать заложником автоматики. Но кто гарантирует, что самолет не улетит в степь и не разобьется? Как летчик ни поступи, он кругом «виноват».

У проблемы есть еще один аспект. В ситуациях, не предусмотренных разработчиками, автоматика может отключать исправную аппаратуру, корректировать или блокировать действия оператора, считая их ошибочными. Уже сейчас это нередко приводит к серьезным катастрофам.

Считается, что в случае отказа или поломки оператор должен взять управление на себя. Но перейти из автоматического режима в ручной психологически сложно: надо понять причину аварии и быстро перейти к активным действиям.

В автоматическом режиме оператор — пассивный наблюдатель, сохранять бдительность ему трудно. Так возникают фатальные ошибки. И чем сложнее техника, тем тяжелее последствия. Мало того что оператор — заложник автоматики, он еще и отвечает за то, чего не делает!

Автоматизация грозит не только катастрофами. Вот неприятности помельче:

• автоматика требует специальных знаний, поэтому требования к квалификации персонала вырастут;

• операторы будут медленно терять навыки ручного управления, в случае аварий они не смогут выполнять нужные действия;

• отлучение специалистов от активного управления может вызывать у них неуверенность и снижать социальный статус.

Автоматика уже стала причиной многих авиаката­строф. И риски растут: создаются беспилотные самолеты, автопилоты для автомобилей, боевые роботы. Наши психологи еще в 1970-х годах предупреждали об опасности бездумной автоматизации. Они предложили решение: оптимальный режим управления техникой — полуавтоматический. Оператор играет ведущую роль, поддерживает уровень квалификации, а в случае отказа или аварии ему легче взять управление на себя. От разработчиков бытовой техники требуется немного: пользователь должен получить легкий доступ к «полуавтомату» (сейчас до него непросто добраться). С промышленными установками сложнее: полуавтомат здесь — первый этап решения.

В нетипичной ситуации ошибаются даже профессионалы высокого класса. Cнизить вероятность катастроф можно, опираясь на разработки инженерных психологов, к примеру на средства активной помощи.

Но для начала создатели и пользователи «умных машин» должны увидеть проблему.