2021年06月07日

システムの問題

彡(゚)(゚)で学ぶヒューマンエラー
http://world-fusigi.net/archives/9705284.html

ヒューマンエラーという用語が、
「個人のミスによるもので、その個人がミスをしなければ上手くいった」
という言葉を想起させる。
少なくとも、ヒューマンズエラーと複数形にするべきだな。
ミスは複数の人間の間で起こる。

俯瞰すればわかるものが、現場では近視眼になる。
そして近視眼のときは、俯瞰する手段がない矛盾。


とくに管制官の判決がむごい。
管制塔と自動警報の指示の、
どちらを優先するべきか考えられていなかったり、
自動警報の指示を管制塔が把握していないという大問題がある。
つまり、
俯瞰した状況を、目視以外では誰も把握していない。
(そして、飛行機は目視したらすでに遅いのだ)

そして判決がさらにひどく、
システムの問題なのに、個人に責任を負わせたことが、
もっとも無知のひどさだと思う。

このシステムの不備に、
誰か俯瞰して気づかなかったのだろうか?
俯瞰して気づかなかったことが罪であるというのに。

おそらく、
「全てを分かっている人」がいなかったのではないか?


システムを俯瞰して考えるためには、
最低でも複数の人が、「全てを分かってる」必要があると、
僕は考える。
そうでなければ、「あれのあれはああじゃない?」
と議論できないからだ。

「詳しくは専門家にまかせる」というリーダーは、
全てを把握してない、無能だと僕は思う。


これは仕事でもよくある。

ある所の人が近視眼的にこうではないかと判断して、
指示を出すことがある。
俯瞰してればそんなことは間違いの指示だとわかるが、
俯瞰してる人が一人しかいないならば、
その人が何かを警告しても無駄で、
「その指示に従え」と、周囲が同調圧力をかけてくることが、
日本ではとても多いように思う。

俯瞰してる人が複数いれば、
いや、それはおかしいよ、あの人の警告はあってる、
なぜなら、と言う風に判断できるはずで、
その指示やそこに至る認識を撤回させることができる筈だ。


そして問題は、
全てを俯瞰できる賢い人は、
コストが高いので、
安い現場にはいない、ということだろう。

こうして、安い現場で事故が起きやすい。

そもそも賢い人をたくさん投入する、
コストが高いものとしてはじまったものが、
時間を経ることでコストダウンする必要が生じて、
現場から賢い人がいなくなったとき、
このような事故が起こりがちだ。


人間はエラーを起こす。それは前提としてある。
それはエラーだよ、こうしなければ、
とエラー訂正する仕組みがない現場は、
そのまま事故へまっしぐらになる。

このスレッドでは触れられていない、
チェルノブイリ事故の原因は、
「分かりにくい操作盤の操作ミス」
だったことが明らかになっている。

それも操作キーボードのコストを下げたために起こったことで、
エラーは必ずあり、エラーを訂正するように、
モノが出来ているべきだ、
という反省のもとに、
その後の操作系のデザインは変わっていった。

ベンツの操作系が特に有名か。
シートや窓の操作を、分かりやすいアフォーダンスのついたボタンに変えた例がある。


こういうことがあったら、
こういうことが起こり得る、
というのは、想像力と俯瞰力が必要だ。
近視眼ではそれを見抜けない。


いま、あらゆる組織がそうなりかかっていて、
大変危険な状態だと僕は思う。

まあ、五輪を強行してる段階で、
どこにも俯瞰した人は複数いないのだろう。

事故が起こったあとに、
どう切り抜けるかを常に考えなければならない。
それがシステムを俯瞰するということだ。


誰も全貌を把握してない組織は、
システムではないとすら僕は思う。
posted by おおおかとしひこ at 13:23| Comment(0) | 脚本論 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

※ブログオーナーが承認したコメントのみ表示されます。