1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
  11 ,2017

ビジネス、心理、マーケティングを軸にいろいろなニュースや事象を分析します


プロフィール

なおゆき

Author:なおゆき
Web広告代理店でシステムエンジニアをしています。
セルフイメージはProblem Analyzer(問題を分析する人)。

このブログでは、IT を中心に
新ビジネスのニュースや現場でよくある問題について
分析します。

検索フォーム
ブロとも申請フォーム
QRコード
QRコード
--

Category: スポンサー広告

Tags: ---

 

スポンサーサイト
上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

14

Category: ビジネス

Tags: ---

Comment: 0  Trackback: 0

みずほ銀障害を分析する~(1)~
IT Pro にみずほ銀行障害の記事が載っていた。

みずほ銀障害の全貌判明、懸案はCIO人事~第1回 重なった30の不手際~

これだけのミスが重なったため、笑いモノにするブログも散見される。
原因については、おおむねシステム原因と経営責任の二点について
分析することが多いようだ。

さて、ぼくにとって興味深いのは
2002年にも障害を起こしていたにもかかわらず、
なぜこれだけの大障害がまた起きたのか?ということだ。
何か根深い、根本的な原因があるのではないか?と考えてしまう。

そこで、事象についてきちんと取材されているようなので、
上記の IT Pro の記事をベースに分析を進めてみようと思う。
(コバンザメ的ですみません)

以下の30の項目について TOC の思考プロセスで因果関係を明らかにしたい。

1  義捐金口座の設定をミスした
2  バッチ処理の上限を担当者が知らなかった
3  異常終了でデータが欠損した
4  欠落データの復元に8時間かかった
5  担当役員が知るまで17時間かかった
6  頭取への報告に21時間かかった
7  オンラインとバッチの並行処理を想定してなかった
8  為替未送信に19時間気づかなかった
9  取引抑止操作に予想の5倍の時間がかかった
10 バッチ中断後は自動運用が不可能だった
11 早期の手動切り替えを想定していなかった
12 障害対応の実効性(?)を確認していなかった
13 作業漏れや操作ミスが多発した
14 勘定系のリスク評価を低く見積もった
15 連携不足で二重振込が多発した
16 顧客の心配がIT部門に届かなかった
17 二日連続で上限を超えた
18 上限設定を23年間見直さなかった
19 バッチの負荷テストを実施しなかった
20 内部・外部監査が機能していなかった
21 運用リスクを低く見積もった
22 エラーメッセージを読み誤った
23 誤ってデータを削除した
24 削除したデータの復旧に16時間かかった
25 日付切り替え処理の影響を失念した
26 ログファイルの退避を失念した
27 ログ容量超過で勘定系が全面停止した
28 障害対策チームの一本化が5日後になされた
29 システムを熟知する要員が不足した
30 指揮を執るマネジメント人材が不足した


なお、この記事を書いている現時点では、アタリがついていないです。
どういう結論になるか、マッタクわかりません(笑)。
スポンサーサイト

テーマ : ニュース    ジャンル : ニュース

Comments

Leave a Comment

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。