2016-07-04

テスラ社死亡事故で考える Intended Use (意図する使用)


GHS(ヘルスソフトウェア推進協議会)のリスクマネジメントトレーニング講座で,Intended Use(意図する使用)が決まっていないとリスク分析はできないと教えている。

Intended Use を決める・定義するということは,製造業者が提供する製品やサービスにおいて,誰が,何を,どのように使うことを意図しているのかを明確にすることである。

日本人の技術者は特にこれが苦手だと感じる。

その理由は,多くの日本の製造業者がすでに市場にある自社製品やライバル会社の製品の機能や性能を模倣・継承して,それらに付加価値として追加することで「売れる」製品を作ることができてしまうからではないかと考えている。

だから,日本の技術者は自分が開発に携わった製品の新たに付け足した機能や性能のことはスラスラと答えることができるのに,その製品の Intended Use (意図する使用)は何かと聞いてもバシッと答えが返ってこない。

こちらが聞いているのは,付け足した付加機能のディテールではなく,基本機能や基本性能を誰のために,何のために作ったのかを答えた欲しいのだが,そういった基本機能・基本性能は,すでに前の機種で実現してしまっていて,再利用するだけなので,付け足し機能しか担当していない技術者の頭の中に残らないのだろう。

しかし,製品やサービスの基本機能や基本性能が故障したり不具合を起こしたりすると,とたんに大問題となる。だから,市場で不具合が発覚してリコールになったりしたときにはじめてそれが製品にとって重大な機能だったのだと気が付いたりする。

GHSのセミナーでは,Intended Use を説明するのにMobile MIM という iPad iPhone のアプリケーションソフトウェアを例示している。

このアプリケーションソフトウェアは,医療機器である画像診断装置のデータをクラウド上に格納し,その画像を iPad や iPhone で閲覧するソフトウェアだ。iPhone を持っている方は,アプリをダウンロードしてサンプル画像を無料で見ることができるので試してみるとよい。

このアプリは,2008年に 米国FDAに医療機器としての申請をしており,3年間に渡るFDAの交渉を経て,医療機器と認められている。

この経緯はアプリのようこその Mobile MIMのストーリーに書いてあるので,読んで見ると面白い。

そして,ユーザーガイドの配下に左記の使用目的が書いてある。

日本語では使用目的となっているが英語モードで表示させると Intended Use だ。

Intended Use には,「何の目的のソフトウェアであるか」「アプリが扱う医療画像は何から得たものか」がまず書かれている。

そして次が大事なのだが,このアプリは医療行為に関わることとして「放射線治療のプランを承認することに使用できる」と書いてある。

そしてさらに重要なのは,このアプリが医療機器である画像ワークステーションに取った代わるように設計していないことと,画像ワークステーションへのアクセスができないときにのみ使用すべきと明示している。

そういった場合であってもマンモグラフィには使用できないと明確に書いている。

ようするに Intended Use を定義した上で,でできることと,できないことをはっきりと書いているのだ。

このような書きぶりは,海外の医療機器では珍しくない。海外の医療機器ではIntended Useの中で,できることと出来ないことがはっきりと書かれている。

米国で特にそういう書きぶりになるのは,できることと出来ないことを明確にしておかないと,その製品で事故が起こったときに,製造業者側の責任分解点が曖昧になるからである。

なお,訴訟対策という意味以外でも,冒頭に書いたように Intended Use が明確になっていないとリスク分析ができない。

Mobile MIM に関して言えば,「放射線治療のプランを承認する」目的での使用は意図しているので,その目的に際して,間違った判定にならないようにリスク分析を行い対策しておく責務が製造業者側に生まれる。

おそらくそのためであろう。このアプリは自然光が強い場所では使えないように,医療用途で使用する場合には,少しだけコントラストを変えたエリアをランダムに表示させて,そこをポイントできないと先に進めないようなくふうがされている。

これは,微妙な輝度の違いを読み取れないような環境でアプリを使うと誤診につながるので,それを回避するためのリスクコントロール手段である。想像するにFDAと何回も Intended Use と想定されるリスクについて議論した末に設定したリスクコントロール手段だと思われる。

そして,何を意図しているのかと同様に「何を意図していないのか」ことも明確に示した。これによって「製造業者が意図していないこと」をユーザーが行った場合は,誤使用となる。医療機器ドメインでは「合理的に予見可能な誤使用」は製造業者の責任でリスクコントロールをする義務があるが,Intended Use で明確に出来ないこと,意図していないことを明示している場合に,ユーザーがそれをやってしまった場合は,よっぽどのことが無い限り,製造業者の意図に反した誤った使い方となる。

日本人がこのような Intended Use を見ると,販売に悪影響がでるのではないかと思うかもしれない。しかし,組織が取扱説明書等で出来ないと書いているのに,セールスの担当者が「公式にはできないと書いてありますが,実際には多くのお客さんがこんな使い方をしていますよ」などとユーザーに耳打ちしていれば,FDAは取扱説明書上に明記された Intended Use と 医療機器の使用の実態との乖離を許さない。

さて,2016年6月30日に米テスラモーターズの「自動運転モード」作動中に初の死亡事故が起きた。(日経記事

死亡した運転手は自動運転中にポータブルDVDプレーヤーでハリーポッターのDVDを鑑賞していた可能性があるらしい。(ロイター記事

この記事の中で,下記のように書かれている。
事故車となったセダン「モデルS」の2015年モデルの運転手が道路を見ていたのかどうかという疑問は、テスラにとって重大な意味がある。同社は、オートパイロットの安全性に関して連邦当局から予備調査を受けている。  
オートパイロット搭載車は運転しなくても、車線内を走行し、スピードを維持できる。同社は1日に声明を出し、「オートパイロットは路上での最先端のドライバー支援システムだ。ただ、これにより、テスラ車が自律走行車になったり、運転車が責任を放棄できたりするわけではない」との見解を示した。  
この,「オートパイロットは路上での最先端のドライバー支援システムだ。ただ、これにより、テスラ車が自律走行車になったり、運転車が責任を放棄できたりするわけではない」というテスラモーターズの主張に思い切り突っ込みを入れたい。

テスラモーターズは オートパイロット機能による自動運転を Intended Use として意図しているのか,意図していないのかを明確にしておらず,曖昧なままにして,状況によって都合良く解釈していないかと。

ようするに,ユーザーがオートパイロットに任せきった運転をすることを想定もしくは,黙認しながら,公式には自律走行は許していないとする,2つの顔を使い分けていないかということだ。

こういうことをすると,有効なリスク分析できない。製造業者として意図していることと意図していないことが明確になっていないから,運転手がオートパイロットに運転を任せきってしまうことが,正常使用なのか,明確な誤使用なのか,それとも合理的に予見可能な誤使用なのかがはっきりしない。

自律走行を意図していないのなら,まず,「オートパイロット」で運転手が運転を任せてしまうことは禁忌・禁止として,明確に,常に意識できるようにラベリング(みえるところに表示する)必要があり,かつ,そうしてでも運転を任せきってしまうことは合理的に予見可能な誤使用としてありうると考えて,リスクコントロール手段を講じることが必要だ。

例えば,運転手の視線が前方を向いていなければ警告音を鳴らすといったリスクコントロールだ。

こういったリリスクコントロール手段にはコストがかかるから,やるやらないの判断するためには,組織として承認された Intended Use が必要になる。そこがはっきりしないと,開発の過程で組織の都合のよい解釈が成されて,リスクが残ったまま,製品が市場で使われることになる。

今一度,自動車メーカーに問いたいのは自動車メーカーは「運転手から運転を解放するため」に自動車に自動運転機能を装備しようとしているのではないのかということだ。目標は高く掲げ,社会への貢献を高らかに謳い,「やっちゃえ」と言ってユーザに期待させておきながら,事故が起きると責任は回避するという態度はいただけない。

医療機器の場合,単純化すると,製造業者が「診断」「治療」「予防」を標榜すると医療機器として規制されることになる。支援するとか,補助するとかで,誤魔化すのではなく,左記のようにビシッと線を引くことが Intended Use を定義することになる。

自動運転機能を自動車に装備する目的は「運転からの開放」なのに,事故が起こったときだけ「自動運転はあくまでも運転の補助だ」と言っていないか。上の図の例だと線が右にいったり左にいったりしていないかということだ。

「運転からの開放」か「あくまでも運転の補助かなのか」の使用目的の違いによって,リスク分析の結果や必要なリスクコントロールが変わってくる。

だからこそ,大事なのは「その機能があるかないかではなく,製造業者がどんな意図でその機能を製品に搭載したのかという意図の問題」だ。それが Intended Use を特定することだ。

そして,その機能を意図して搭載すると決めたのなら,その使用目的を想定したリスク分析を行い,リスクが受容できるまでリスクコントロール手段を講じなければいけない。

Mibile MIM の例では「放射線治療プランの承認に使用することを意図する」と決めたから,放射線治療プランを誤って承認するリスク(例えば実際には病巣があるのにないと判断して治療が遅れ病状が悪化するなど)が抽出され,リスクコントロール手段を取ることができたのだ。

Intended Use を曖昧にしていると「コントラストが確認できない状況でアプリを使わせてはいけない」というリスク分析が出てこないかったかもしれないし,コストがかかるからといわれ採用できなかったかもしれない。

自動運転に関しては,何のためにその機能を搭載するのかの Intended Use を定義しないまま,自動車業界は世の中のムードや早く実現しろというプレッシャーに押されて開発を進めていないだろうか。

一番危ないのは,サプライヤーが「その機能作れって言われたので作りました」というスタンスで部品として自動運転の機能を自動車メーカーに提供するというケースだ。

「ASIL-D として自動運転機能を仕上げましたので安心してどうぞご使用ください」というスタンスだと,Intended Use をベースにしたリスク分析やリスクコントロール手段に結び付かない。ようするに自動運転が「運転からの開放」なのか,「運転の一部肩代わり」なのか曖昧なままでは,リスク分析の結果とリスクコントロール手段が変わり,受容できないリスクが残留するいうことだ。

また,事故が起こってからリスクコントロール手段を考え直すということを繰り返していくと,付け足したリスクコントロール手段が新たなリスクを生む可能性がある。

医療機器業界は,そういった経験を繰り返した結果,機能安全(Functional Safety)とは異なる,リスクベースアプローチ(Risk Based Approach)を中心した基準を確立してきた。

自動車業界は今後,自動車運転を未来に向かって推し進めようとするならば,自動運転の Intended Use を明確に定義すべきだ。

運転支援だなどと曖昧にごまかして,事故が起こらないうちは,さんざんメリットとして宣伝に使い,いざ事故が起こったら使用者の誤使用にして責任を逃れるやり方は許されない。

これまで自動車は走る・止まる・曲がるの基本性能と付加価値となる機能の間に独立性があったが,時代が変わって,付加価値の機能と基本機能・基本性能が絡み合うようになってきたのだと思う。

医療機器の世界では,ひとつに特定しきれないさまざまな機能をもった機器があり,その使い方に絡む事故もたくさん起こっていたので,事故の再発防止のためにも Intended Use の定義とリスクマネジメントの重要性が叫ばれてきた。

自動車業界もITとの融合が本格的になってきて,Intended Use を明確にしなければ,有効なリスク分析ができず,これまでにはなかった複雑な要因の事故が多発する世界に足を踏み入れてきたのではないだろうか。

P.S.

テスラ社の事故に関して「これは運転支援システムであるから,ドライバーが運転を機械任せにしてしまったことが間違い」という識者の見解を散見するが,こういう考え方をしていると未来に発生するであろうオートパイロットの事故は減らない。オートパイロットを導入することで交通事故が減少するというメリットと天秤にかけるという考え方はあるが,それを正当化したいのなら社会的なコンセンサスを得たうえで,利用者にもリスクを理解させ,オートパイロットの使用における禁忌・禁止事項を守らせることが必要だと思う。