活動報告

新着記事

カテゴリー

キーワード検索

2013.10/29 主成分分析概略

統計学の目標が、多数の複雑なデータから本質を見抜くことにある(注)ならば、主成分分析を一言で言うと、データを見渡せる場所を探し、そこからデータを調べる方法となる。

 

データを見渡せる場所、とは、データには誤差がつきものなので、データそのものの変動が最大になっている場所となる。人間が集めるデータは、ある仮説に基づき集められる場合が多いが、その仮説で集められたデータの変動がいつも最大になるとは限らない。これは現象を科学という視点で見たときに全てを見通せるとは限らない、ということを意味している。

 

科学的に説明がつかない現象も含めて目の前のデータを集めなければいけないのが、毎日の実務作業である。開発業務では、とにかく新製品の納期に合わせて、技術開発を進めなければならない。そのため基礎科学の視点で全てを解明しながらデータを集めることができなくなる。

 

例えば界面活性剤の特性値にはHLB値、曇点、分子量、融点などがあり、カタログを見るとこれらの値がデータとして示されている。界面活性剤の教科書には、HLB値で界面効果を表現できるとある。しかし、カタログの値を主成分分析してみると、HLB値の視点と分子量その他の項目を寄せ集めたデータが第Ⅰ主成分として出てくる。

 

すなわち、カタログの項目とは異なる別の項目でデータを整理でき、その整理されたデータ表では、元のカタログデータの変動よりも、データの変動が大きくなっている、それが第Ⅰ主成分になる、ということである。

 

もう少し手続き的な言い方をすれば、カタログ値の項目で並べられたデータをコンピューターで処理すると新たな項目のデータ表に置き換えられ、元のデータ表の変動と新たなデータ表の変動を調べると新たなデータ表の変動が大きくなっている。このようなデータ変換の方法とその変動が最大となったデータ群を元に解析する手法が主成分分析という手法である。

 

界面活性剤のカタログ値を主成分分析にかけると、HLB値と相関の高い項目には、HLB値とそれ以外の因子の情報を加えたデータになっている。この軸ともう一つ別の軸を持ってきてサンプル集団をプロットすると、HLB値で分類した場合と異なるサンプル群が見えてくる。

 

電気粘性流体をゴムに封入したときに耐久性が悪くなる問題を界面活性剤で解決したときに主成分分析で分類された群を利用して問題解決を行った。HLB値だけでは隠れてしまっていた界面活性剤が、主成分分析を行い新たに作成した特性表から答として選ばれてきた。

 

このようにデータ表を処理して別のデータ表を作るのだから、行列計算になる。ゆえに主成分分析に線形代数が出てくるのである。

 

 

(注)タグチメソッドのロバスト設計という目標と異なる。タグチメソッドが統計ではない、と言われるゆえんである。技術と科学の目標の違いである。

 

(補足)界面活性剤の機能をモデルで説明するときにHLB値は便利で分かりやすい。しかし現実の複雑系ではHLB値だけで界面活性効果を制御できない。界面活性剤はHLB値である程度のあたりをつけることは可能だがそれだけで解決できない問題が存在し、やってみなければ分からない世界である。しかし、このような世界で主成分分析は一つの手がかりを与えてくれる。またこの手法で予想外の主成分が見つかったりすると貴重なノウハウになる。しかし科学偏重の風土の会社では主成分分析を用いたことを隠しておいた方が良い場合がある。例えば界面活性剤をHLB値以外の因子で選択した、という説明は難しく怪しい方法と言われる場合がある。

 

カテゴリー : 一般 連載

pagetop

2013.10/28 多変量解析の基礎事項

具体的な式は教科書を見て欲しいがばらつきの表現のパラメーターとしてまず覚えなければならない定義を以下に。その他にも難解な言葉は多いがまず以下を丸暗記しなければ多変量解析の教科書を読むときに苦労する。

 

偏差:測定値と平均値の差

 

変動(偏差平方和):偏差の平方和

 

分散:

偏差を平方してたし合わせ、その値を足し合わせたサンプル数で割った値である。すなわち変動をサンプル数で割った値である。なぜ偏差の平方和にしているのか。測定値と平均値の差をそのまますべて足し合わせると0になるからである。いつも0では情報が消えたのと同じなので、平方和をとってばらつきの尺度にしているのである。サンプル数で割ったときには標本分散と呼ぶ、という説明も教科書には載っている。これは(サンプル数-1)で分散を求めることもあるからだ。これも理由無く書いている。昔電卓の標準偏差を求めるキーにNとN-1の2種類存在するのを見て奇異に思ったことがあるが、サンプル数が少ないときにN-1を使う、とその道のプロが教えてくれた。なぜかと尋ねたら、Nではサンプル数が少ないときにばらつきを過小評価することになるからN-1で割るのだ、と説明してくれた。意地悪くNとN-1の境界の個数は、と尋ねたら答は返ってこなかった。

ここで大事なことは、多変量解析では平均値よりも分散の値が主役になる。分散は測定値の持つ情報量を表現している、という説明まで教科書に書かれている。

 

標準偏差:

分散の平方根。平均値と同じ次元になる。標準偏差などと命名されているので普通の感覚で導かれた式だと思っていたが、データの平方和の平均(分散)を平方根にした、すなわち平方して求めた値を平方根で元の次元に数値を戻しただけである。なぜ平方根にしたのか、といえば平方して和を求めたので平方根にしただけである。初めてこの言葉に触れたときに、平方根を取る理由が分からなくて大変難解に感じた。単なる定義である。

 

共分散:

2変数間の関係を表す分散で、(x1-xの平均値)*(y1-yの平均値)+(x2-xの平均値)*(y2-yの平均値)-――とたし合わせサンプル数で割った値。これも情報量を表現するための定義。

 

相関係数:

共分散をそれぞれの変数の標準偏差で割った値。標準偏差や共分散が定義されると相関係数という値が何か意味ありげにこれらの数で表現される。科学の数学表現を考えている人たちは表現が美しくなるようにいろいろ定義を考えてゆく。専門外がそれを理解しようとする時に美しさよりもそれぞれの由来を考えて悩む。

 

分散共分散行列:分散と共分散をまとめた対称行列のこと。

 

相関行列:相関係数の対称行列のこと。

 

カテゴリー : 一般 連載

pagetop

2013.10/27 多変量解析の前に

多変量解析を理解する為には、統計の基本的考えを理解していなければならない。統計の基本とは、現象を把握するためにサンプリングを行い、サンプリングされたデータから現象を推定する、という考え方である。

 

対象とする現象の一部から抽出したデータで現象を推定しようとするから、誤差の問題が発生する。誤差とは、自然で起きている実際の値Xと、サンプリングされて測定されたデータxとの差である。ここで問題が起きる。Xを知りたいからサンプリングしたのだが、Xは絶対に知ることのできない値である。これがよく分からない人がいる。世の中にはどんなことをしても知ることのできない事柄がある、という現実をまず認めることから統計学は始まる。

 

知ることのできないXを推定するために、サンプリング数を増やして平均をとり、xの平均値~xをXと等しいのではないか、と推定する。統計学の本を読むと母集団Xの値を推定するためにサンプル集団の平均値を求める、とさらっと書いてある。統計という学問を誤解する人はこの段階ですでに“気がつかずに”つまずいている。どのような努力を払っても実際の値が分からないから平均値でその値を推定している、ということは大事な考え方である。サンプリングの仕方で平均値もばらついているのである。例えばサンプリング数を大きくしてゆくと、平均値のばらつきも小さくなってゆき日常生活で無視できるばらつきのレベルになる。

 

実際の値をばらつく平均値で推定するのだから、サンプリングしたデータ全体の変動が気になってくる。それを表わしているのが偏差とか分散とか呼ばれる値である。平均値はサンプリングデータの総和をサンプリングした個数で除する、という手順は小学校で習うので違和感は無いが、偏差とか分散あたりで難しく感じ始める。そして教科書を読み進むと線形代数が出てくるのが多変量解析の教科書で、そこまで読み進むと教科書を投げ出し、統計学は難しい、となる。

 

おおよそ自学自習の経験が少ないと不得意な内容を読み進めようとしないのが凡人の常である。実はどのような難解な本でも10回程度我慢して読むと何とかわかったような気がしてくる。昔の格言で「読書100ぺん――」というのがあったが、100回まで読まなくても10回程度で分かり始める。

 

人によりあるいは難しさによりその回数は変わるが、我慢して何度も同じ本を読む習慣を凡人が身につけるとどのような分野でも努力すれば理解できるという自信がつく。日科技連の「多変量解析」という本は6回程度読んで理解でき、重回帰分析のプログラムを組むことができた。そして偏差とか分散について2回目あたりで教科書の説明が専門外の読者を考えていないことに気がついた。日科技連の「多変量解析」は専門書として優れているが、入門書として不適格な書物だと思う。まえがきに、「専門外の人は10回読んでみてください」と注意書きを書くべきである。

 

基本統計量というパラメーターは統計という学問をうまく体系づけるために考え出されたパラメーターである。偏差の値については、小学校高学年あたりで最大値と最小値の差であると習う。要するにサンプリングしたデータのばらついている様子を大雑把につかむにはこの説明は便利だ。中学校になり、標準偏差を習う。そして分散という値についてもその説明文で接する。すなわち統計量にはデータのばらつきの表し方がいくつもあるのである。そして必要に応じてそれらを使い分けているだけである。この感覚が統計学を理解するときに大切である。

 

故田口先生は、それらをSN比で統一し、タグチメソッドの体系を創り上げたスゴイ先生だ。データのばらつきは、誤差因子により引き起こされるので、考えられる誤差因子のすべてを調合してSN比を求めるのがタグチメソッドのコツである。SN比が最大になるように、すなわち誤差因子に対してばらつきが小さく”安定に”なるように制御できる因子を調整してばらつかない機能部品を開発する、これがタグチメソッドにおける偏差の考え方である。そして誤差に対して安定に機能が発現するように材料設計する方法がロバスト設計である。タグチメソッドの美しさは、誤差-ばらつき-ロバスト設計という考え方で統一されている点である。難解な統計学と一線を画する品質工学すなわち技術という学問である。

 

田口先生がアメリカでタグチメソッドを指導されているときに、相関係数をラテン方格に割り付けて実験計画法を行うアイデアを思いつき、高純度SiCの開発に使用していたが、SN比までアイデアを拡張することは考えなかったので、田口先生のスゴサを身にしみて感じている。

 

データの散らばり具合をタグチメソッドではSN比で表現し直感的にロバストをあげる、という考え方を分かりやすくしたが、多変量解析では、分散とか、共分散、偏差平方和などいろいろな言葉が出てくる。しかし、これらが単なるデータの散らばり具合を表すパラメータとわかれば理解が早い。あとは定義を覚えるだけである。すなわち統計学という体系を創り上げるための決め事をまず覚えなければならない、ということ。頭の善し悪しでは無いのである。SN比でそれらを統一した田口先生は改めてスゴイと思う。

 

多変量解析を理解する為に統計学を学ばなければならない。統計学は科学分野の学問である。技術のタグチメソッドと異なり、真実を明確にするための約束事=言葉の定義を覚えなければ理解できない。タグチメソッドはロバスト設計のコツを伝承すれば誰でもできるようになる。技術だからである。科学分野の教科書はどれも難しい。それは、哲学書であり、その世界感を理解する為にその世界で使われる専門用語=知識を覚えなければならないからである。考え方の理解は知識の量に左右される。

カテゴリー : 一般 連載

pagetop

2013.10/26 多変量解析経験談

ゴム会社から写真会社へ転職したときのキャリアは、セラミックスの研究者であった。ゴム会社で住友金属工業との半導体用高純度SiCのJVを立ち上げるまで、炭化物以外に窒化アルミや窒化珪素などの非酸化物系セラミックスの研究開発を推進していた。数年間は一人で担当しており、スタッフ職という位置づけであった。

 

スタッフ職なのでセラミックス以外のテーマの支援も行っており、ゴムを初めとして高分子関係のテーマに接する機会も多かった。ゆえに写真会社で高分子技術を担当すると言っても違和感は無かったが、学位を取得しようとしていたセラミックスに比べると圧倒的に知識が不足していた。そこで役にたったのが、新人時代に50万円の研修で1年間勉強させて頂いた多変量解析を初めとする統計の知識であった。

 

転職先の部署で隘路にはまっているテーマを見つけては、実験データを多変量解析していた。フィルムのスクラッチ試験を主成分分析で解析したときには、スクラッチ試験で傷の付き方が幾つかに分類されることを発見した。担当者に尋ねてもその事実に気がついていなかった。

 

スクラッチ試験器は2台あり、同じサンプルでこの2台の傷の付き方を調べたところ、微妙に異なっている。担当者は誤差範囲だという。その日から、どちらの試験器で試験を行ったのか記録させることにした。すると片方の試験器で傷がつきにくくなっていることが傾向として現れた。1サンプルでは誤差範囲という言い訳はできても、Nが大きくなってくると有意差検定の精度があがる。有意差検定でクロとなれば試験器の差を認めざるを得ない。

 

面白いことに、この機種の差はサンプルの処方設計に依存して大きくなったりしている。単純に試験器のメンテナンスの問題なのだが、針先の形状の違いが振動の差を生み出し処方の差を検知しているのである。これをヒントに動的にスクラッチ試験を行い、薄膜の粘弾性を解析する装置を発明した。クズデータと思われるデータを多変量解析にかけたら新しい技術のヒントが生まれたのである。その上この薄膜粘弾性測定試験器は、新しい技術「写真フィルムのプレッシャ-故障防止技術」を開発するのに活躍した。多変量解析さまさまである。

 

また、酸化スズゾルを用いた帯電防止層の開発のきっかけとなったのは、酸化スズゾルの粒子には導電性が無いと結論づけられたクズデータ群である。このデータ群とイオン導電体による帯電防止層のデータ群をいっしょに重回帰分析にかけた。誤差分析を行ったところ、パーコレーション転移前は、酸化スズゾルに含まれる微粒子の導電性が高いという可能性が出てきた。

 

酸化スズゾルに含まれる粒子の比重が極めて大きいので、体積分率を基準にしたときの添加量の多いところまで検討していなかった問題もあったのだが、酸化スズゾルに含まれる粒子の導電性が良好、という統計データは金星であった。すなわち、否定的結論を出したデータを解析し直したところ有益な見通しが得られた。

 

一連の解析は、当時主流であった16ビットのPC9801を改造した32ビットのマシンで行っていたので1時間もかかっていない。大半がデータをインプットする時間であった。プログラムはLattice Cで作成した自前のソフトウェアーである。当時このCの処理系にはライフボート社から多数のライブラリーが販売されており、統計計算のソフト開発が容易な環境であった。日科技連で受講した研修の復習をするため日曜日にプログラムを作成していた。プログラムを作成したら難しく見えた多変量解析も簡単に見えてきた。

 

多変量解析では因子間に相関が高ければ、必ず何らかの傾向が現れる。それが固有技術の観点から説明できれば良いが、説明のつかないときには注意が必要である。偶然の結果なのか気がついていない因子が存在するのか統計の視点と技術の視点から検証しなければならない。転職して一年間多数のデータを解析してみたが、偶然の相関よりも実験ミスの傾向の方が多かった。測定装置のメンテナンス不足のようにデータが少ない段階で気がつかない実験ミスが転職した職場に多いことを発見した。

カテゴリー : 一般 連載

pagetop

2013.10/25 多変量解析とは(3)

ビッグデータのブームで多変量解析に注目が集まっているが、科学と技術の視点で面白いと思っている。多変量解析は40年以上前に統計科学で確立された学問で、最初は大型コンピュータ上で実用化された。

 

アンケートの集計や解析に活用されただけでなく、心理学の分野などでも利用された。技術として身近に活用されたのは洋服の型紙への応用である。そこでは主成分分析が使用された。ゴム会社では、分子設計に統計学手法が早くから使用されていたが、これは日科技連の影響が大きい。

 

多変量解析には重回帰分析や主成分分析、正準相関分析、変形主成分分析、判別分析、因子分析、クラスター分析など様々な方法があるが、利用価値が高いのは主成分分析と重回帰分析である。技術者であれば、この二つの科学的知識を身につけておいて損は無い。技術開発の現場でアイデアに困ったら、この2つの科学的知識をおまじないのごとく活用すると新たなアイデアが見えてくるという、そんなありがたい方法である。

 

ビッグデータ専用の解析手法と昨今は報じられているが、20個ほどのデータの解析で使用しても単相関で見えていなかった世界が見えてくる。例えばこんな使い方がある。

 

開発業務では前任者がうまくゆかなかった業務の尻ぬぐいを担当することがある。うまくゆかなければそのテーマは終わりで自分に責任が来る、という損な役割が回ってくるのはサラリーマン生活で1回や2回はあるはずだ。そのような経験が無い人は運が良い。運が悪いと20年そのような仕事ばかりで成果が出ても他人に持って行かれる、という生活になる。会社の仕組みが明らかに悪く、内部エネルギー消費型の決して業界トップになれない会社ではそのようなことが起きるかもしれない。

 

その様なときに、だまされたと思って多変量解析を使ってみると良い。うまく進捗していない仕事には何か原因があり、前任者の実験データは紙くずのように見えるかもしれない。しかし、そのくずデータを多変量解析するのである。開発がモグラたたきで推移した場合には、因子ばかり増加して訳の分からないデータ集となっているかもしれないが、多変量解析を行うと見えていない傾向が見えてくるときがある。前任者のデータは決してくずではないので活用する道を考えなくてはならない。

 

あるいは、多変量解析の結果、開発を進めてもダメ、という結果が早々と得られるかもしれない。これはこれで幸運である。全く新しい視点で開発を進めれば良いだけである。成功しても評価されず失敗したら責任が飛んでくる状態であれば、思い切ったアイデアを躊躇無く試すことができる。

 

但し多変量解析は統計的手法であることを忘れてはいけない。この手法で浮かび上がったアイデアを技術分野の常識で事前に検証することも重要である。30年間多変量解析を使用してきたが、単相関では見落としが多いという実感を持っている。前任者の仕事の解析結果なので、社内で公開しにくい側面もあり秘策として使ってきたが若い技術者にはタグチメソッド同様に有効な知識であるとお伝えしたい。

 

カテゴリー : 一般 連載

pagetop

2013.10/24 多変量解析とは(2)

朝出勤のために電車に乗る。電車の中ではスマホでSNSに書き込んだり、インターネットでニュースを閲覧したりする。会社近くの駅で降りコンビニにはいり、SUICAで買い物をする。会社についてコーヒーを飲みながらイントラネットで社内のニュースを見つつ外部のホームページをついでに閲覧して知識を少し蓄える。

 

朝の仕事を開始するまでの行動だけでも、次のようにいっぱいデータを世の中に提供している。

 

1.出勤時間

2.通勤区間

3.通勤区間における電車の速度

4.SNSに書き込んだ情報

5.どのようなニュースに関心があったか

6.朝の買い物で購入される品物

7.ホームページ閲覧時間

8.ホームページ閲覧ページ数

9.ホームページの経由地

10.興味を持ったホームページ

11.その他

 

通勤電車の混み具合を調査したければ、上記1,2,3の情報をインターネット上から集めればよく、JRではSUICAの情報を基に実施している。最近ではその情報を販売する、と報道されて問題になった。

 

今消費者がどのような事柄に関心があるかは、4-10までの情報を集めれば傾向がわかる。さらにそこへ閲覧時間が加われば、消費者の分類も可能である。ビッグデータが話題になっているが、膨大なデータに対してどのような目的で活用するのかが重要である。また逆に企業の活動方向を定めるのにどのようなデータを集めるのかという知恵が必要となる。

 

すなわちビッグデータの活用には、科学者が自然現象に対峙してきた姿勢を支えた科学の知識が要求される。その知識とは統計学であり、統計学の多変量解析に今注目が集まっている。

 

しかし多変量解析については、1971年に日科技連から奧野忠一らによる「多変量解析法」という著書が発表されている。これは40年以上前に科学的に確立された手法である。統計学ではないが、マハラビノスタグチメソッドという手法も普及してきた。

 

40年以上前は、マイコンも登場していなかったので、大型コンピューターに用意された高額なソフトウェアーパッケージで販売されていた。新入社員の頃IBM3033へパンチカードでデータを供給し、主成分分析を行ったことがあるが、入力から出力まで2時間かかった記憶がある。今なら入力にかかる30分程度の時間で出力が得られるのに、昔のコンピューターは、マルチタスクでCPUを占有することができず固有値の計算にも時間がかかっていた。

 

 

カテゴリー : 一般 連載

pagetop

2013.10/23 多変量解析とは(1)

調査や実験を行うときにデータを収集するが、データの収集は通常計画的に行われる。この時目的変数をyにしてx-y座標系にデータをプロットするために一因子だけのデータを集めるというのは稀で、多数の因子についてデータを収集する。例えば洋服の開発では、人間の体形データが必要である。この時身長以外に胸囲や腹囲、腕の長さ、座高など複数の項目すなわち因子についてデータが収集される。

 

集められたデータは、個人別にまず整理される。この時エクセルなどの表計算ソフトを使用し一覧表にまとめたり、予め用意しておいたデータベースにデータを入力してデータの組み替え加工をしやすいようにまとめたりする。

 

このように複数の項目について集められたデータ、すなわち多変数のデータのことを多変量データと呼び、それを解析して多変量データの中に隠れている各項目の関係その他を解析する手法が多変量解析である。最近ビッグデータ時代といわれているが、インターネットの世界からある目的のために仮説を立て因子を選びロボットを使い集められたデータも多変量データであり、これを多変量解析しているだけである。

 

ゆえに先日30年以上前のブームの再来と表現したが、30年前インターネットは無かったので再来と言っても中身は異なる。昔は多変量データを集めるにも大変な労力が必要になったが、今はインターネットの世界にロボットを放ち、容易に多変量データを集めることが可能である。

 

30年前は3年程度で下火になったが、恐らく10年以上続くブームになるかもしれない。あるいは、オタクのアニメ同様に様々なビッグデータを活用した各種トレンド解析が企業だけで無く個人の生活に入り込み一つの文化になるのかもしれない。そのようになったらタグチメソッド以上の文化大革命である。

 

タグチメソッドは技術系の開発メソッドとして定着し、企業によっては品質工学社内大会を行っているところも多い。しかし、実際のところ各企業でタグチメソッドを積極的に推進しているのは、残念なことにタグチオタクだけである。一般の生活にまで浸透するようなムーブメントになっていない。もし家庭の主婦がSN比を意識して料理を作るぐらいのブームになれば、オフクロの味も復活するのかもしれない。

 

因子をラテン方格に割り付け、実験の一部実施で因子の関係を導く実験計画法も多変量データを扱うので多変量解析の一つに入れても良いが、統計学では実験計画法は別のカテゴリーで扱い多変量解析には入れない。ゆえにタグチメソッドでL18以上の実験を組み外側に3水準ほどの誤差因子を割り付け多変量データを扱っていても、多変量解析とは言わない。

 

また実験計画法でデータを収集するときには、予めラテン方格に割り付けられた因子の水準で実験を計画的に行い、実験量を減らしても因子の寄与率等が計算できる仕組みが用意されているので実験手順に制約ができるが、多変量解析では、集める試料の個数と調査項目が決められておれば無作為にデータを収集すればよく、データ収集の時に実験計画法のように気をつかう必要は無い。だからロボットに機械的にデータを集めさせることが可能となる。誤差を調合するときに入れ忘れた誤差の影響を受けないのかびくびくする必要も無い。変動も重要なデータとして扱う。

 

但し、集められたデータに対しどのような手法で解析を進め、どのような結論を導き出すのか、すなわち仮説は予め立てておいた方が好ましい。データを集めてから多変量解析の手法を検討する手順で進めている場合も見られるが、解析された結果を考察するときに調査項目すなわち調査に取り上げた因子に不満が出て、せっかく収集したデータを棄却したりしてムダが出たりする。そもそもそのような解析では解析結果の信頼性が怪しくなる。ビッグデータの効率的な収集と解析に仮説は重要な役割がある。

 

 

 

カテゴリー : 一般 連載

pagetop

2013.10/22 ビッグデータ時代(2)

今のパソコンは、30年前の大型コンピューターを凌ぐ性能を誇り、メモリーも安くなった。すなわちソフトウェアーさえあれば家庭で気楽にビッグデータを扱える時代である。

 

しかし、多変量解析などの統計処理では、コンピューターでデータ処理を行うとその結果を手軽に得ることができるが、その結果が正しいのか、あるいはそもそも処理の仕方が正しいのか、統計処理の知識が無ければその判断すらできない。

 

統計学については、中学と高校で簡単に学習しその基礎が身についているはずであるが、大学入試で重視されてこなかったので社会人になって改めて統計学を学ぶことになる。技術開発を担当すれば、タグチメソッドとして出会うことになる。

 

「タグチメソッドは統計ではない」、というのは故田口先生の口癖で、タグチメソッドの真の狙いが技術開発思想にあり、実験計画法でSN比を計算したりするのはその目的ではない、というのがその理由であるが、SN比の計算方法は統計学の流れを組んでいる。そしてタグチメソッドにはマハラビノスタグチメソッドという多変量解析の手法もある。

 

タグチメソッドは統計ではないが、タグチメソッドに用いられている計算を正しく早く理解したいと思うならば統計学の基礎を勉強すべきである。このようなことを書くと故田口先生に叱られそうだが、統計学の基礎を理解しておれば、タグチメソッドが統計ではなく品質工学である、という理解も早くできる。

 

これが30年前ならば、日科技連のQC手法で技術系新入社員の必須科目として統計手法の基礎を学んだ。工程管理にも統計手法は重要で、これを理解していなければ現場の管理職として失格であった。この時代は科学と技術をあたかも味噌糞ごとき扱いをしていた頃である。

 

ところが今はコンピューターに数字を入れれば結果がすぐに出てくる時代であえて統計学の基礎を学ばなくても工場で仕事ができるようになった。タグチメソッドは統計ではない、とそのインストラクターも言うのでますます統計学を勉強しなくなった。

 

そこへ昨今のビッグデータブームである。改めて統計学が注目されているが、少なくとも技術屋は多変量解析まで一通り知っていた方が便利である。30年前は新QC7つ道具の一つとして多変量解析を学んだが、今はマハラビノスタグチメソッドとして学び、統計科学としての側面が見えなくなってきている。統計学は科学の一分野であり、技術の一つの手法であるタグチメソッドのカテゴリーではありません。

カテゴリー : 一般 連載

pagetop

2013.10/21 ビッグデータ時代(1)

統計学がブームだという。書店には様々な統計学の本が並んでいる。さらにアマゾンの成功を例にしてビジネスの成功は統計学のおかげと表現され、統計学が今後重要な学問となる、と新聞にも書かれている。

 

統計学のブームは過去にもあった。1980年前後のマイコンが登場した頃である。マイコンが登場した頃、それを何に利用するのか話題になった。用途が決まっていない道具が登場したのである。面白いのはシーズ指向からニーズ指向の研究開発が叫ばれていた時代である。

 

マイクロソフトのBASICが走るマイコンはパソコンと呼ばれるようになり、統計計算のパッケージが多数販売された。単なる平均値や単相関のソフトウェアーだけでなく、多変量解析のソフトウェアーも販売された。しかし当時の64Kバイトのメモリー空間では扱えるデータ量に制約があり、やがてブームは下火になった。

 

当時高分子の難燃化技術を担当していたときに、MZ80Kを購入し重回帰分析のプログラムを開発した。MZ80KではシャープオリジナルBASICと、今ではゲームソフトで有名なハドソンのHu-BASICを使うことができた。Hu-BASICにはF-DOS上で動作するバージョンもあり、何とBASICコンパイラーまで走っていた。

 

8ビットのZ80というCPUには8MHzバージョンがあり、MZ80KのCPUを換装すると世界最速のパソコンになった。ソフトウェアーからフロッピーディスクのシステムまで揃えると軽自動車1台分以上の値段になったが多変量解析をやりたくて購入した。

 

ホウ酸エステルとリン酸エステルを併用したガラスを生成する難燃化システムでホウ素原子が統計的に有為に機能しているかどうか証明するために多変量解析を行おうと考えた。まだ高分子の難燃化技術の分野で多変量解析が使われていなかったので論文を書くことができた時代である。

 

リン酸エステルの難燃剤を多種類購入し、ホウ酸エステルと組み合わせた軟質ポリウレタンフォームを40種類以上合成した。この40種類以上のサンプルの燃焼試験結果を解析しホウ素とリン、ハロゲン原子の3成分をパラメーターとした重回帰式を求めた。

 

カテゴリー : 一般 連載

pagetop

2013.10/20 パチンコ台とケミカルアタック

学生時代にパチンコにはまったことがある。地下鉄本山駅で降りて大学へ向かうために交差点に来るともうダメである。3方にパチンコ店があった。おまけに大学への道は、二件のパチンコ店の間を通らなくてはいけない。ここを無事通過しても雀荘の窓から友人が手を振る。男装の麗人ならば絵になるが、スズメの巣のような頭のヒゲズラである。集団遊戯は時間調節が難しいが、一人の遊戯は自分の意志で時間調節ができる、とくだらない理屈でパチンコにはまった。

 

当時のパチンコ台の盤面は、ガラス製であった。まれにガシャーンと大きな音がする。負けが込んでキレた客が台を叩きガラスが割れた音である。このような客を相手にするパチンコ屋も命がけである。パチンコ台のその他の材料は、木材とセルロイドであった。

 

先日数十年ぶりにパチンコ店に入って驚いた。チューリップがどの台にも無い!さらに驚いたことに音も静かである。玉が盤面のガラスに当たる刺激的な音が皆無でヤクモノのミュージックが店にあふれている。ここはどこだと叫びたくなるぐらいの違和感があった。よく見ると、なんと盤面はすべて樹脂製である。ものすごい材料革命だ!それと同時にパチンコの客が減った理由も理解できた。玉がガラスに当たる刺激的な音こそパチンコの魅力の一つであったはずだ。耳の穴にパチンコ玉や百円玉を詰めていた客も絵になった。そんな客もいない。

 

久しぶりにイスに腰掛けて遊戯を開始するとあっという間に玉は静かに台に吸い込まれた。本当に静かであった。その瞬間ケミカルアタックが心配になった。パチンコ台には至る所にオイルが使用されている。また、そのためパチンコ玉の表面は油で汚れている。恐らくパチンコ台の材料革命はケミカルアタックとの戦いであったはずだ。

 

昔使用されていたセルロイドはケミカルアタックに比較的強い樹脂だ。セルロイドを溶解する溶媒はメチクロぐらいである。昔読んだ、元旭化成の役員の上出先生の論文によればアセトンも良溶媒となっているが、アセトンへセルロイドを溶解するためにはそれなりの技術がいる。このようにセルロイドは、それを溶解する溶媒を探すのが難しいくらいの樹脂だからその辺の油では容易に膨潤しない。ゆえに昔のパチンコ台はケミカルアタックの問題から解放されていた。

 

ところが今のパチンコ台にはポリカーボネートやアクリル樹脂のようなものが使用されている。目にIR分析の機能が無くても叩けば分かる?タネを明かせば取り外されていたパチンコ台を店員に頼んで見せて頂いたのだが、至る所に樹脂が使用されており、樹脂名が印字されている。これらの樹脂はケミカルアタックを受けやすいはずであるが、盤面を観察してもひび割れやクラックは見当たらない。大発見であった。

 

事務機で発生すると大問題となるが、滅多に発生しないケミカルアタックだったので対症療法しか開発経験は無く、また樹脂メーカーもユーザーの責任に転嫁する場合ばかりだったのでSP値程度の考察しかしてこなかったが、パチンコ台の樹脂化ではケミカルアタックの嵐が吹き荒れていたはずで、多くのケミカルアタック解消技術が開発された可能性がある。

カテゴリー : 一般 高分子

pagetop