8ビットμCPUの登場により始まったデジタル革命の初期には、やがてナノテクノロジーに昇華する日本発のセラミックスフィーバーと呼ばれる材料科学イノベーションとして世界に伝播している。
この時話題となったのはセレンディピティーという能力である。犬も歩けば棒にあたる的な能力として新素材発明に必須と騒がれた。
アカデミアの研究者も含め、科学的に研究を進めていても新素材開発は難しい、と疑心暗鬼になり始めたのだ。同時期にアメリカではトランスサイエンスという言葉が生まれている。
日本では、ポリマーアロイを前駆体とする高純度SiC製造法がデータサイエンスを用いた配合設計により発明されている。そしてこの技術は事業化されて30年続き、現在は愛知県にあるセラミックス企業MARUWAで事業継承されている。
アルビントフラー「第三の波」がベストセラーとなる時代、情報通信分野で始まったDXはやがて現在の姿になったのだが、アカデミアでMIの研究が行われている現象を科学と非科学の境界の移動として当方は捉えている。
この方法は、AIを人間の頭脳に置き換えれば、科学誕生以前から人類が営んできた技術の方法と類似している。また、そこで使われる機械学習とは、大量のデータに潜む一定のルールなりパターンを見つけ出す、人間の作ったアルゴリズムでコンピューターに演算させているだけである。
仮説ではなくデータ駆動で結論を導き出すMIの手法は、試行錯誤と誤解されるかもしれないが、それと異なるのはデータ「サイエンス」が使われている点である。技術者は、見出された機能にロバストがあればこれを問題としないが、科学者は科学の方法として今後どのようにMIを位置づけるのだろうか。
ところで、過去データも含め教師データとしてAIに学習させるので、MIの方法は温故知新のような側面がある。AIの学習作業において熟練技術者を活用できれば、技術伝承手法として期待できるのではないか。
高分子材料はプロセスの履歴の影響を無視できず、未だ経験知や暗黙知を活用した開発方法が有効となっている。そのため、科学的に配合設計を行っても越えられない技術の壁を感じる若い技術者もいると思われる。
DXの進展でデータサイエンスの利用環境を無償で個人が容易に手に入れることができ、その使用方法も無償で公開されている。DXにより引き起こされたイノベーションは、データサイエンスの活用を促しMIを流行させたが、今後個人の配合設計スキルの格差を広げるように作用する。
さらに、MIは技術の伝承にAIを活用する道を開いたが、プロセス情報についてデータベースの整備という問題が放置されたままである。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
データ駆動による配合設計事例として、回収PETボトルから得た再生PETを80%含有する易射出成型性多成分ポリマーアロイの事例を紹介する。
2022年4月に法律が施行されて再生樹脂のブームである。PETは溶融状態から冷却すると急速に結晶化するので射出成形が難しく、押出成形やブロー成型の用途で使われてきた。
PETボトルのリサイクル分野として、射出成形の用途開発が期待されている。ところが射出成形用途で使用するためには、PETの急激に変化する温度-粘度曲線をPCのような緩やかな曲線となるように溶融粘度を改質する必要がある。
溶融粘度の改質技術以外に再生樹脂の新たな変性技術を開発する目的で、多数の廃材ポリマーを混ぜて粘度調整する実験について仮説を設定せずに計画した。
曲げ強度と衝撃強度、弾性率を同じスケールの縦軸でプロットするために、弾性率について線形性を保てるように100で除して10を引いた値へ数値変換する。
衝撃強度は、線形破壊力学によれば密度1.2から1.3g/cm3の範囲で一定となるはずだが、実験を行うと大きくばらついている。その結果、曲げ強度は、弾性率と似た相関のある群とそれよりも密度依存性の大きい相関を示す群とに分かれた。
PETの含有率は80%と一定の配合率で実験を行っているが、残り20%へ配合されたポリマーは様々な廃棄樹脂である。このような群に分かれるのは、配合因子だけでは説明がつかない。
電子顕微鏡観察を行ったところ、強度の高い群では強度の低い群よりも微細な構造となっていた。一定の射出成形条件で実験を行った群から、密度と強度の高いサンプルを一種類選び、配合因子以外に混練プロセスから射出成形プロセスまでの制御因子を用いてTMによる最適化実験を行っている。
その実験によりカオス混合プロセスを用いる条件が選択されて、UL94-V2に合格するABS同等の物性で射出成型性も良好となり、ロバストの高い高品質の樹脂配合が得られた。
このように経験知や形式知に基づく公知の関係を利用して、その関係から外れる新規物質を探索することが可能である。
MI手法が話題となっているが、データ駆動の手法で新たな知を探索するためにAIを利用することが唯一の方法ではない。このような経験知や形式知で見出されている関係を利用して実験を進める方法や、多変量解析でデータを整理する方法も存在する。
MIでゆきずまったら弊社にご相談ください。マテリアルインフォマティックスだけでなく様々な問題解決手法をご指南いたします。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
具体的な方法を説明する。形式知から、弾性率は密度と相関している。線形破壊力学から狭い密度範囲において靭性は一定と期待できる。また、経験知から強度は弾性率と靭性を変数とした関数とみなせる。
これらの公知の関係を利用して、多成分ポリマーアロイの成分量を変動させて実験を行う。成分量の変動についてはラテン方格を用いても良いし、経験知から適当に変動させても良い。
得られた諸物性データについて横軸を密度、縦軸を力学物性としたグラフへプロットすれば、公知の関係から外れた条件を容易に見出すことができる。
そして強度の良好な群について考察すれば、改良因子を見出すことができる。(この実験では、すべてのサンプルが密度と弾性率の関係において、一つの直線状にプロットされるが、強度の値では、弾性率に相関した群とそれよりも大きな強度を示すサンプル群に分かれる。)
1990年ごろから日本で普及の始まったTMのおかげで、仮説を設定しないデータ駆動の実験により新材料を開発する手法を技術者は非科学的と排除しなくなった。
この方法では、仮説を用いた実験による真偽判定ではなく、計画された実験データから分散分析により最適な制御因子とその水準を見出し、それらを条件として採用した確認実験を終えて科学技術として完成させている。
また、MIあるいはTM、その他のここで紹介したデータ駆動の実験では、仮説の真偽を確認するために行われていないので、イムレラカトシュが指摘するような否定証明に陥る危険性は無い。
それゆえ実験により必ずモノを生み出すことができる。そもそも科学による実験と科学誕生以前から人類が営みとして行ってきた技術開発における実験とは、方法や手順が異なり、技術の方法では仮説設定は必須のプロセスとされていなかった。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
学習を終えたAIを用いてMIを行うと、知りたかった新たな知が出力として得られる。この時、AIの各ニューロンそれぞれの関係には、多数のデータから学習した一定の重みづけが行われている。
このAIへ新たなデータを入力するとその特徴を出力できるのは、この各ニューロン間の重みづけされた関係、すなわち学習により構築された関数関係のような仕組みのためである。
ここに着目すると、次のようなデータ駆動の実験で配合設計を行う手法が考えられる。例えば、射出成形性も悪く強度の低い多成分ポリマーアロイの配合を入力として、射出成型性が改善されて良好な力学物性の樹脂を出力とする問題を考えてみる。
樹脂の力学物性について、これまでの研究開発で蓄積された形式知や経験知から諸物性の関係が知られている。この関係を学習の完了したAIとみなして実験を行えば、多成分ポリマーアロイの配合について、仮説を設定せずに技術開発できる。
ただし、この方法では仮説を用いないので、20世紀の視点では非科学的方法となる。さらに、経験知と形式知を混然と用いる方法なので、その結果は科学的に真であることが保障されない。
しかし、この方法で得られた結果に関し統計手法あるいはTMで確認実験を行えば、ロバストの高い技術が得られる。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
深層学習では、観察対象(オブジェクト)から収集された多数のデータからオブジェクトの特徴を探るように、各ニューロンはそれぞれの関係に重みづけをしながら学習を進める。
すなわち、これはオブジェクトの機能を制御する因子について、各因子の2-3水準を変動させながら実験を行い、機能に対する寄与率を検討するプロセスと似ている。
もし、機能とその信号因子が明確ならば、そのプロセスで誤差因子の負荷をかけた動的な実験を取り入れると、誤差あるいは様々なノイズに対しロバストを高く制御できる因子を見つけ出す問題解決法となる。これはTMであり、SN比はロバストの高さの指標となる形式知として数学的に証明されている。
TMにおいて基本機能を決めるのは技術者の責任であるが、そこでは科学の方法として求められる仮説設定まで必要としない。
さらに、データ収集のための実験は、ラテン方格を用いて現象全体を視野にその一部実施で計画的に行う。すなわち考えられるあらゆる条件で実験を行う代わりにラテン方格を用いるのである。
ただし、得られたデータについて誤差に対する有意性を評価する分散分析を行うためにそれを用いる実験計画法とは、考え方が全く異なるメソッドである。
TMでラテン方格を用いる理由は制御因子のすべての組み合わせについて効率よく実験計画を組み立てるためであって、実験のばらつきについては、ラテン方格の外側に割りつけられた信号因子や誤差因子を用いて計算されるSN比が使われる。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
現在用いられているAIは、派手なワイヤーアクションでヒットした映画「マトリックス」に描かれたエージェント指向ではなく、オブジェクト指向のプログラムが走り、人間が提供したデータで学習を繰り返している。現在の技術で作られたAIと「マトリックス」に描かれたAIは明らかに異なっている。
ただし、現在のAIに人類を驚嘆させるような知の創出を期待できなくても、機械学習により新材料開発に成功すれば、熟練技術者の技術の伝承が容易となる可能性が生まれる。
そもそも技術者は、現象に潜む各種因子について経験知と暗黙知による独自の重みづけを行いヒューリスティックに結論を導き出す。教師データとして熟練技術者の知見を活用すればMIの研究効率をあげるとともに暗黙知の伝承までできるのではないか。
MIは、これまでの科学の方法とは異なるゆえにその研究手法も含め全体のイメージが難解なものとなっている。
・
しかし、データ駆動による機械学習で知を創造しようとする取り組みについて、これまで科学的に実験を行ってきた技術者は、その仮説設定を行わないロジックの可能性に注目すべきだろう。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
DXの進展とともにデータサイエンスが注目を浴びてから10年が過ぎた。タグチメソッドも含めれば、データサイエンスのスキル実装が技術者の常識となってから30年の歴史となる。
材料系の技術者についてはマテリアルインフォマティクスも身につけなければいけないので大変な時代である。しかし、安心してほしい。弊社はそれらを40年以上の技術開発経験から易しく獲得できるようセミナーを提供している。
データサイエンスについて、30年以上前はそれを使うと非科学と考えていた人がいた。基礎科学に近い開発を行っている研究者もどきの人に多かった。当方はそのような人たちに、実験法が非科学であるといじめられた。
イジメている方が知識の幅が狭いのに偉そうにしている。自分が見えていない、と言ってしまえばそれまでだが、データサイエンスの手法が新QC7つ道具に採用されていたので、なおさら現場的手法と誤解されていた時代がある。
例えば、電気粘性流体の耐久性問題では、京都大学出身の博士をリーダーとした高偏差値のスタッフが1年かけて否定証明を行い、界面活性剤を用いては実用化できないという科学的に完璧な証明を30年以上前に完成させている。
その時、問題解決を依頼された当方は、一晩でデータサイエンスを用いて界面活性剤を使用する解決法を提案している。その後実際に技術として完成させて特許出願と実用化をしている。
このあと大変なことになり、高純度SiC半導体治工具事業を住友金属工業とのJVとして立ち上げながらも学位を取得したセラミックスのキャリアを捨て転職している。
当時はデータサイエンスを科学分野で用いるのは邪道と思っていた技術系の研究者は多いが心理学などの人文科学系では成果が出ていた。また、技術のニッサンではそれを用いて塗膜の研究を40年前完成させている。当方はそのセミナーを拝聴し感動した記憶がある。
30年以上前はコンピューター環境が恵まれていなかったので、個人のスキルとしてデータサイエンスはお金のかかる分野だったが、今は湯水のように使用できるPythonのライブラリーがあり、MIさえも無料でできる。
そのスキルを身に着けたいなら弊社を活用すれば、低価格である。おそらく世界中探しても弊社より安いセミナーは無いだろう。1年に数回サービスとして無料セミナーと常時有料セミナーも行っているが価格は安い。
価格は安いが実際に使用された事例とともに指導するのでわかりやすい。
カテゴリー : 一般
pagetop
情報化時代でも正しい問題を解く、という基本は変わらない。しかし、このことに気がついていない人が多い。厄介なのは、間違った問題を間違った方法で解いている人である。
MIがブームだが、AIまで引っ張り出さなくても、またビッグデータでなくても解ける問題を回り道をしていることに気がついていない人がいる。
例えば回帰による予想であれば、重回帰分析で事足りるのにそれを試みない人がいる。弊社のサイトでも重回帰分析と主成分分析については無料でソフトウェアーを公開している。
Pythonを使える環境であればライブラリーを用いて数行のプログラムで処理が可能だ。エクセルのデータもPythonで事前処理すれば1時間もかからず答えが出る。
半年ほど前のセミナーで、変数間の相関が高い場合の処理について質問があったが、その場合には段階式重回帰分析あるいは重回帰分析と主成分分析の併用で処理できることを説明したが、AIへの関心の高さに疑問を持った。
まだ人間より賢いAIは存在しない。学習をさせるにしても人間様がデータを用意しなければならない。それも機械学習用に加工をする必要があり、世話がやける。
日々の問題であればAIなど持ち出さず、簡単に多変量解析を行った方が簡単に問題解決できるし、勉強にもなる。そもそもAIを含めたデータサイエンスの全体像をわかりやすく書いた本が無く、最近出版されている本は機械学習に関するものばかりだ。
このような状況で、40年以上データサイエンスとプログラミングを行い問題解決してきた体験を基にした弊社の研究開発必勝法は、全体像を学ぶのに良い教材である。最近はここからデータサイエンスだけを取り出し構成した内容を1日コースのセミナーとして提供している。
カテゴリー : 一般
pagetop
ゴム会社において、タイヤ開発部門と異なる組織の基礎研究所では、このようなデータサイエンスの手法を1990年代になっても非科学的とみなしていた。
例えば、電気粘性流体の劣化問題について科学的に問題解決できない、と否定証明がなされたが、データサイエンスにより問題解決された事例がある。
この問題では、市販されていた多数の界面活性剤のカタログデータを8ビットマイコンMZ80Kで走らせた主成分分析により処理している(FDOSベースであり、時間がかかった)。
解析を一晩かけて行い、HLB値の寄与率が高い第一主成分の軸と、粘度の寄与率が高い第二主成分の軸で示された象限に解決策が示された。
ところが、この結論が非科学的とされたので、解決策として示された群の界面活性剤ですぐに実験を行い劣化問題を解決して、データサイエンスの結果を実証した。
そして耐久寿命が長くロバストが高いだけでなく高性能な電気粘性流体の開発にも成功している(傾斜機能粉体はじめ複数の特許が成立しテストマーケティングもされた)。
1960年代に基礎研究所が多くの企業で組織されたが、そこではアカデミア同様に仮説の真偽を確認する実験が標準とされた。それが20世紀末まで続いていたのである。
非科学的と誤解されかねないキワモノ的技術であるMIのような研究がアカデミアで行われるようになった21世紀では、データ重視の実験方法を非科学的とみなすような風潮は無くなったと信じる。
ただし、統計はじめデータサイエンスの手法が現場のQC手法の一つとされ基礎研究担当者には興味を持たれていなかった時代がかつてあったことを研究者は知っておくべきである。
データサイエンスの手法が非科学とされ、科学的に完璧な否定証明の前に住友金属工業との高純度SiC半導体事業を立ち上げながらも転職までしなければいけなかったことを思い出すと、DXにより科学と非科学の境界が動き始めたような気分になる。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
MIのエンジンとなるデータサイエンスが日本で初めて技術開発に導入されたのは1970年代である。日科技連の発表した「新QC7つ道具」の一つとして多変量解析が紹介され、それを解説する専門書籍も発売された。
ただし、この手法を活用するためには、IBM3033のような大型コンピューターとそれに付属する統計パッケージが必要で、コストもかかり不便だった。
それでも、合成後の構造解析と物性測定を経てから用途を開拓する手順が素材メーカーの研究開発スタイルだった時代に、この多変量解析の登場により組立メーカーによる新材料開発が始まっている。
某ゴム会社では、データサイエンスで見出されたタイヤ性能と高分子材料の分子構造との関係を用いたポリマー設計を1980年前後に行っている。この時利用されたのは重回帰分析と主成分分析である。
分子構造や素材物性、配合因子、プロセス因子などを主成分分析し、一次独立が保障された主成分得点による重回帰分析で、各因子の寄与率を評価している。この手順でタイヤ性能を満たすための分子設計が行われ、そのレシピに従い素材メーカーへポリマーの発注が行われている。
1979年の新入社員研修では、技術実習テーマ「タイヤの軽量化検討」において多変量解析が使われている。世界のタイヤメーカーから集められた16種類の165SR13サイズのタイヤを解剖して得られたデータを主成分分析して、同一仕様におけるタイヤの重量を左右する因子を探っている。
当時はバイアスタイヤとラジアルタイヤの混在していた時代であり、ラジアル構造が軽量化に寄与し、その構造の造りこみに必要な材料技術の特徴で軽量タイヤグループが形成されているという解析結果が、ビッグデータではないにもかかわらず得られている。
また、一次独立である主成分得点を重回帰分析に用いて、当時の技術で到達しうる最も軽量化されたタイヤ重量を求めることにも成功した。
この重回帰式で得られた偏回帰係数の値から寄与率の高い変数を選び、主成分得点に対する寄与率を遡りながら、最軽量タイヤの設計因子を導き出してタイヤ試作まで実施している。
驚くのは、世界最軽量の試作品が1カ月程度の短期間にタイヤ設計の素人である新入社員の実験で得られたことである。40年ほど前の出来事である。
社内の基礎研究部隊はこのような手法を非科学的と評価し、それを積極的にとりいれていた当方は異端視された。QC手法が科学者には現場的手法と見なされていた時代である。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop