情報化時代でも正しい問題を解く、という基本は変わらない。しかし、このことに気がついていない人が多い。厄介なのは、間違った問題を間違った方法で解いている人である。
MIがブームだが、AIまで引っ張り出さなくても、またビッグデータでなくても解ける問題を回り道をしていることに気がついていない人がいる。
例えば回帰による予想であれば、重回帰分析で事足りるのにそれを試みない人がいる。弊社のサイトでも重回帰分析と主成分分析については無料でソフトウェアーを公開している。
Pythonを使える環境であればライブラリーを用いて数行のプログラムで処理が可能だ。エクセルのデータもPythonで事前処理すれば1時間もかからず答えが出る。
半年ほど前のセミナーで、変数間の相関が高い場合の処理について質問があったが、その場合には段階式重回帰分析あるいは重回帰分析と主成分分析の併用で処理できることを説明したが、AIへの関心の高さに疑問を持った。
まだ人間より賢いAIは存在しない。学習をさせるにしても人間様がデータを用意しなければならない。それも機械学習用に加工をする必要があり、世話がやける。
日々の問題であればAIなど持ち出さず、簡単に多変量解析を行った方が簡単に問題解決できるし、勉強にもなる。そもそもAIを含めたデータサイエンスの全体像をわかりやすく書いた本が無く、最近出版されている本は機械学習に関するものばかりだ。
このような状況で、40年以上データサイエンスとプログラミングを行い問題解決してきた体験を基にした弊社の研究開発必勝法は、全体像を学ぶのに良い教材である。最近はここからデータサイエンスだけを取り出し構成した内容を1日コースのセミナーとして提供している。
カテゴリー : 一般
pagetop
ゴム会社において、タイヤ開発部門と異なる組織の基礎研究所では、このようなデータサイエンスの手法を1990年代になっても非科学的とみなしていた。
例えば、電気粘性流体の劣化問題について科学的に問題解決できない、と否定証明がなされたが、データサイエンスにより問題解決された事例がある。
この問題では、市販されていた多数の界面活性剤のカタログデータを8ビットマイコンMZ80Kで走らせた主成分分析により処理している(FDOSベースであり、時間がかかった)。
解析を一晩かけて行い、HLB値の寄与率が高い第一主成分の軸と、粘度の寄与率が高い第二主成分の軸で示された象限に解決策が示された。
ところが、この結論が非科学的とされたので、解決策として示された群の界面活性剤ですぐに実験を行い劣化問題を解決して、データサイエンスの結果を実証した。
そして耐久寿命が長くロバストが高いだけでなく高性能な電気粘性流体の開発にも成功している(傾斜機能粉体はじめ複数の特許が成立しテストマーケティングもされた)。
1960年代に基礎研究所が多くの企業で組織されたが、そこではアカデミア同様に仮説の真偽を確認する実験が標準とされた。それが20世紀末まで続いていたのである。
非科学的と誤解されかねないキワモノ的技術であるMIのような研究がアカデミアで行われるようになった21世紀では、データ重視の実験方法を非科学的とみなすような風潮は無くなったと信じる。
ただし、統計はじめデータサイエンスの手法が現場のQC手法の一つとされ基礎研究担当者には興味を持たれていなかった時代がかつてあったことを研究者は知っておくべきである。
データサイエンスの手法が非科学とされ、科学的に完璧な否定証明の前に住友金属工業との高純度SiC半導体事業を立ち上げながらも転職までしなければいけなかったことを思い出すと、DXにより科学と非科学の境界が動き始めたような気分になる。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
MIのエンジンとなるデータサイエンスが日本で初めて技術開発に導入されたのは1970年代である。日科技連の発表した「新QC7つ道具」の一つとして多変量解析が紹介され、それを解説する専門書籍も発売された。
ただし、この手法を活用するためには、IBM3033のような大型コンピューターとそれに付属する統計パッケージが必要で、コストもかかり不便だった。
それでも、合成後の構造解析と物性測定を経てから用途を開拓する手順が素材メーカーの研究開発スタイルだった時代に、この多変量解析の登場により組立メーカーによる新材料開発が始まっている。
某ゴム会社では、データサイエンスで見出されたタイヤ性能と高分子材料の分子構造との関係を用いたポリマー設計を1980年前後に行っている。この時利用されたのは重回帰分析と主成分分析である。
分子構造や素材物性、配合因子、プロセス因子などを主成分分析し、一次独立が保障された主成分得点による重回帰分析で、各因子の寄与率を評価している。この手順でタイヤ性能を満たすための分子設計が行われ、そのレシピに従い素材メーカーへポリマーの発注が行われている。
1979年の新入社員研修では、技術実習テーマ「タイヤの軽量化検討」において多変量解析が使われている。世界のタイヤメーカーから集められた16種類の165SR13サイズのタイヤを解剖して得られたデータを主成分分析して、同一仕様におけるタイヤの重量を左右する因子を探っている。
当時はバイアスタイヤとラジアルタイヤの混在していた時代であり、ラジアル構造が軽量化に寄与し、その構造の造りこみに必要な材料技術の特徴で軽量タイヤグループが形成されているという解析結果が、ビッグデータではないにもかかわらず得られている。
また、一次独立である主成分得点を重回帰分析に用いて、当時の技術で到達しうる最も軽量化されたタイヤ重量を求めることにも成功した。
この重回帰式で得られた偏回帰係数の値から寄与率の高い変数を選び、主成分得点に対する寄与率を遡りながら、最軽量タイヤの設計因子を導き出してタイヤ試作まで実施している。
驚くのは、世界最軽量の試作品が1カ月程度の短期間にタイヤ設計の素人である新入社員の実験で得られたことである。40年ほど前の出来事である。
社内の基礎研究部隊はこのような手法を非科学的と評価し、それを積極的にとりいれていた当方は異端視された。QC手法が科学者には現場的手法と見なされていた時代である。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
AIにはオブジェクト指向プログラミングにより、あらかじめ教師データが不要なタイプや、それを機能させるためにデータ(教師データ)を学ばせる必要があるタイプなどがある。
ただし、AIを構成するプログラムコードや教師データも含むオブジェクトのすべてを人間が開発している事実を忘れてはいけない。
MIが科学の方法と認められ、新たな形式知を生み出す保証が得られたなら、多少の時間がかかっても汗の代償を支払って、MIと同様の実験をやりたくなる技術者もいるかもしれない。
また、熟練した技術者ならば、日々の営みから実装された経験知によるヒューリスティックな演算ができるのでデータマイニングで必要とされるデータ量を減らすことができ、さらにあみだくじ方式まで採用して、コンピューターよりも迅速かつ的確にデータマイニングできるかもしれない。
MIの事例ではないが、iPS細胞のヤマナカファクターの発明において、3万個以上ある遺伝子からヒューリスティックに検討対象の遺伝子を24個選び出し、そこから4個の特別な遺伝子の組み合わせを発見している。
その最後のプロセスで、あみだくじ方式が採用された、とノーベル賞受賞後に放送されたNHKの番組で山中博士は説明している。
このヤマナカファクターについてノーベル賞の対象となった科学的な研究成果により、新たな生化学の分野が発展している。
技術の開発に非科学のプロセスが採用されたとしても、その成果の有用性が科学的に証明されれば、それを科学の成果として受け入れる時代となった。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
今年4月に施行された法律のおかげで再生材事業に関心が集まっている。また4年ほど前から国研も推進されているが、未来を感じさせる技術が存在しない。
高分子材料の環境問題について2015年に大きく潮目が変わり、4つ目のRとしてRefuseが世界で叫ばれるようになった。最近は沈静化してきたが、日本のRenewableは、Refuseよりもセクシーである。
この意味を理解できる方は、環境問題に高い関心を持っている人だ。ご存知小泉元環境大臣が国際会議のインタビューで回答し、日本中が笑ったニュースだ。日本人の英語力では小泉元大臣の英語力を評価できないのだろう。
さて、Renewableの視点に立った時に小売り家電の再生事業者は現在の資源再生プロセスを見直す必要に迫られている。すなわち大半がサーマルリサイクルされているからだ。
再生事業者の大半は貴金属に着目し、高分子材料のリサイクルについては熱エネルギーとして回収することを考えてきた。しかし、サーマルリサイクルはいまや日本だけである。
国研では、再生技術の一つとして高分子を分別する技術を開発しようとしているが、分別せずに多成分のポリマーアロイとする技術開発も必要ではないか。
品質管理が大変かもしれないが、技術開発が困難なテーマではない。なぜなら10年ほど前に当方は廃材の多成分ポリマーアロイを開発した経験があり、開発された材料は事務機部品として実用化された。詳細はお問い合わせください。
カテゴリー : 一般
pagetop
ところでMIでは、AIによる機械学習でデータマイニングを進める。
データマイニグとは、データサイエンスの成果を実装したコンピューターを用いて大量のデータを処理し、「知識」を見出すための技術である。
また、機械学習とは、大量のデータをコンピューターに学ばせて、そこから特定のパターンなり法則を見つけ出す作業である。
そして見出された法則を基に、新たな別のデータを分類(クラス分類やグループ分け)したり、関連する新たな情報を推薦したり、未来予測(回帰)したりする。
すなわち、アカデミアで研究されているMIとは、現象を観察して得られたデータをデータサイエンスにより処理してそこに潜む特定の新法則なり新機能を探す「技術」である。
ここで注意しなければいけないのは、科学の手続きで必要とされる仮説設定プロセスが見当たらないにもかかわらず、「科学の方法」と捉えられている現在の風潮である。
もう少し詳細な説明を続けると、機械学習には人間の脳を模倣した仕組み、すなわちニューロンのネットワークにより様々な情報伝達を行いながら学習を進める「ディープニューラルネットワーク」(DNN)と呼ばれる構造を活用する方法があり、それを特に深層学習(ディープラーニング)と呼んでいる。
深層学習では、DNNに重みづけをするパラメーターが重要となる。DNNで大量のデータを学習させると、このパラメーターが修正されながら学習が進行し、全体があるパターンに重みづけられてゆく。
この時使われる演算はデータサイエンスの成果から適宜選ばれ、オブジェクト指向と呼ばれるプログラミング手法により実装されてAIとなる。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
表題のタイトルは今週の話題の上位に必ずなると思われるので本日少し私見を述べてみたい。
高分子の環境問題に関するセミナーについてこの4年ほど講師として呼ばれる機会が多いが、そこでトヨタの電気自動車に対する対応がホンダと大きく異なる点を毎度指摘している。
4年前はトヨタは全く電気自動車への関心がないようだったが、2年ほど前から急激に電気自動車へ舵を切ってきたように思われる。そして昨年末の発表に至った。
しかし、まだ一年もたっていないのに、昨年末に発表したEV戦略の見直しが記事になっているのだ。これは4年間連続して自動車業界を観察していないと理解できない。
日本で最も早くEV商品化をしたのは技術のニッサン自動車だが、ホンダとトヨタのようにこの2年間あまり注目されていない。しかし、日産の自動車ラインアップ(注)を見れば着実に独自戦略を進めている。
極端な動きのホンダであり、慎重な対応のトヨタという位置づけである。トヨタはEVについてサブスクで展開する計画を立てているが、今回それも見直しを進めるのかもしれない。しかし、トヨタの話はもっと大きくシャシー含め自動車全体の開発計画を見直すというのだ。
それほど世界は急激にEV化の方向に動いている。中国では日本の軽自動車並みの価格のEVが既に商品化され、それが着実に世界で売れ始めた。
トヨタは既存の自動車ラインでEVを生産する予定でいたらしいが、生産ラインの専用化を検討しているという。すなわちコストを下げない限り2026年から始まるEV競争に負けてしまうのだ。
今回のニュースは、恐らく昨年末までトヨタ社内で意見が分かれていたEV車戦略についてまとまったのでそれが発表された結果のことではないかと推測している。
すなわちニュースで取り上げられているような大騒ぎではなく、意外にも社内のベクトルが揃った結果かもしれないと当方は想像している。
トヨタぐらいの規模の会社になると開発担当者のベクトルを揃えるのは大変である。昨年末は、それが十分にそろっていない段階で株主の圧力に押された形の発表だったのではないか。
一部のニュースで騒がれているクラウンのEV化取りやめは大したニュースではない。クラウンはもともと日本向け専用車である。グローバル展開されているレクサスのEV化変更についてはアナウンスは無い。
すなわち、現在のカテゴリーである車とは異なるカテゴリーでEVをとらえ、生産ラインも含め専用設計に本格的に乗り出す、とアナウンスしているだけではないか。昨年末まではそこを明確に打ち出していなかっただけと想像している。
(注)オーラはノートの派生車種であるが、サイズが少し異なる。これがデザイン上のことかと思っていたら、ボディー内側の奇妙な位置に使われていない穴がいくつか空いている。おそらく、オーラはこのまま電気自動車に作り替えることができるのではないか。ePowerのエンジンを取り外し、電池を搭載することは難しくない変更である。
カテゴリー : 一般
pagetop
データサイエンスを活用しているMIは、約30年前に登場し無償配布されているプログラミング言語Pythonとその豊富なライブラリーを用いて研究できる。
この言語はスクリプト言語であり、初心者用とされたBASICよりも習得しやすい。例えばプログラミング言語を使うためにあらかじめ覚えなければいけないコマンド、予約語の数は、BASICの場合70以上存在するが、Pythonではたったの33語である。
さらに変数を定義する時のルールも含めプログラミングが易しいだけでなく、データサイエンスや機械学習を実行するときに必要となるプログラム要素あるいはソフトウェアーの部品とも呼べるプログラム(モジュール)を集めたライブラリーまで豊富に無償提供されている。
.
そして、この無償ライブラリーから必要なモジュールを抜き出し、プログラムの部品として貼りつける簡単なコーディング作業により、高度なプログラムを誰でもコーディングできる。グラフ化の無償モジュールもあるので、演算結果をグラフ化する作業も容易である。
また、これも無償で提供されるJupyter Notebookという開発環境を用いれば、各種解析用ライブラリーを使った演算結果をグラフ化してインタラクティブに確認しながらプログラミング作業が可能である。
すなわち、データサイエンスの優れたプログラミング環境をDXの進展で誰でも無償で利用できる時代となった。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
汎用ゴムの混練ではほとんど影響しない作業手順が、樹脂補強ゴムではその物性に影響を与える手順が存在した。この体験は、高分子材料を仕事としてスタートした新入社員にとって重要な経験となった。
この経験がきっかけとなり30年後にカオス混合装置を発明することになるのだが、この指導社員無くしてカオス混合装置は生まれなかったと思う。また彼は、この科学で理解しにくい現象について当方に学んでほしかった、と独自の仮説とカオス混合の存在を教えてくださった。
この学びの成果は大きく、1年の予定のテーマを3か月で仕上げる原動力となった。しかし、そもそも3か月でできるようなテーマを何故1年間のテーマとしたのか。
それは指導社員が開発していた樹脂補強ゴムはベスト配合ではなかったからだ。それを指導社員は気づいており、配合とプロセシングの最適化を行う必要から1年という開発期間を設定している。
そして指導社員は1年間の報告書の内容をすでに用意していた。その報告書を見せられた当方は、単なる混練の作業者として仕事をすればよい状態か、と指導社員に不満を述べている。
指導社員は、データ駆動の実験法で短期間に成果を出す方法もある、と教えてくれた。すなわち1年間の計画は、科学的方法で進める計画だったが、データ駆動の実験を行えば1か月でできるだろうと。そして当方は実際に短期間に樹脂補強ゴムを開発できて耐久実験まで完了している。
この実話から、シミュレーションとは何か、デ ータサイエンスとは何かを考える毎日となった。ちなみに指導社員は物理が専門で化学は専門外の方だった。
(注)3か月で仕上げて評価されるのかと思っていたら、業務は科学の成果では無いと評価されず職場異動となった。樹脂補強ゴムの配合技術は後工程の防振ゴム事業部隊へ移管され、技術テーマとして推進され某自動車のエンジンマウントとして実用化された。当方はポリウレタン難燃化技術を研究しているグループへ異動となった。指導社員は新たなテーマ企画が業務となった。研究所ではモノを作ることよりも研究成果が求められていた。新入社員のタイヤ軽量化という研修テーマではデータサイエンスで軽量化到達推定値を求め軽量タイヤを指導社員が試作したところCTOからその発表会で「大馬鹿もの(研究成果であって技術成果ではない)」と叱られ、研究所では技術であって科学ではないと評価されず、頭が混乱するような社会人スタートとなった。また、半年の新入社員研修を終えた配属日に転職した友人がいた。彼とは同部屋であり、退職願を提出する前日の夜、転職理由が科学技術のない会社だったので科学技術について話し合った。1980年代は科学論がブームになり始めた時で多数の著書が発売されていた。イムレラカトシュ「科学の方法」は、その科学論に影響をあたえた専門書であり、アメリカではトランスサイエンスという言葉が誕生している。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般
pagetop
当方の配合設計の考え方は、技術者としてスタートした時の指導社員から強く影響を受けている。彼が、混練の神様のようなレオロジストで関数電卓を使いシミュレーションを行うような人だったから、化学系の配合屋と少し異なる。
まずプロセス条件から考えてゆく。具体的に言えば、プロセスから生じる制約条件を考慮して配合設計を行う。タグチメソッドでは制御因子の水準を幅広く設定するとよい、と指導されるが、プロセスの制約を考えず制御因子を決めるのは愚かである。
ところで、プロセスの制約から配合因子が影響を受けるケースではどうするか。このときプロセスにおける配合因子の挙動をチェックできる指標を入れた実験を必ず一水準入れる。プロセスの制約からその配合因子をあきらめるような配合設計を行わない。
こうすることにより、配合系の特徴が明確になる。データサイエンスにありがたみを感じるのは、公開されている多量のデータから自分が設計している配合系の特徴が明らかになった時である。
配合設計をいつでも新しいコンセプトで行っているとは限らない。従来の配合系を参考に設計したり、習慣に従い、比例計算だけを行いボーっと配合設計している場合もある。
アカデミアよりもアカデミックな研究所で見かけたゴム配合設計者の中には、グラフを書くためだけに配合設計している人がいたが、これはボーっと何も考えずに配合設計している人と変わらない。
ゴム配合の物性に与える影響を知っているならば、グラフを想像する前に考えなければいけないことがある。それは、ブリードアウトの問題、あるいは、物質の分散状態と拡散の問題である。
配合したい物質の機能に着目することは重要だが、その副作用を見落としてはいけない。副作用がある時にはその副作用を抑制する方法も配合設計時に考え、システム設計しなければいけない。
いろいろ考えてうまくコンセプトをまとめられない時がある。そのようなときは、データ駆動の実験を行いながら考える。例えば高純度SiC前駆体の配合設計やPETボトル再生材を80%含む樹脂はじめどこから考えたらよいのか難しい問題の成果は、50年近く前からデータ駆動の実験で成果を出している。
現在データサイエンスによる問題解決のオンラインセミナーの参加者を募集しています。
セミナーの詳細及びお申込みはこちら
カテゴリー : 一般 電気/電子材料 高分子
pagetop