製造工程の前倒しをフロントローディングと言ったりしていたが、最近は研究開発の企画段階で諸問題を検討する過程にも使われるようになった。
50年近く前のゴム会社の研究開発に比較すると、かなり企画に重点が置かれるようになった。30年前あたりからMOTが注目された成果であり、良い傾向である。
ゴム会社の最初の指導社員とは3か月間という短い期間のご指導だったが、その次の指導社員とは男女の性差以外にその指導内容に雲泥の差がありびっくりした。
しかし、その大きな差があってもその女性指導社員が研究開発本部の標準社員と聞いてさらに驚いた。3か月間の指導社員よりも5歳若い美人の指導社員だった。
最初の指導社員から、教えたことを研究開発本部内では言わない方が良い、とアドバイスしてくれたが、その時奇妙な納得が得られている。最初の指導社員のフロントローディングを取り入れた企画スキルは、当時あまりにも前衛的過ぎた。
すなわち、企画段階ですでにモノがほぼ出来上がっていたのである。もちろん商品として仕上げるには耐久性データはじめ多くのデータを揃える必要があったが、完成品とほぼ近い物性のモデルサンプルが出来上がっていた。
このモデルサンプルだけでなく、ダッシュポットとバネのモデルによる材料物性のシミュレーションがなされ、代表的な配合設計因子を変えたときにおきる物性変化の予測グラフまでできていた。
それでは新入社員の当方は何を行えばよいのかと質問したところ、モデルサンプル以外により良い配合が無いか探すことだという。すなわち、ポリマーを組み合わせたときの相分離については予測が不可能なので、と説明されていた。
フローリー・ハギンズ理論のχで予測がつきそうなものだが、実際に生じる相分離ではプロセスにより同一配合でも異なる結果となるとのこと。要するにやってみなければわからないという意味か、と質問したら、その通り、と言われた。
フロントローディングで物性予測までできていたが、最良の配合を見つける作業はやってみなければわからない状態だった。そこで研修で習ったばかりの実験計画法を持ち出すのだが、続きは後日。
カテゴリー : 一般
pagetop
先日重回帰分析のPythonプログラムを紹介したが、Pythonで重回帰分析プログラムを作成する方法としてscikit-learn以外にstatsmodelsを使用する方法もある。
ネットにもいろいろと情報が出ており、この両者の比較もなされている。統計データなので小数点の桁数の違い等出力結果に一部差異があるが、統計計算を知っておれば大きな問題ではない、と気がつく。
しいて両者の差異を書き出せば、statsmodelsでは結果がレポート形式で出力されるなど便利な点と自由度調整済み決定係数が産出される点である。
便利なのはstatsmodelsであるが、セミナーでは両方について特徴を説明し、その他について注意点を述べる。
Pythonでは、便利なライブラリーが無料で提供されているが、このように重複した機能のライブラリーが公開されているので、初心者は悩むことになる。
初心者でなくても当方は悩んだ。本の選択に悩んだ時には両方買え、というのは亡父の読書哲学だが、プログラミングでは、どちらかを使うことになる。複数のお見合い写真を前に決めきれない人はこのような場合、効率よく仕事ができない。
セミナーでは、そのような場合の選択方法まで解説する。まず、人生では選択に悩んだ時に逃げては駄目である。しかし、本のように両方買うことができればよいが、どちらか一方を選択するというのは意思決定であり、訓練しなければ迅速な選択ができない。
お見合いでそれを訓練するという考え方もあるかもしれないが、弊社のセミナーに参加し、問題解決法の一つとして学ぶのが好ましい考え方である。
Pythonのライブラリーは無償提供されているので、両者をインストールしておく、という意思決定は誰でもできるだろう。経済的にはメモリーの消費をどのように考えるのか、となるが大した容量を消費しない。
次にプログラミングの時にどちらを実装するのか、それはセミナーで解説する。これは少し悩ましい問題を含んでいる。ChatGPTでは「どちらのライブラリも線形回帰の重回帰分析は可能ですが、目的やニーズに応じて使い分けることができます。」という無難な回答である。
カテゴリー : 一般
pagetop
回帰式を求めるだけならば数行でできるPythonのプログラミングだが、重回帰分析の使いこなしまで教えてくれない。また、それをChatGPTに尋ねると怪しい答えが出る。
質問の仕方で答えが変わるのを当方は楽しんでおり、その内容はAIいじめである。しかし、ネットを検索してみても、あるいは最近の「エクセルを使った多変量解析入門」という書籍を見ても、その解説内容に不満が残ったりする。
AIをいくらイジメてもその答えをお笑いで済ませることができるが、不十分な解説の教科書は、今時古本屋も買ってくれないのでゴミである。
1971年に奥野忠一らにより執筆された「多変量解析法」に勝る教科書に未だ出会ったことが無い。このような状況から、50年以上使われてきた多変量解析法は、科学と技術の境界に位置する学問だと理解させられる。
すなわち、多変量解析法を形式知としてとらえるには少し危ない学問である。奥野先生らの教科書はそのあたりを意識した書き方がされている。例えばあるパラメーターについて、「**ぐらいが適当である」と適当に書かれていたりする。
ゆえに教科書としていかがなものか、と思われる方もいるかもしれないが、形式知とならないところはそのように表現してくれれば読者はそのように適切に理解する。
それをすべて統計学による形式知のような表現をしている教科書が多いのが問題(昔、「統計でウソをつく」という本があったが)である。さらにエクセルのソルバーに至っては問題だと思う。ここは有料情報となるので書かないが、エクセルで多変量解析をやっている人はソルバーが吐き出す結果を見るときに注意を要する。
さて、重回帰分析のプログラムだが、Pythonでは良いあんばいにオブジェクトが設計されている。エクセルのソルバーのように「これこそ重回帰分析の結果である」と十分な答えを出さない。
先日この欄でPythonによる重回帰分析のプログラムを紹介しているが、重回帰分析結果は、すべてプログラマーの責任にゆだねられ、オブジェクトのふるまいはプログラマーが制御しなければいけない。
すなわち回帰式以外のユーザーが欲しい解析結果は、ユーザーがライブラリーに用意されたメソッドを一つ一つ実体として生成しない限り答えを出してくれない。ここが優れている。
カテゴリー : 一般
pagetop
昨日Pythonで記述した重回帰分析プログラムを示したが、オブジェクト指向で簡易言語的色彩の強いPythonは、従来のプログラム言語と一線を画す。
これが20年前のPythonならばいまのようにライブラリーが充実していなかったので、他のオブジェクト指向よりも不完全なオブジェクト指向言語という位置づけだった。
それがDXの進展で、多数のライブラリーが無償提供され、生成系AIを使えばコードをすぐに吐き出してくれる。すなわち、プログラマーでなくても難しいデータサイエンスのプログラムを書けてしまう時代になった。
しかもエディターも高性能エディターが無償提供され、開発環境全てがタダ。とんでもない状況がビジネス環境に出現した。Chat-GPTを何に使うか議論する必要は無く、チョメチョメのPythonプログラムが欲しい、と尋ねれば、昨日のようなコードを書けるヒントが現れる。
開発環境から便利なライブラリーやツール類も無償提供されているので、0円でコンピューターによる問題解決ができてしまう。弊社にご依頼いただければ最適な教育プログラムを提供させていただきます。ただしこれは有料です。
カテゴリー : 一般
pagetop
9月にサービスセミナーを予定しているが、Pythonを御存じない方のために重回帰分析により、回帰式を求めるプログラムを下記に示す。
import pandas as pd
import numpy as np
from sklearn import linear_model
input_df = pd.read_excel('input.xlsx',header=0)
X = input_df[['P','C1','B']]
y = input_df['L.O.I.']
reg = linear_model.LinearRegression()
reg.fit(X,y)
print('偏回帰係数:',reg.coef_)
print('切片:',reg.intercept_)
たったこれだけである。
これは、当方の50年近く前に高分子学会「崩壊と安定化研究会」で講演した燃焼時にガラスを生成してポリウレタンを難燃化するシステムの解析を行うためのプログラムである。
50個近くのエクセルに書かれたLOIデータを読み込み、難燃性因子PとCl、Bを説明変数とする重回帰式をこのプログラムは吐き出してくれる。
弊社のサイトに書かれている重回帰分析のプログラムコードよりも圧倒的に少ない。それは重回帰式を求めるPythonのライブラリーが無料提供されているからで、
reg = linear_model.LinearRegression()
reg.fit(X,y)
この2行で重回帰式の計算を行っている。
PythonがC#その他の言語よりもブームとなっているのは、ライブラリー類がすべて無償提供されているからである。ゆえに既製品のライブラリーでできることなら、この例のようにただ、ライブラリーからメソッドを切り貼りするだけである。
セミナーではこのプログラムにいろいろとおまけをつけて、プログラムを動かせば重回帰分析ででき、一通りの解析結果をグラフ化して示すところまで分かり易く解説するので、機械学習の入門セミナーとして最適である。
カテゴリー : 未分類
pagetop
9月30日(時間:10:00-16:00、12:00-12:50昼休み)に参加費1万円で多変量解析のセミナーを予定しています。お盆休み重回帰分析セミナーにご参加いただいた方は、5000円とします。
プログラムも午前中は重回帰分析、午後を主成分分析の解説にします。Pythonの使用を前提にして、参加者には重回帰分析と主成分分析のサンプルプログラム(Pythonで記述)を事前に配布します。
この事前配布したプログラムと機能アップ、使い方を中心としたセミナーであり、無料開放されているPython入門セミナーとは大きく内容と密度が異なります。
ただしPythonを必要としない方でも弊社のサイトのプログラムを活用して解析できます。なお、セミナーでは、Python初心者あるいは、これからPythonのプログラミングを始めたい方にも参考となるような進行を考えています(注)。
すなわち多変量解析の解説とともにPythonプログラミングのツボを解説いたします。本セミナーでは、多変量解析を足掛かりにし、マテリアルズインフォマティクスはじめデータサイエンスを業務に取り込み、個人のパフォーマンスを上げることを目指しリスキリングを可能にします。
ゆえにセミナー料金もサービス価格としており、さらに詳細な解説付きプログラムを無料で配布するという出血サービスです。
(注)Pythonの環境構築ができていない方には、その方法のマニュアルを受講テキストに添付しますので事前に環境構築し、配布されたプログラムを試すことができます。
お申込みはこちら
カテゴリー : 未分類
pagetop
パーコレーションという現象について数学者たちは1950年代から議論してきた。そして今やn次元のパーコレーションについてその閾値が求められている。
ボンド問題とサイト問題はそのままで、両者について閾値が知られている。スタウファーの教科書には詳しくその解説がなされているが、これを読み解くためには高度な数学の知識が必要だ。
教科書なので、その高度な数学についても丁寧な説明がなされており、パーコレーションについて彼の教科書を読めば、確率が関わる現象であることがわかる。
世界で発生している山火事もパーコレーションの問題の対象と言うよりも、もともとパーコレーションの研究が始まったのはカリフォルニアの山火事問題だった。
数学者は1950年代からパーコレーションの問題を論じてきたが、化学の世界では1980年前後まで複合則あるいは混合則という定理が存在し、それで科学的に議論が進められてきた。
当方が1979年にゴム会社へ入社した時に指導社員からパーコレーションが混合則で議論されている問題を教えられた。ゴムには様々な配合物が添加される。
フィラーとして添加されるカーボンについてパーコレーションの問題を混合則で議論していては、現象の理解が難しいというわけだ。それでも経験知を科学的な議論の中に取り込み学会で混合則の議論が展開されていた。
カテゴリー : 一般
pagetop
統計学の分野で生まれた多変量解析の重回帰分析は、回帰すなわち実験データの欠損値や未知のデータ予測に使われる。
その目的においては、回帰式の信頼性が重要になり、t検定が行われあるいはp値からどの程度の予測精度が得られるのか、これらのパラメーターを基に考察される。
重回帰分析は、このような回帰の目的以外に、従属変数(目的変数)へ独立変数(説明変数)がどの程度の寄与があり、その寄与率を考察することにより、目的変数に影響が大きい説明変数を見出し、目的変数の改善を行ったりする目的で使用される。
この用途では、独立変数が一次独立であるのかどうかが重要になってくる。ゆえにこの一次独立性を確保するために段階式重回帰分析や主成分分析の組み合わせ手法が用いられたりする。
技術開発では、説明変数の素性が分かっているので、段階式重回帰分析を用いるよりも技術の視点から変数を選び、回帰式を組み立てた方が良い。
回帰式の組み立てにおいて、単純に統計手法としてのやり方だけでなく、問題解決の視点からの方法もあることを知ってほしい。
すなわち、問題解決においてデータはあるが、どこから手を着けたらよいのか分からない場合、とりあえず多変量解析を行ってみる、というのは有効な方法であり、そのとき目的が明確ならば重回帰分析となる。
この問題解決の用途で重回帰分析を行う時にp値とかt値を気にする必要はない。なぜならヒントを得る目的なので、係数の統計的信頼性よりも係数から得られる情報を重視するからである。
また、t値やp値はデータ量が多くなると良い値になる傾向がある。すなわちデータ量が多くなるとt検定に合格しやすくなるので、その視点からも重要度が下がる。
むしろ説明変数の一次独立性の方が重要になったりする。説明変数の目的変数に対する寄与を調べたりする時には標準偏回帰係数を用いなければならない。このとき全説明変数の標準偏回帰係数の総和が1からどれだけずれるのかは目安になるのだが、このあたりの説明がなされていない本が多い。
その他に重回帰分析で分類やデータの特徴づけ、すなわち主成分分析の分野で行うような解析もできるが、問題解決法としての説明は、一般の多変量解析の教科書に出てこない。弊社の関連するセミナーだけで解説されるノウハウだ。
5000円セミナーでも50000円セミナーで解説するこのあたりのノウハウも盛り込んでいるので、極めてお得である。5000円セミナーは盆休み特別企画である。
カテゴリー : 一般
pagetop
約30年ほど前にPythonが登場した時、Lattice C を使っていた。C++に移行し始めたとき、C#の使いやすさからC#を使うようになった。PythonがOCTAに採用されても、Pythonを使う気にはなれなかった。
MSーOfficeで少し複雑な計算を行う時、VBAを立ち上げていた。C#のライブラリーとVBAはよく似ていたのでそれほど敷居は高くなかったが、お金がかかった。
Pythonが無料であっても、お金を出せば必要なライブラリーが揃うC#は便利だったので、Pythonへの関心が薄れていった。しかしこの数年使用言語はPythonだけに変わっていった。
驚くのは、エクセルも使わなくなった。Pythonでグラフが書けてしまうからだ。無償のライブラリーが豊富にあり、スクリプト言語として使いやすい。例えば回帰式を求めたい時には数行のコードを書けばよい。
エクセルのソルバーなら一発で、というが、エクセルのようにオブジェクトをこちょこちょいじる必要はないのだ。コードを数行書くだけである。また一度作ってしまえば、使いまわしができ、エクセルのソルバーよりも深い解析ができる。
データ駆動でアイデアを練る時にPythonは欠かせない道具になった。C#ではここまで気楽に使えない。ライブラリーのサポートも切れたので、コロナ禍となってからはPythson1色である。コロナ禍でプログラミング環境も変わった。ウィルスとは無関係だが。
カテゴリー : 一般
pagetop
今回重回帰分析をとりあげて2時間5000円のPython入門セミナーを企画した。Pythonについては、予習で環境設定まで受講者各自で行ってもらい、2時間の半分以上の時間を重回帰分析の説明に充てる。
重回帰分析の数学に関する説明は、プログラムのアルゴリズムで説明するので数学に弱い人でも理解できる。主に重回帰分析を使った問題解決手法に力点を置き説明したい。
例えば、重回帰分析を統計学の視点で解説するとt検定すなわちt値やP値の議論が重視されるが、問題解決の観点では、説明変数の係数の意味が重要となってくる。
すなわち、t値が低くても説明変数の意味が問題解決において重要であれば、その係数の信頼性をあげるように工夫する必要がある。これはt値やP値を議論する統計学の説明では????となるような内容だが、実務の問題解決では重要な視点となる。
もっともt値やP値はデータ量が多くなれば有意となる確率が高くなる性質がある。ところがデータ量が多くなると説明変数の意味とは関係なく、計算上有意となっている場合もある(これをセミナーでは数学的にも説明する)。
すなわち問題解決で重回帰分析を使う時にはt値やP値よりも寄与率や決定係数の見方や意味が重要になってくる。これが顕著になるのは、アーレニウスの解析で重回帰分析を使用する場合である。詳しくはセミナーで。
カテゴリー : 一般
pagetop