40年近く前の話。半導体微粒子をシリコーンオイルに分散し、電場をかけるとそれが固体に近い物性になる。そして電場を開放すると流体に戻る電気粘性流体という物質が研究されていた。
すなわち、電場のON-OFFで流体と固体の異なる状態を瞬時に制御できる魔法のような物質である。これをゴムケースに封入すると防振ゴムやアクティブサスなど様々な製品へ応用できることが期待された。
しかし、シリコーンオイルは高分子への浸透性が高いのでゴムの配合剤を取り込んで増粘する問題があった。ゴムケースに封入して1時間程度の耐久試験を行うとヘドロ状態になり機能が失活した。
この電気粘性流体の耐久性に関わる問題について、旧7帝大の博士2名と修士1名、その他の優秀なスタッフ総勢6人で1年間対策を研究している。
そして、電気粘性流体の耐久性問題は、あらゆるHLB値の界面活性剤を用いても解決できない、という科学的に完璧な否定証明の報告書をまとめている。
そこでこのスタッフたちは、全く添加剤の入っていない加硫ゴムが唯一の解決策と言う企画を提出し、当時の研究所で最もゴムについて詳しいという理由で、高純度SiCの事業化を住友金属工業と進めていた当方に仕事が回ってきた。
耐久性を考慮したら実用化が難しいゴムケースを開発するよりも、耐久性の高い公知のゴムケースを用いて電気粘性流体の耐久性を改善したほうが開発の成功率が高い、と判断した当方は、データサイエンスでこの問題を解決している。
カテゴリー : 一般
pagetop
お盆休みも終わり、夏休みも残り2週間。夏休みの宿題に困っている人は名古屋へ旅行するとよい。日帰りでも宿泊でもよい。宿泊ならば少し高いが近くに長島温泉がある。
名古屋の1泊を安くあげたいならば、ビジネスホテルの利用がある。最も安いところを探すと5500円で宿泊可能だ。1泊しなくても夜行バスを使ったりして日帰りで安く仕上げることも可能だ。この時朝飯は立食きしめんが安くておいしい。
さて、名古屋のどこを観光するのか。名古屋駅周辺だけでも1日過ごせる場所がある。ノリタケの森だ。近くにはトヨタ産業技術記念館がある。栄生駅から3分だが、曇っておれば名古屋駅から歩いてゆく方法もある。
当方は、5年前名古屋駅からノリタケの森と産業技術記念館を歩いて回り名古屋駅に戻り東京に帰ってきた。60を過ぎていても大丈夫な距離だ。
いずれも入場無料であり、夏休みの宿題のネタがいっぱい溢れている。有料の体験コーナーもあるのでそこで夏休みの宿題を済ませれば、頭を使う必要はない。ただしお金と手を使うことになる。
もう少し足をのばすとコニカミノルタ満天がある。名古屋には、栄にある科学館にもプラネタリウムがあり、そこのチケットがあれば満天に2割引きで入館可能だ。
ただし、満天のほうが星がきれいで楽しめるので星を見たいだけならば科学館まで行く必要はないが。名古屋の都市伝説として、東山動物園の池と科学館のプラネタリウムをデートスポットとした話が有名だ。満天にはそれが無いのでデートにお勧めである。
岡崎まで出かければ、カクキュウとマルヤが無料で味噌製造工場を案内してくれて、記念に赤だし味噌をサービスしてくれるので両者の比較をするとよい。甲乙つけがたしである。
以前カクキュウでははちみつ入りの赤だし味噌を販売していたが辞めてしまった。理由は不明であるが、当方の好物だった。面白いのは味噌汁を作る時にはちみつを入れても同じ味とはならない点である。プロセシングが味に影響していた。そこがよかった。
NHKの大河ドラマで旬な場所なので混雑しているかもしれないが、赤だし味噌について学ぶのによい場所である。味噌カツのタレをお土産で買うのを忘れないでほしい。東京では手に入らない秘伝のタレが販売されている。
この他にも多数無料スポットがあり交通費以外に食費を用意しておけば十分に楽しめる。意外と知られていないのが、名古屋のスイートである。気が向いたら、この欄で後日紹介する。
カテゴリー : 一般
pagetop
製造工程の前倒しをフロントローディングと言ったりしていたが、最近は研究開発の企画段階で諸問題を検討する過程にも使われるようになった。
50年近く前のゴム会社の研究開発に比較すると、かなり企画に重点が置かれるようになった。30年前あたりからMOTが注目された成果であり、良い傾向である。
ゴム会社の最初の指導社員とは3か月間という短い期間のご指導だったが、その次の指導社員とは男女の性差以外にその指導内容に雲泥の差がありびっくりした。
しかし、その大きな差があってもその女性指導社員が研究開発本部の標準社員と聞いてさらに驚いた。3か月間の指導社員よりも5歳若い美人の指導社員だった。
最初の指導社員から、教えたことを研究開発本部内では言わない方が良い、とアドバイスしてくれたが、その時奇妙な納得が得られている。最初の指導社員のフロントローディングを取り入れた企画スキルは、当時あまりにも前衛的過ぎた。
すなわち、企画段階ですでにモノがほぼ出来上がっていたのである。もちろん商品として仕上げるには耐久性データはじめ多くのデータを揃える必要があったが、完成品とほぼ近い物性のモデルサンプルが出来上がっていた。
このモデルサンプルだけでなく、ダッシュポットとバネのモデルによる材料物性のシミュレーションがなされ、代表的な配合設計因子を変えたときにおきる物性変化の予測グラフまでできていた。
それでは新入社員の当方は何を行えばよいのかと質問したところ、モデルサンプル以外により良い配合が無いか探すことだという。すなわち、ポリマーを組み合わせたときの相分離については予測が不可能なので、と説明されていた。
フローリー・ハギンズ理論のχで予測がつきそうなものだが、実際に生じる相分離ではプロセスにより同一配合でも異なる結果となるとのこと。要するにやってみなければわからないという意味か、と質問したら、その通り、と言われた。
フロントローディングで物性予測までできていたが、最良の配合を見つける作業はやってみなければわからない状態だった。そこで研修で習ったばかりの実験計画法を持ち出すのだが、続きは後日。
カテゴリー : 一般
pagetop
先日重回帰分析のPythonプログラムを紹介したが、Pythonで重回帰分析プログラムを作成する方法としてscikit-learn以外にstatsmodelsを使用する方法もある。
ネットにもいろいろと情報が出ており、この両者の比較もなされている。統計データなので小数点の桁数の違い等出力結果に一部差異があるが、統計計算を知っておれば大きな問題ではない、と気がつく。
しいて両者の差異を書き出せば、statsmodelsでは結果がレポート形式で出力されるなど便利な点と自由度調整済み決定係数が産出される点である。
便利なのはstatsmodelsであるが、セミナーでは両方について特徴を説明し、その他について注意点を述べる。
Pythonでは、便利なライブラリーが無料で提供されているが、このように重複した機能のライブラリーが公開されているので、初心者は悩むことになる。
初心者でなくても当方は悩んだ。本の選択に悩んだ時には両方買え、というのは亡父の読書哲学だが、プログラミングでは、どちらかを使うことになる。複数のお見合い写真を前に決めきれない人はこのような場合、効率よく仕事ができない。
セミナーでは、そのような場合の選択方法まで解説する。まず、人生では選択に悩んだ時に逃げては駄目である。しかし、本のように両方買うことができればよいが、どちらか一方を選択するというのは意思決定であり、訓練しなければ迅速な選択ができない。
お見合いでそれを訓練するという考え方もあるかもしれないが、弊社のセミナーに参加し、問題解決法の一つとして学ぶのが好ましい考え方である。
Pythonのライブラリーは無償提供されているので、両者をインストールしておく、という意思決定は誰でもできるだろう。経済的にはメモリーの消費をどのように考えるのか、となるが大した容量を消費しない。
次にプログラミングの時にどちらを実装するのか、それはセミナーで解説する。これは少し悩ましい問題を含んでいる。ChatGPTでは「どちらのライブラリも線形回帰の重回帰分析は可能ですが、目的やニーズに応じて使い分けることができます。」という無難な回答である。
カテゴリー : 一般
pagetop
回帰式を求めるだけならば数行でできるPythonのプログラミングだが、重回帰分析の使いこなしまで教えてくれない。また、それをChatGPTに尋ねると怪しい答えが出る。
質問の仕方で答えが変わるのを当方は楽しんでおり、その内容はAIいじめである。しかし、ネットを検索してみても、あるいは最近の「エクセルを使った多変量解析入門」という書籍を見ても、その解説内容に不満が残ったりする。
AIをいくらイジメてもその答えをお笑いで済ませることができるが、不十分な解説の教科書は、今時古本屋も買ってくれないのでゴミである。
1971年に奥野忠一らにより執筆された「多変量解析法」に勝る教科書に未だ出会ったことが無い。このような状況から、50年以上使われてきた多変量解析法は、科学と技術の境界に位置する学問だと理解させられる。
すなわち、多変量解析法を形式知としてとらえるには少し危ない学問である。奥野先生らの教科書はそのあたりを意識した書き方がされている。例えばあるパラメーターについて、「**ぐらいが適当である」と適当に書かれていたりする。
ゆえに教科書としていかがなものか、と思われる方もいるかもしれないが、形式知とならないところはそのように表現してくれれば読者はそのように適切に理解する。
それをすべて統計学による形式知のような表現をしている教科書が多いのが問題(昔、「統計でウソをつく」という本があったが)である。さらにエクセルのソルバーに至っては問題だと思う。ここは有料情報となるので書かないが、エクセルで多変量解析をやっている人はソルバーが吐き出す結果を見るときに注意を要する。
さて、重回帰分析のプログラムだが、Pythonでは良いあんばいにオブジェクトが設計されている。エクセルのソルバーのように「これこそ重回帰分析の結果である」と十分な答えを出さない。
先日この欄でPythonによる重回帰分析のプログラムを紹介しているが、重回帰分析結果は、すべてプログラマーの責任にゆだねられ、オブジェクトのふるまいはプログラマーが制御しなければいけない。
すなわち回帰式以外のユーザーが欲しい解析結果は、ユーザーがライブラリーに用意されたメソッドを一つ一つ実体として生成しない限り答えを出してくれない。ここが優れている。
カテゴリー : 一般
pagetop
昨日Pythonで記述した重回帰分析プログラムを示したが、オブジェクト指向で簡易言語的色彩の強いPythonは、従来のプログラム言語と一線を画す。
これが20年前のPythonならばいまのようにライブラリーが充実していなかったので、他のオブジェクト指向よりも不完全なオブジェクト指向言語という位置づけだった。
それがDXの進展で、多数のライブラリーが無償提供され、生成系AIを使えばコードをすぐに吐き出してくれる。すなわち、プログラマーでなくても難しいデータサイエンスのプログラムを書けてしまう時代になった。
しかもエディターも高性能エディターが無償提供され、開発環境全てがタダ。とんでもない状況がビジネス環境に出現した。Chat-GPTを何に使うか議論する必要は無く、チョメチョメのPythonプログラムが欲しい、と尋ねれば、昨日のようなコードを書けるヒントが現れる。
開発環境から便利なライブラリーやツール類も無償提供されているので、0円でコンピューターによる問題解決ができてしまう。弊社にご依頼いただければ最適な教育プログラムを提供させていただきます。ただしこれは有料です。
カテゴリー : 一般
pagetop
パーコレーションという現象について数学者たちは1950年代から議論してきた。そして今やn次元のパーコレーションについてその閾値が求められている。
ボンド問題とサイト問題はそのままで、両者について閾値が知られている。スタウファーの教科書には詳しくその解説がなされているが、これを読み解くためには高度な数学の知識が必要だ。
教科書なので、その高度な数学についても丁寧な説明がなされており、パーコレーションについて彼の教科書を読めば、確率が関わる現象であることがわかる。
世界で発生している山火事もパーコレーションの問題の対象と言うよりも、もともとパーコレーションの研究が始まったのはカリフォルニアの山火事問題だった。
数学者は1950年代からパーコレーションの問題を論じてきたが、化学の世界では1980年前後まで複合則あるいは混合則という定理が存在し、それで科学的に議論が進められてきた。
当方が1979年にゴム会社へ入社した時に指導社員からパーコレーションが混合則で議論されている問題を教えられた。ゴムには様々な配合物が添加される。
フィラーとして添加されるカーボンについてパーコレーションの問題を混合則で議論していては、現象の理解が難しいというわけだ。それでも経験知を科学的な議論の中に取り込み学会で混合則の議論が展開されていた。
カテゴリー : 一般
pagetop
統計学の分野で生まれた多変量解析の重回帰分析は、回帰すなわち実験データの欠損値や未知のデータ予測に使われる。
その目的においては、回帰式の信頼性が重要になり、t検定が行われあるいはp値からどの程度の予測精度が得られるのか、これらのパラメーターを基に考察される。
重回帰分析は、このような回帰の目的以外に、従属変数(目的変数)へ独立変数(説明変数)がどの程度の寄与があり、その寄与率を考察することにより、目的変数に影響が大きい説明変数を見出し、目的変数の改善を行ったりする目的で使用される。
この用途では、独立変数が一次独立であるのかどうかが重要になってくる。ゆえにこの一次独立性を確保するために段階式重回帰分析や主成分分析の組み合わせ手法が用いられたりする。
技術開発では、説明変数の素性が分かっているので、段階式重回帰分析を用いるよりも技術の視点から変数を選び、回帰式を組み立てた方が良い。
回帰式の組み立てにおいて、単純に統計手法としてのやり方だけでなく、問題解決の視点からの方法もあることを知ってほしい。
すなわち、問題解決においてデータはあるが、どこから手を着けたらよいのか分からない場合、とりあえず多変量解析を行ってみる、というのは有効な方法であり、そのとき目的が明確ならば重回帰分析となる。
この問題解決の用途で重回帰分析を行う時にp値とかt値を気にする必要はない。なぜならヒントを得る目的なので、係数の統計的信頼性よりも係数から得られる情報を重視するからである。
また、t値やp値はデータ量が多くなると良い値になる傾向がある。すなわちデータ量が多くなるとt検定に合格しやすくなるので、その視点からも重要度が下がる。
むしろ説明変数の一次独立性の方が重要になったりする。説明変数の目的変数に対する寄与を調べたりする時には標準偏回帰係数を用いなければならない。このとき全説明変数の標準偏回帰係数の総和が1からどれだけずれるのかは目安になるのだが、このあたりの説明がなされていない本が多い。
その他に重回帰分析で分類やデータの特徴づけ、すなわち主成分分析の分野で行うような解析もできるが、問題解決法としての説明は、一般の多変量解析の教科書に出てこない。弊社の関連するセミナーだけで解説されるノウハウだ。
5000円セミナーでも50000円セミナーで解説するこのあたりのノウハウも盛り込んでいるので、極めてお得である。5000円セミナーは盆休み特別企画である。
カテゴリー : 一般
pagetop
約30年ほど前にPythonが登場した時、Lattice C を使っていた。C++に移行し始めたとき、C#の使いやすさからC#を使うようになった。PythonがOCTAに採用されても、Pythonを使う気にはなれなかった。
MSーOfficeで少し複雑な計算を行う時、VBAを立ち上げていた。C#のライブラリーとVBAはよく似ていたのでそれほど敷居は高くなかったが、お金がかかった。
Pythonが無料であっても、お金を出せば必要なライブラリーが揃うC#は便利だったので、Pythonへの関心が薄れていった。しかしこの数年使用言語はPythonだけに変わっていった。
驚くのは、エクセルも使わなくなった。Pythonでグラフが書けてしまうからだ。無償のライブラリーが豊富にあり、スクリプト言語として使いやすい。例えば回帰式を求めたい時には数行のコードを書けばよい。
エクセルのソルバーなら一発で、というが、エクセルのようにオブジェクトをこちょこちょいじる必要はないのだ。コードを数行書くだけである。また一度作ってしまえば、使いまわしができ、エクセルのソルバーよりも深い解析ができる。
データ駆動でアイデアを練る時にPythonは欠かせない道具になった。C#ではここまで気楽に使えない。ライブラリーのサポートも切れたので、コロナ禍となってからはPythson1色である。コロナ禍でプログラミング環境も変わった。ウィルスとは無関係だが。
カテゴリー : 一般
pagetop
今回重回帰分析をとりあげて2時間5000円のPython入門セミナーを企画した。Pythonについては、予習で環境設定まで受講者各自で行ってもらい、2時間の半分以上の時間を重回帰分析の説明に充てる。
重回帰分析の数学に関する説明は、プログラムのアルゴリズムで説明するので数学に弱い人でも理解できる。主に重回帰分析を使った問題解決手法に力点を置き説明したい。
例えば、重回帰分析を統計学の視点で解説するとt検定すなわちt値やP値の議論が重視されるが、問題解決の観点では、説明変数の係数の意味が重要となってくる。
すなわち、t値が低くても説明変数の意味が問題解決において重要であれば、その係数の信頼性をあげるように工夫する必要がある。これはt値やP値を議論する統計学の説明では????となるような内容だが、実務の問題解決では重要な視点となる。
もっともt値やP値はデータ量が多くなれば有意となる確率が高くなる性質がある。ところがデータ量が多くなると説明変数の意味とは関係なく、計算上有意となっている場合もある(これをセミナーでは数学的にも説明する)。
すなわち問題解決で重回帰分析を使う時にはt値やP値よりも寄与率や決定係数の見方や意味が重要になってくる。これが顕著になるのは、アーレニウスの解析で重回帰分析を使用する場合である。詳しくはセミナーで。
カテゴリー : 一般
pagetop