活動報告

新着記事

カテゴリー

キーワード検索

2025.05/02 AIを鍛える?

AIについて書いてきたが、生成系AIの面白いところは、自分の知識やニーズに合わせて、AIの出力をより有用なものに調整していける点にある。少しAIに気を使い謙虚な表現にしたが、生成系AIはあらかじめ学習された情報(訓練データ)に基づいて出力を生成していることは、これまでにも述べてきた。


これは、AIが訓練されていない分野については、適切な情報を出力できず、不正確な回答をすることがあるということを意味している。場合によっては、もっともらしく見えても実際には事実と異なる内容を出力することがあり、これは「ハルシネーション(幻覚)」と呼ばれている現象である。


もし人間側がその分野について十分な知識を持っていれば、AIのハルシネーションに騙されずに済むが、そうでない場合は、説得力のある虚偽情報に誤認させられてしまうこともある。


このような問題を避けるために、数年前から「プロンプトエンジニアリング」という技術が注目されるようになった。最近では、ハルシネーションを抑制する技術的手法も知られるようになり、AIの出力によって世間が混乱する場面も以前よりは減ってきたのではないか。


しかし、「AIに何かを教えてもらいたい」と思っても、その分野についてAIが十分な知識を持っていない場合、役に立たず、がっかりさせられることがある。


そのようなときには、自分の持っている情報や知識をAIに提示し、それを文脈として活用させてから質問をすると、驚くほど的確な回答が返ってくることがある。


詳しい話はここでは省くが、このような技術をサービスとして提供する企業も増えてきている。最近では、そういった企業に対する不満の声を酒席などで耳にすることもある。


結構高額な料金を支払っているケースもあるようだが、日常的な利用に限るのであれば、自分でAIに丁寧に情報を与えることで、無料でも十分に活用できるし、頭の体操にもなる。


このようにAIをうまく活用していけば、将来的には一部の専門家の支援が不要になる分野も出てくるかもしれない。弊社は、そうした時代の到来を見据えて事業を展開している。


(注)今提供されているAIは、深層学習のアルゴリズムで学習した状態で提供されている。しかし、この状態で全世界の英知をAIが身につけているわけではない。試しに、〇〇フェチの人は、自分の深い知識をAiが持ち合わせているのか、確認してみるとよい。特殊な分野の知識についてAIは適当な回答しかしないのでがっかりさせられる。そんなAIでも2-3日自分の知識を基に対話していると、さらに発展的な、あるいは退廃的かもしれないが、驚くべき回答をしてくることもある(だからと言ってChatGPT本体が賢くなったわけではない。それはスレッドを変えて質問してみるとわかる。それまでの知識がリセットされたような回答となる。ゆえに鍛えると言ってもChatGPT本体を鍛えているわけでもない)。また、この対話を通じ、AIがどのように動作しているのかも学ぶことができる。ちなみに当方がゴム会社と写真会社で成果を出した技術についてに尋ねると、科学的に当たり前のことだけ回答してくれる。当方が発明した技術の回答ができないから面白い。当方の発明について特許が公開されているが、そこにはコンセプトを公開していない。ただ材料の組み合わせが書かれているだけである。AIはデータ以上のことを考えられないのである。面白いのはここからであるが、その面白さは問い合わせていただきたい。3月のゴム協会におけるシンポジウムではその一部の技法を公開した。

カテゴリー : 一般

pagetop