書評:Shocks, Crises, and False Alarms: How to Assess True Macroeconomic Risk

2025/4/20

Shocks, Crises, and False Alarms: How to Assess True Macroeconomic Risk Philipp Carlsson-Szlezak, Paul Swartz Shocks, Crises, and False Alarms: How to Assess True Macroeconomic Risk  本書はマクロ経済における近年見られたような、ショック、危機などのリスクを案内します。  マクロ経済のリスクを判断するとき、リスクが実際のショック ...

ReadMore

合衆国の新関税の税率と貿易収支

2025/4/17

2025年4月2日に合衆国の新しい関税の税率が公表されました。現在の貿易収支の状況と導入される関税の税率をまとめます。 合衆国の貿易収支 図1 合衆国の貿易収支2023年(単位:USD million)  図1は、左側が輸出国、右側が輸入国です。マウスポインタを領域の上に置くと、輸出入額(単位:100万USドル)を表示します。 データソースはJETROがまとめている貿易投資年報より参照。 新関税の税率と各国の対米貿易収支 図2 関税税率と対米貿易収支 対米貿易収支は、輸出額から輸入額を減算した値(単位:1 ...

ReadMore

強化学習による因果探索 gCastle因果探索アルゴリズムの検証(3)

2025/3/18

gCastleに実装された探索アルゴリズムの中で、強化学習を使ったアルゴリズムが高い性能を示しています。本稿ではこの探索のための強化学習アルゴリズムを解説します。 強化学習を使った探索  強化学習は一般的にポリシーを学習することを目的に用いられますが、彼らはこれをDAGの探索に使っています。  巡回セールスマンの問題と同様に、d次元のnシーケンスでベストスコアを導くことで、入力データからバイナリの隣接行列の生成を考えます。  隣接行列を出力するためにエンコーダ/デコーダ・モデルを作りますが、エンコーダ自己 ...

ReadMore

CastleBoardの使い方 gCastle因果探索アルゴリズムの検証(2)

2025/3/2

中国のAI技術動向の調査を兼ねて、gCastleに実装された因果探索アルゴリズムを検証しました。gCastleはGUIツールCastleBoardを含んでいますが、パッケージにツールのマニュアル類は添付されていません。そのため、本稿では実際にアルゴリズムを検証するためのCastleBoardの使い方について解説します。 CastleBoardの操作  GUIツールはいくつかの設定項目への入力でテストデータを生成できるため、テストプログラムを組むより簡単にアルゴリズムを検証できます。ツールの機能は主に二つの ...

ReadMore

マイニング・セクターのリスク許容度、関税の影響 (DoubleMLの推論)

2025/3/14

 2025年2月に合衆国の新政権の政策として、鉄鋼とアルミニウムに25%の関税が課されることが決定されました。一方で、ウクライナへのこれまでの支援の対価として、ウクライナの鉱物資源などの天然資源の権益取得が交渉されています。  この関税政策が、原料である鉄鉱石やボーキサイトなどの鉱物資源の採掘を行なっている企業に与える影響について分析します。  分析手段として機械学習を使った推論手法、DoubleML(Double Machine Learning)を用います。このDoubleMLという推論手法と同じ名称 ...

ReadMore

gCastle 因果探索アルゴリズムの検証

2025/2/28

gCastleは、因果探索アルゴリズムが実装された因果の構造を学習するツールチェインです。パッケージは、Webアプリを含んでおり、因果探索アルゴリズムがGUIベースの操作で検証できるようになっています。 gCastle 概要  Huawei社のリサーチラボから提供されています。因果探索アルゴリズムが実装されており、Webアプリを使用してアルゴリズムの動作が検証できます。  GCastleの名称は、Gradient-based Causal Structure Learning pipeline. の頭文字 ...

ReadMore

クレジット・カードの種別と利用額の最適化 YLearnによる因果推論(2)

2025/2/20

YLearn因果推論パッケージを使ったケース・スタディを使ってYLearnの機能を解説します。YLearnの因果推論パイプラインを使ったマーケティング上の分析の一つになります。クレジット・カードのグレードを更新した場合の効果の推論です。 機能と仕様  以下、簡単に機能をまとめ、最後にケーススタディを使って動作を確認します。ケース・スタディでは、Kaggleの実際のデータセットを使います。 DAG グラフと交絡因子  観測されていない変数はconfounding arcとして定義し、下の図1では(黒の点線) ...

ReadMore

YLearnによる因果推論(1) 概要とセットアップ

2025/2/20

 因果推論はAIシステムが、イベント間の真の因果関係をよりよく理解する助けになります。中国製のLLMが最近、話題(注1)になっていたので、データサイエンス分野で中国の因果推論に関する取り組みとツールについて評価します。  因果推論や因果探索のツールとして、Huaweiが提供しているgCastleと、因果探索・因果推論ツール、ylearnを使います。gCastleはPyTorchで実装された因果探索パッケージです。因果関係に関連した代表的なアルゴリズムが実装されて、検証ツールが提供されています。Huawei ...

ReadMore

Jupyter-notebookがAnaconda Navigatorから起動できない問題

2025/2/6

新しいAnaconda Navigatorをインストールしたところ、jupyter-notebook(7.3.2)がNavigatorから起動できない問題がありました。 Navigatorのエラーメッセージは、次のようになっています。 【The file /Users/xxx/anaconda3/bin/Jupyter_mac.command does not exist.】 jupyter_mac.command does not exist.  問題は、インストールまたはNavigatorが参照してい ...

ReadMore

Apple Silicon Mac 用 Anacondaバージョン更新・インストール

2025/2/5

Apple Silicon用に新しいバージョンのAnacondaがリリースされていたので、Navigatorの更新を兼ねてインストールします。 (Mac OSの更新(Sequoia15.3)によって、使用中のNavigatorが起動しなくなったため) Anaconda Navigatorのインストール  以下のAnacondaのサイトにアクセスします。最近のAIに対する、人と資本、計算リソースの流れを反映した画面に様変わりしています。 https://www.anaconda.com  【1】画面左上のP ...

ReadMore

システム 書評

書評:Why Machines Learn

Why Machines Learn: The Elegant Math Behind Modern AI

Anil Ananthaswamy

Why Machines Learn: The Elegant Math Behind Modern AI

 本書は1950年代のローゼンブラットのパーセプトロンから現代の深層機械学習までの物語を記述してあります。

 今年、2024年のノーベル物理学賞を授与された、ホップフィールド氏(John Hopfield)とヒントン氏(Geoffey Hinton)の仕事も、8章から10章に記述されています。

 プリンストン大の物理学者ホップフィールドは、物理学からイジングモデルと素粒子のスピンから着想を得てホップフィールドネットワークを考案しました。

 ヒントン氏については、ニューラルネットワークへの記憶の保存に関して、バックプロパゲーションによる学習方法の改善に関して一つの章を割いて詳しく記されています。彼は深層機械学習において、入力と出力層の間に隠れ層を導入しました。

 甘利俊一氏も1967年に多層パーセプトロンのトレーニングに確率勾配降下法を使った技術を紹介しています。1980年代の初頭にRunmelhurt, Hinton, Williamsが深層ニューラルネットワークに対応したアルゴリズムを開発します。

 Geoge Cybenkoは、 正確な種類の多層ネットワークで、十分なニューロンが与えられれば、入力を変換して必要な出力を得るどのような関数も近似できることを示しました。

 各章毎に機械学習の重要な概念が誕生する経緯を、そこに至るまでの歴史から、貢献した人物たちの仕事の成果と数学的背景を丁寧に解説してあります。

 7章にVapnikの仕事の成果が記されてあります。少し内容を紹介してみましょう。

 データの分類に関して、ハイパープレーンはデータポイントを正確に二つの分類に分割します。フランク・ローゼンブラットのパーセプトロンを使い、もし存在すれば、そうしたハイパープレーンを見つけることができます。

 ベル研にいたVapinkは、データを分類するための、パーセプトロンよりも良い方法でハイパープレーンを見つけることができる新しいアルゴリズムを考案しました。

 彼の配偶者のGuyonは、80年台の初めに、パリで学生だった当時の指導者であるDreyfusに、ある論文を読むように指導されました。著者の名前はJohn Hopfieldと記されていました。論文はニューラルネットワークを構築する方法に関するものでした。それはホップフィールド・ネットワークと呼ばれるようになるメモリへ記憶するためにデザインされていました。

 彼女は修士課程の研究で、ホップフィールド・ネットワークをもっと効果的にトレーニングする方法を開発しました。彼女は別のパターン認識のアルゴリズム、当時バイブルだったRichard Dudaと Peter Hurtによるパターン認識の本を取り上げました。その方法は、共同の発明者によるCovert-Hurt k-近傍アルゴリズム(k-nearest neighbor)として5章に記載されています。そしていくつかのパターン認識アルゴリズムのベンチマークと実装を始めました。Guanは博士号をとるためと、さらにベル研での仕事に対して二つのアイデアで立ち向かいました。一つは最適化マージン分類のアイデア、ホップフィールドネットワークや他のアルゴリズムを使って線形の分類を構築する場合でもWerner Krauthと Marc Mazardの仕事を認識していました。二人は1987年にホップフィールドネットワークのトレーニング法に関する論文を執筆しており、ネットワークが最小のオーバーラップでメモリを記憶する方法を示したものでした。彼らのアイデアややり方は、座標空間の二つの領域を分割するために、最適なマージンを見つけるためのアルゴリズムでした。

 ベル研でBernhard BoserがGuyonにVapnikの最適化マージン分類について話したとき、1991年の秋に実装したところでした。

 Vapnikは低い次元で線形に分離できないものを高い次元に持っていくように要求しました。Guyonはそうしたアイデアに博士課程で出会っていました。鍵となる論文の一つは、ロシアの研究者、M.A.Aizemanによって1964年に執筆されました。彼らの論文は物理学のアイデアにインスパイアされて、非線形の境界を見つけるためにローゼンブラットのパーセプトロンによって稼働できるアルゴリズムを開発しました。

図1

 上の図1では、三角形から円の境界を定める(分割するための)直線、または線形に分割するハイパープレーン、を引く方法はありません。しかし、これらのデータを(下の図2のように)三角形が円の上部に置けるような三次元の中に置く案があれば、私たちはそのような分割するハイパープレーンを見つけることができます。

図2

アルゴリズムは同時に二つのことを実行する必要があります。

  1. データが何らかの高い次元の空間にマップできるように新しい特徴を作る。
  2. 新しい空間上に点乗積(dot積)の実行を避けて、分割するハイパープレーンを見つけることができる。

 Aizerman, Braverman, Rozonoerは、1964年の論文にパーセプトロンのアルゴリズムのために実行するための方法を示していました。

 約10年後、よりわかりやすいものとして、彼らは開発されたマッピングの方法を使いました。三つの特徴を使って、二次元データを三次元データにマップすることを始めます。

 もし、私たちが二つの低次元ベクターを関数Kに入れるなら、その関数は、より高い次元の空間の引数ベクターのドット積に等しい値を出力します。

K(a,b) = φ(a) φ(b)

この関数Kはカーネル関数と呼ばれます。

 ある高次の空間での点乗積(dot products)を計算するためにカーネル関数を使う方法は、カーネルトリックと呼ばれます。

 私たちはカーネル化したパーセプトロンアルゴリズムを見ることができます。

 各データポイントは3次元にマップされ、その時、パーセプトロン・アルゴリズムは線形に分割するハイパープレーンを見つけるために使うことができます。図3を参照してください。

図3

 3角形から円を分離するプレーンを見つけるアルゴリズムによって、 3D空間で2種類のデータポイントが明確に分離されているのを見ることができます。

 どのような新しい二次元のデータポイントが与えられても、私たちはそれを3D空間にマップすることができ、ハイパープレーンへの相対的なその位置に依存して、3角形または円として分類することができます。

 この3D空間の輪郭を元の2次元空間に戻すことで、3角形から円を分離する非線形の境界を取得します。

 Guyonは彼女の博士論文の時にカーネルの周辺で研究しており、仕事に着いた後もそうしました。特に彼女は、1975年のMITのコンピュータ・ニューロサイエンスのTomaso Poggioによって紹介された多項式カーネル(Polynomial kernel)と呼ばれる種類のものを使っていました。

 以下に多項カーネルの一般的な様式を示します。

 K(x,y) = (c + x・y) **d         c,d は定数

 定数のc,d にそれぞれ 0, 2を設定すると、パーセプトロン・アルゴリズムで使っていた以下の式を得ます。

 K(x,y) = (x・y)2

 彼女は、パーセプトロンアルゴリズムのように、高次元でそれらの魔法を実行するのにカーネルトリックを使うことができました。

 それは、新しい特徴を作ることによってデータを高次におく、そして高次の空間で最適化マージンの分類を構築するというVapnikのアイデアを、彼女の夫が彼女に語る時、1991年まで待たなければならなりませんでした。

 これらの特徴は、個別の特徴を乗算することによって生成することができました。例えば、

xj -> φ(Xj)

 Vapnikはこの方法で新しい特徴を作ることによって、アルゴリズムを実装するために、Bernhard Boserが必要でした。

 Boserが職場でGyuonにこれを話した時、彼女はすぐにそうしたアルゴリズムは無用だとわかりました。彼女はBoserにそれらの特徴の生成物を作る必要はないと言いました。彼女は提案しました。"カーネルトリックを使いましょう。"

 彼女はトリックを夫に説明し、すぐにVapnikの最適化マージンアルゴリズムをカーネルを使ったものに書き直しました。

 こうしたカーネル関数の中にRBFカーネルがあります。

 RBFカーネルは、アルゴリズムが、何らかの大きな次元の空間で線形に分離可能なハイパープレーンを常に見つけるのを助けることができます。それがどのれほど複雑であっても、低次の空間へマップするとき、どのような決定境界も見つけることができます。すべての関数の近似であると言えます。このフレーズを気に留めておいてください。本書では、全体の章を通して、どのような確かな種類の人工のニューラルネトワークもまた、全体の関数の近似になるということを議論し、そのときに、十分なニューロンが与えられれば、それらはどのような問題を解くこともできるということに、全体の章を充てています。

 1964年のVapnikの最適化マージン分類とカーネルトリックの組み合わせは、信じられないほど強力であることを立証しました。

 VapnikとCortesは彼らのアルゴリズムをサポートベクターネットワークと呼びました。ドイツのコンピュータ・サイエンティストで、現在マックスプランク研究所でインテリジェント・システムのディレクターであるのBernhard Scholkopfは、ニューラルネットワークからアルゴリズムを区別するために、"サポートベクターマシーン"(SVM)に名称変更しました。

 SVMは現在、ゲノム解析、癌の研究、ニューロロジー、画像診断、HIV薬のカクテルの最適化まで、気候調査、地球物理学、宇宙物理学の広範囲な応用分野の発見に使用されています。

 80年代はニューラルネットワークが機械学習を支配していました。そして、90年代になって、突然、皆がカーネル法に切り替えました。

 現在、ニューラルネットワークが再び、現代の機械学習を支配しています。本質的に、理論的な前進は、ニューラルネッットワーク・サービスとカーネルマシンの間の期待を掻き立てるリンクを見せ初めています。

 ヒントン氏らは、ニューラルネットに隠れ層を導入して、バックプロパゲーションによる多層ニューラルネットワークの学習能力を向上させることに焦点を当てていました。

 図1の例で見たデータを分類するのに、SVMでは、カーネルをデザインする必要がありました。しかし、十分なニューロンのあるニューラルネットでは、私たちがしなければならないことは、X1,X2の入力とデータを正しく分類するために必要となる特徴をネットワークに理解させることです。

 隠れ層の三つのニューロンのニューラルネットワークで、以下の(図3)決定領域を見つけられるでしょう(もっと深い隠れ層があれば、より滑らかな決定境界にすることができます)

図4

 トロントのヒントン氏の元にいたLeCun氏がニュージャージーのベル研にわたりました。彼はベル研で合衆国の郵便サービス(USPS)から大量の手書き数字コードの画像のデータセットにアクセスすることができました。USPSはZIPコードを認識する処理に興味があリました。LeCunは手書きの数字を認識するためにニューラルネットを使いました。彼のCNNを使ったアルゴリズムは、LispからC言語を経由してDSP上に実装され、手書きのZIPコードの認識に使用されました。顧客向けのシステムのため、パターン認識のCNNのソフトウエアはオープンソースにはなりませんでした。

 LeCunのLeNetは、銀行業界で数字の読み込みと認識に使用されました。これはバックプロパゲーションによる深層学習を使った実際の応用例の一つになりました。

 ヒントン氏のチーム(Krizhevsky, Sutskever, Hinton)がGPUにCNNを組み込んで(AlexNet)画像認識でSVMを超える成果をあげました。彼らのチームを中心にGPUに実装したニューラルネットが使われるようになって、隠れ層を深くしたディープ・ニューラルネットが様々な分野で成果を上げるようになりました。

 そして、現在のTransformerを使った自然言語処理が展開されていきます。LLMは言語の構造を学習し、自動学習画像処理ネットワークは画像の統計的な構造を学習します。

 本書のサブタイトルにあるように、パーセプトロンから始まり、現在のAIの技術まで、トピック毎に開発者たちの仕事を通じて、技術の背後にあるエレガントな数学が解説されています。現在までの技術の推移を把握できる内容になっています。

-システム, 書評
-, , , ,