二層法

2 層手法は、Gracia パラダイムと深層学習モデルの利点を組み合わせた、機械学習の問題を解決する革新的な方法です。この手法は、韓国ソウル大学統合科学管理研究所の研究者チームによって 2019 年に開発されました。

この方法の主な考え方は、データが 2 つの層に分割されるということです。最初の層には限られた数のクラスター (基底ベクトル) が含まれ、2 番目の層には完全なデータ サンプルが含まれます。 2 層法の主な目的は、最初の層の基底ベクトルがトレーニングの対象となった高次元データ クラスターに関連付けられるように、高次元データを層に分割することです。したがって、予測モデルは、トレーニングされた基本ベクトルと複数の基本レイヤー (線形モデルやロジスティック回帰など) に基づいてトレーニングできます。

2 層アプローチの特徴は、その柔軟性と多用途性です。幅広い問題に適用でき、大量のデータの処理に適しています。さらに、この方法により、特にデータが線形分離できない場合の予測精度が大幅に向上します。原則として、予測値は、第1層と第2層の基本ベクトルの座標のペアごとの交差に基づいて計算され、その結果、データ要素間の隠れた相関関係を特定することが可能になります。

2 層アプローチが使用できる問題の例を見てみましょう。 1. 以前の測定結果に基づくデータの分類と予測。この場合、方法の第 1 段階では現在の測定値を分類し、第 2 段階では時空間相関を考慮してこれらの測定値間の関連性を見つけます。 2. 高度な治療法。機械学習は、治療のための患者データの高度な分析を可能にする強力なツールとして機能します。たとえば、医学では、薬物化合物グラフなどのツールを使用して、さまざまな病気に最適な薬物の組み合わせを決定できます。個別化医療には二層法が効果的に活用されます。

2 層の機械学習アーキテクチャの利点:

既存のエクスペリエンスに依存するのではなく、独自のデータ表現と空間の抽象化を構築する Grazia の深層学習手法とは異なり、2 層アーキテクチャはシステムにすでに組み込まれている既存のエクスペリエンスへのリンクを提供し、手法自体は深層学習よりもはるかに単純です。 、つまり 。操作がそれほど複雑ではなく、計算の複雑さと計算要件がはるかに低く(したがって、構築に費やす計算リソースが少なくて済み)、問題の予測において非常に優れた結果を達成することができます。正確な初期仮説がない場合、関連領域の構造に関する事前知識がない場合でも、2 層モデルは一般に代替方法よりも優れたパフォーマンスを発揮することがわかっています。初期設定の小さな違いは、おそらく次のことを示しています。