ClusterClassify

ClusterClassify[data]

データを同じような要素のクラスタに分割してClassifierFunction[]を生成する.

ClusterClassify[data,n]

n 個のクラスタでClassifierFunction[]を生成する.

詳細とオプション

  • ClusterClassifyは,数値,テキスト,画像,日付と時点およびそれらの組合せを含むさまざまなデータタイプに使うことができる.
  • クラスタの数は以下の形で指定できる.
  • Automaticクラスタ数を自動的に求める
    n厳密に n 個のクラスタを求める
    UpTo[n]最高で n 個のクラスタを求める
  • 使用可能なオプション
  • CriterionFunction Automaticメソッド選択の基準
    DistanceFunctionAutomatic使用する距離関数
    FeatureExtractor Identity学習するための特徴をどのように抽出するか
    FeatureNames Automatic入力データに割り当てる特徴名
    FeatureTypes Automatic入力データに割り当てる特徴タイプ
    Method Automatic使用するメソッド
    MissingValueSynthesis Automatic欠測値の合成方法
    PerformanceGoal Automaticパフォーマンスのどの面について最適化するか
    RandomSeeding 1234どのような擬似乱数生成器のシードを内部的に使うべきか
    Weights Automatic各例に与える重み
  • デフォルトで,ClusterClassifyは,DistanceFunctionが指定されていない限り自動的にデータの前処理を行う.
  • DistanceFunctionの設定は,任意の距離,非類似度関数,あるいは2つの値間の距離を定義する関数 f でよい.
  • PerformanceGoalの可能な設定
  • Automatic速度,確度,メモリ間の自動トレードオフ
    "Memory"分類器の必要メモリを最小にする
    "Quality"分類器の確度を最大にする
    "Speed"分類器の速度を最大にする
    "TrainingSpeed"分類器の生成に使う時間を最小にする
  • Methodの可能な設定
  • Automaticメソッドを自動選択
    "Agglomerate"単一連結クラスタ化アルゴリズム
    "DBSCAN"密度に基づくノイズを含むアプリケーションのクラスタ化
    "GaussianMixture"ガウス混合アルゴリズムのバリエーション
    "JarvisPatrick"JarvisPatrickクラスタ化アルゴリズム
    "KMeans"k 平均クラスタ化アルゴリズム
    "KMedoids"メドイドの周りの分割
    "MeanShift"平均シフトクラスタ化アルゴリズム
    "NeighborhoodContraction"データ点を高密度領域にシフトさせる
    "SpanningTree"最小全域木に基づいクラスタ化アルゴリズム
    "Spectral"スペクトルクラスタ化アルゴリズム
  • "KMeans"法と"KMedoids"法はクラスタ数が指定されているときにしか使用できない.
  • "DBSCAN""GaussianMixture""JarvisPatrick""MeanShift""NeighborhoodContraction"の各メソッドは,クラスタ数がAutomaticのときしか使えない.
  • 以下のプロットは,トイデータ集合に一般的なメソッドを適用した結果を示している.
  • CriterionFunctionの可能な設定
  • "StandardDeviation"二乗平均平方根標準偏差
    "RSquared"R乗
    "Dunn"Dunn指標
    "CalinskiHarabasz"CalinskiHarabasz指標
    "DaviesBouldin"DaviesBouldin指標
    "Silhouette"シルエットスコア
    Automatic内部指標
  • RandomSeedingの可能な設定
  • Automatic関数が呼び出されるたびに自動的にシードを変える
    Inherited外部シードの乱数を使う
    seed明示的な整数または文字列をシードとして使う
  • ClusterClassify[,FeatureExtractor"Minimal"]は,内部的な前処理はできる限り簡単にすべきであることを示している.

例題

すべて開くすべて閉じる

  (3)

数値データについてClassifierFunctionを訓練する:

分類器関数を使って新規のラベルのない例を分類する:

この例についての分類確率を得る:

複数の例を分類する:

異なる2つのクラスの確率を区間{-5,5}でプロットする:

クラス数が5になるように要求し,色についてClassifierFunctionを訓練する:

ラベルのないデータについてClassifierFunctionを使う:

クラス数によって要素を集める:

文字列についてClassifierFunctionを訓練する:

要素をクラス数によって集める:

スコープ  (11)

実数を分類する:

ベクトルを分類する:

ブールベクトルを分類する:

分類器を使って新たなTrueFalseのブールベクトルにクラスタを割り当てる:

分類器を使って1と0のブールベクトルにクラスタを割り当てる:

それぞれの確率を見る:

画像を分類する:

分類器を使って新たな画像を集団にまとめる:

3D画像を分類する:

色を分類する:

文字列を分類する:

分類器を使って新たな文字列を集団にまとめる:

非同次データを分類する:

時を分類する:

分類器を使ってデータをクラスタ化する:

ランダムな実数を分類する:

分類器情報を見る:

使用されている特定のメソッドを説明を得る:

平面上にランダムな点を生成し,可視化する:

データを分類する:

代りに新たなランダムな点を分類する:

結果のクラスタ化を可視化する:

IndeterminateThresholdを使って同じテストデータを分類する:

Indeterminateクラスタを含む結果のクラスタ化を可視化する:

オプション  (10)

CriterionFunction  (1)

分割されたデータを生成し,可視化する:

Automatic CriterionFunctionを使って分類器関数を構築する:

CalinskiHarabasz指標をCriterionFunctionとして使って分類器関数を構築する:

データの2つのクラスタ化を比較する:

FeatureExtractor  (1)

画像のリストからClassifierFunctionを作り,新たな例を分類する:

カスタムのFeatureExtractorを作って特徴を抽出する:

FeatureNames  (1)

分類器関数を生成し,各特徴に名前を与える:

連想形式を使って新たな例にクラスタを割り当てる:

リストの形式を使い続けることもできる:

FeatureTypes  (1)

数値的な特徴タイプと名義的な特徴タイプを仮定して分類器関数を生成する:

名義的特徴タイプを仮定して分類器関数を生成する:

新たな例の結果を比較する:

Method  (2)

一様分布を使ってデータを生成する:

データを分類する:

Informationを使ってメソッドの説明を得る:

クラスタ化されたデータを見る:

k平均を使ってデータを分類する:

クラスタ化されたデータを見る:

多変量正規分布を使って大きいデータ集合を生成し,可視化する:

ClusterClassifyを使って使用メソッドを指定してクラスタを求め,AbsoluteTimingを見る:

結果のクラスタ化を見る:

ClusterClassifyを使って使用するメソッドを指定せずにクラスタを求め,AbsoluteTimingを見る:

MissingValueSynthesis  (1)

多変量正規分布を使って大きいデータ集合を生成し,可視化する:

ClusterClassifyを使ってクラスタを求める:

データが欠落している点の上位クラスタ確率を取得する:

欠落値の合成を設定して,欠落している各変数を,既知の値が与えられた場合に推定される最も可能性の高い値に置き換える(これはデフォルトの動作である):

欠落値を既知の値を条件とするランダムサンプルで置き換える:

欠落している変数をランダムサンプリング戦略で繰り返し置き換えることで,点について可能性のあるクラスタの分布を取得する:

PerformanceGoal  (1)

一様分布に従うデータ集合を生成し,可視化する:

このデータから訓練速度に重点を置いて分類器を得る:

クラスタをランダムに生成したデータに割り当て,AbsoluteTimingを見る:

このデータから速度に重点を置いて分類器を得る:

クラスタをランダムに生成したデータに割り当て,AbsoluteTimingを上の例と比較する:

テストデータの2つのクラスタ化を可視化し,"TrainingSpeed"の設定がいかによりよい結果を与えるかを見る:

RandomSeeding  (1)

いくつかの分類器をランダムな色について訓練する:

新たな色について分類器を計算し,結果が常に等しいことを観察する:

RandomSeedingオプションの値を変えて,いくつかの分類器を同じ色について訓練する:

分類器をについて訓練し,分類器がどのように変わるかを観察する:

Weights  (1)

外れ値を含む分離されたデータを生成する:

データをクラスタ化する:

分類器関数を使って外れ値を他の点と一緒に分類する:

データをクラスタ化し,外れ値に大きい重みを加える:

分類器関数を使って同じ点を分類する:

アプリケーション  (3)

いくつかの分類器を一様分布に従う小さいデータ集合について訓練する:

一様分布に従う多数のランダムな点についての分類器を使って三角形を分割する:

正規分布に従うデータを生成する:

クラス数を指定せずにデータをクラスタ化する:

クラス数を指定してデータをクラスタ化する:

画像中の主調色を求める:

画像の画素値の配列で与えられるデータをクラスタ化する:

分類器を使って各画素にクラスタを割り当てる:

分類器関数を使って4つの主調色を求める:

分類器を使って各主調色のバイナリマスクを得る:

Wolfram Research (2016), ClusterClassify, Wolfram言語関数, https://reference.wolfram.com/language/ref/ClusterClassify.html (2020年に更新).

テキスト

Wolfram Research (2016), ClusterClassify, Wolfram言語関数, https://reference.wolfram.com/language/ref/ClusterClassify.html (2020年に更新).

CMS

Wolfram Language. 2016. "ClusterClassify." Wolfram Language & System Documentation Center. Wolfram Research. Last Modified 2020. https://reference.wolfram.com/language/ref/ClusterClassify.html.

APA

Wolfram Language. (2016). ClusterClassify. Wolfram Language & System Documentation Center. Retrieved from https://reference.wolfram.com/language/ref/ClusterClassify.html

BibTeX

@misc{reference.wolfram_2024_clusterclassify, author="Wolfram Research", title="{ClusterClassify}", year="2020", howpublished="\url{https://reference.wolfram.com/language/ref/ClusterClassify.html}", note=[Accessed: 17-November-2024 ]}

BibLaTeX

@online{reference.wolfram_2024_clusterclassify, organization={Wolfram Research}, title={ClusterClassify}, year={2020}, url={https://reference.wolfram.com/language/ref/ClusterClassify.html}, note=[Accessed: 17-November-2024 ]}